AI этикасы жана AI мыйзамы чындыгында эмнени ишенимдүү AI экенин түшүндүрөт

Ишеним баары болот, ошентип айтышат.

Белгилүү философ Лао Цзы жетиштүү ишенбегендерге ишенбейт деп айткан. Урматтуу жазуучу Эрнест Хемингуэй кимдир бирөөлөргө ишене аларыңызды билүүнүн эң жакшы жолу ага ишенүү экенин айткан.

Ал ортодо ишеним кымбат да, морт да окшойт. Ишеним карта үйүндөй кулап же жарылган шардай капысынан жарылып кетиши мүмкүн.

Байыркы грек трагедиси Софокл ишеним өлөт, бирок ишенбөөчүлүк гүлдөйт деп ырастаган. Француз философу жана математиги Декарт бизди бир жолу да алдап кеткендерге эч качан толук ишенбөө акылдуулук деп айткан. Миллиардер бизнес-инвестор, экстраординер Уоррен Баффет ишеничтүү репутацияны түзүү үчүн жыйырма жыл керек жана аны жок кылуу үчүн беш мүнөт керек деп үндөгөн.

Бул ар түрдүү көз караштардын жана ишеним жөнүндө чагымчыл ойлордун бардыгы Жасалма интеллекттин (AI) пайда болушу үчүн абдан маанилүү экенин билгениңизде таң калышыңыз мүмкүн.

Ооба, катуу айтылган нерсе бар ишенимдүү AI Бул бүгүнкү күндө көп көңүл буруп жатат, анын ичинде AI тармагындагы кол менен чалуулар, ошондой эле AI чөйрөсүнөн тышкаркы адамдардын катуу жарылуулары. Жалпы түшүнүк коом AI системаларына ишенүүгө даярбы же жокпу дегенди билдирет.

Кыязы, эгерде коом AIга ишенбесе же ишенбесе, AI системалары тартыла албай калышы ыктымал. Биз билгендей, AI учурда четке сүрүлүп, чаңды гана чогултат. Таң калыштуусу, AI тарыхый жактан сыналып, бирок укмуштуудай ийгиликсиз болгон жогорку технологиялык эксперименттен башка эч нерсеге айланган таштанды үймөгүндө калышы мүмкүн. AI кайра жандандыруу боюнча ар кандай аракеттер потенциалдуу чоң салгылашууга туш болушу мүмкүн жана ар кандай каршылыктар жана ачык нааразычылыктар менен токтотулушу мүмкүн. Кыязы, AIга ишенимдин жоктугунан улам.

Кайсынысы болот, биз AIга ишенишибиз керекпи же AIга ишенбейбизби?

Чындыгында бизде ишенимдүү AI болобу?

Булар мурдакы жана чечилбеген суроолор. Аны таңгактан чыгаралы.

AI этикасы жана ишенимдүү AI үчүн күрөш

AI ичиндеги көпчүлүктүн ишеними боюнча, AI тутумдарын иштеп чыгуучулар AIга ишенүүгө татыктуу болгон AIди тийиштүү түрдө ойлоп табуу менен AIга ишенимди ала алышат. Маңызы, эгер AI ишке киришкенде ишенимдүү көрүнбөсө, ишенимге ээ боло албайсыз. Ишенимдүү деп эсептелген AI тутумдарын түзүү менен, адамдар AIны кабыл алып, AI колдонууну кабыл алышына толук мүмкүнчүлүк бар.

Бул ишеничтүү AI кароосуна нааразы болгон бир кооптонуу - биз буга чейин эле а коомдук ишеним тартыштыгы AI жөнүндө сөз болгондо. Биз буга чейин көргөн AI тешик казып, чоң көлөмдөгү ишенимди жокко чыгарды деп айта аласыз. Ошентип, кандайдыр бир жетиштүү ишенимдүүлүк базасынан баштоонун ордуна, AI таң калыштуу түрдө тартыштыктан чыгып, AI чындыгында ишенимдүү экендигине адамдарды ынандыруу үчүн зарыл болгон ар бир каалаган кошумча ишеним унциясы үчүн тырмактап чыгышы керек.

Бул көйгөйгө AI этикасы жана AI мыйзамы кирет.

AI этикасы жана AI мыйзамы AIны ишенимдүү кылуу үчүн эмне талап кыларын түшүнүү менен катуу күрөшүп жатышат. Кээ бирөөлөр AIны ишенимдүү асманга киргизе турган формула же темирдей мыйзамдар бар деп айтышат. Башкалары коомдун ишенимине ээ болуу үчүн талыкпаган эмгекти жана AI этикасынын жана AI мыйзамынын принциптерин ырааттуу жана тынымсыз карманууну талап кылаарын айтышат.

AIга болгон ишеним жөнүндөгү заманбап табышмак өзгөчө жаңы эмес.

Сиз оңой эле 1990-жылдардын аягына кайтып келип, ошол күндөрдөн бери изделип жаткан “ишенимдүү эсептөө” каалоосунун пайда болушун байкай аласыз. Бул компьютерлер коом тарабынан ишенимдүү деп эсептеле тургандай кылып жасалса болорун аныктоо үчүн масштабдуу технологиялык өнөр жай аракети болгон.

Негизги суроолордон турган:

  • Компьютердин жабдыктарын ишенимдүү кылып жасоого болобу?
  • Программалык камсыздоону ишенимдүү кылып жасоого болобу?
  • Ишенимдүү боло турган глобалдык тармактык компьютерлерди орното алабызбы?
  • Жана башка.

Ошол учурда жана бүгүнкү күнгө чейин үстөмдүк кылуучу маанай - ишенимдүү эсептөөлөр, тилекке каршы, али биздин колубуздан келе элек ыйык грелдин бир түрү бойдон калууда ("Ишенимдүү AI" деген макалада белгиленгендей, ACM байланыш). Сиз AI эсептөө ишенимдүүлүгүн жабуунун дагы бир компоненти деп ишенимдүү түрдө талаша аласыз, бирок AI ишенимге умтулууну ого бетер татаал жана белгисиз кылат. AI ишенимдүү эсептөөлөргө жетүү үчүн күрөштө потенциалдуу спойлер болуп калды. Балким, чынжырдын эң алсыз звеносу.

Келгиле, AI эмне үчүн ишеничтүү болуу үчүн бизди коркутуп жатканын тез карап көрөлү. Кошумчалай кетсек, биз AI этикасынын принциптерин изилдейбиз, алар бүгүнкү күндөгү AIнын жарым-жартылай суу астында кабыл алынган ишенимин (же ишенимсиздигин) бекемдөөгө жардам берет деп үмүттөнөбүз. Менин AI этикасын үзгүлтүксүз жана кеңири чагылдыруу үчүн караңыз бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

ЖМКнын көңүлүн бурган AI этикасынын белгилүү бир сегменти же бөлүктөрү терс көз караштарды жана теңсиздикти көрсөткөн AIдан турат. AIнын акыркы доору башталганда, азыр кээ бирөөлөр деп атаган нерсеге энтузиазмдын чоң жарылуу болгонун билесиз. AI For Good. Тилекке каршы, ошол шаркыратма толкундан кийин биз күбө боло баштадык AI For Bad. Мисалы, AI негизиндеги жүздү таануунун ар кандай системалары расалык көз караштарды жана гендердик көз караштарды камтыганы аныкталган, алар жөнүндө мен талкууладым. бул жерде шилтеме.

каршы күрөшүү аракеттери AI For Bad активдүү жүрүп жатат. Кыйкырыктан тышкары укуктук туура эмес иш-аракеттерди ооздуктоого умтулуу, ошондой эле AIнын жамандыгын оңдоо үчүн AI этикасын кабыл алууга олуттуу түрткү бар. Биз AIны өнүктүрүү жана жайылтуу үчүн негизги этикалык AI принциптерин кабыл алып, бекитишибиз керек деген түшүнүк бар. AI For Bad жана ошол эле учурда артыкчылыктууларды жарыялоо жана алдыга жылдыруу AI For Good.

Тиешелүү түшүнүк боюнча, мен AIны AI көйгөйлөрүн чечүүнүн бир бөлүгү катары колдонууга аракет кылып, ушундай ой жүгүртүү менен от менен от менен күрөшүүнүн жактоочусумун. Биз, мисалы, этикалык AI компоненттерин AI тутумуна киргизсек болот, ал AIнын калган бөлүгү кандай иштерди жасап жатканын көзөмөлдөп, реалдуу убакытта дискриминациялоочу аракеттерди байкай алат, менин талкууну караңыз бул жерде шилтеме. Бизде ошондой эле өзүнчө AI системасы болушу мүмкүн, ал AI этикасынын мониторунун бир түрү катары иштейт. AI системасы башка AI этикага жатпаган туңгуюкка баратканда көзөмөлдөө жана аныктоо үчүн көзөмөлчү катары кызмат кылат (мындай мүмкүнчүлүктөр боюнча менин анализимди караңыз: бул жерде шилтеме).

Бир аздан кийин мен сиз менен AI этикасынын негизги принциптерин бөлүшөм. Бул жерде жана бул жерде калкып жаткан көптөгөн тизмелер бар. Сиз азырынча универсалдуу кайрылуунун жана макулдашуунун бирдиктүү тизмеси жок деп айта аласыз. Бул жагымсыз кабар. Жакшы жаңылык, жок эле дегенде, жеткиликтүү AI этикасынын тизмелери бар жана алар абдан окшош. Мунун баары негиздүү конвергенциянын бир түрү аркылуу биз AI этикасынын жалпы жалпылыгына карай жол таап жатканыбызды көрсөтүп турат.

Биринчиден, келгиле, AI жасаган, талаага чыгарган же колдонгон адам үчүн эмне маанилүү экенин көрсөтүү үчүн жалпы этикалык AI осуяттарынын айрымдарын кыскача ачып берели.

Мисалы, Ватикан тарабынан айтылгандай Рим AI этикасына чакырат жана мен тереңирээк карадым бул жерде шилтеме, булар алардын аныкталган алты негизги AI этикасынын принциптери:

  • ачыктык: Негизи, AI системалары түшүнүктүү болушу керек
  • Кошуу: Ар бир адам пайда көрүшү үчүн жана бардык инсандарга өзүн көрсөтүү жана өнүктүрүү үчүн мүмкүн болгон эң жакшы шарттарды сунуштоо үчүн бардык адамдардын муктаждыктары эске алынышы керек.
  • жоопкерчилиги: AI колдонууну иштеп чыккан жана жайылткандар жоопкерчилик жана айкындуулук менен жүрүшү керек
  • Калыс: Адилеттүүлүктү жана адамдык ар-намысты коргоп, бир жактуулукту жаратпаңыз же аракет кылбаңыз
  • ишенимдүүлүк: AI системалары ишенимдүү иштей алышы керек
  • Коопсуздук жана купуялык: AI системалары коопсуз иштеши керек жана колдонуучулардын купуялыгын сыйлашы керек.

АКШнын Коргоо министрлигинин (DoD) билдирүүсүндө Жасалма интеллектти колдонуунун этикалык принциптери жана мен тереңирээк карадым бул жерде шилтеме, булар алардын алты негизги AI этика принциптери:

  • Жооптуу: DoD кызматкерлери AI мүмкүнчүлүктөрүн иштеп чыгуу, жайылтуу жана колдонуу үчүн жоопкерчиликтүү бойдон калууда, тиешелүү деңгээлде ой жүгүртүү жана кам көрүшөт.
  • Адилеттүү: Бөлүм AI мүмкүнчүлүктөрүндө күтүлбөгөн терс көрүнүштөрдү азайтуу үчүн атайылап чараларды көрөт.
  • Изделүүчү: Бөлүмдүн AI мүмкүнчүлүктөрү тиешелүү персонал AI мүмкүнчүлүктөрүнө колдонулуучу технологияларды, иштеп чыгуу процесстерин жана оперативдүү ыкмаларын, анын ичинде ачык-айкын жана аудитордук методологияларды, маалымат булактарын, долбоорлоо процедурасын жана документтерин тийиштүү түшүнүүгө ээ болушу үчүн иштелип чыгат жана жайылтылат.
  • ишенимдүү: Бөлүмдүн AI мүмкүнчүлүктөрү ачык, так аныкталган колдонууга ээ болот жана мындай мүмкүнчүлүктөрдүн коопсуздугу, коопсуздугу жана натыйжалуулугу алардын бүткүл жашоо циклдеринде аныкталган колдонуунун алкагында сыноодон жана кепилдиктен өтүүгө тийиш.
  • Башкарылуучу: Бөлүм күтүлбөгөн кесепеттерди аныктоо жана болтурбоо, ошондой эле күтүлбөгөн жүрүм-турумду көрсөткөн орнотулган системаларды өчүрүү же өчүрүү жөндөмдүүлүгүнө ээ болуу менен, өз милдеттерин аткаруу үчүн AI мүмкүнчүлүктөрүн иштеп чыгат жана инженериялайт.

Мен ошондой эле AI этикасынын принциптеринин ар кандай жамааттык анализдерин талкууладым, анын ичинде көптөгөн улуттук жана эл аралык AI этикасынын жоболорунун маңызын изилдеген жана конденсациялаган изилдөөчүлөр тарабынан иштелип чыккан комплексти камтыган “The Global Landscape of AI Ethics Guidelines” (жарыяланган. ичинде жаратылыш), жана менин камтуум изилдейт бул жерде шилтеме, бул негизги таш тизмесине алып келди:

  • ачыктык
  • Адилеттик & Калыстык
  • Non-Maleficence
  • жоопкерчилик
  • Privacy
  • Пайдасы
  • Эркиндик жана автономия
  • ишеним
  • Туруктуулук
  • Кадыр-барк
  • Жардамдашуу

Түздөн-түз божомолдогонуңуздай, бул принциптердин негизинде жаткан өзгөчөлүктөрдү аныктоого аракет кылуу абдан кыйын болушу мүмкүн. Андан тышкары, бул кеңири принциптерди AI тутумдарын жасоодо колдонуу үчүн толугу менен сезилерлик жана деталдуу нерсеге айландыруу аракети да катаал жаңгак болуп саналат. AI этикасынын осуяттары эмне экендиги жана аларды жалпысынан кантип сактоо керектиги жөнүндө жалпысынан бир аз кол булгалоо оңой, ал эми AI коддоосунда бул жолго жооп берген чыныгы резина болушу керек болгон бир топ татаал жагдай.

AI этикасынын принциптерин AI иштеп чыгуучулары, ошондой эле AI өнүктүрүү аракеттерин башкаргандар, ал тургай, акырында AI тутумдарын иштеткен жана тейлеген адамдар колдонушу керек. AIны иштеп чыгуунун жана колдонуунун бүткүл жашоо циклиндеги бардык кызыкдар тараптар Этикалык AIнын белгиленген нормаларын сактоонун алкагында каралат. Бул маанилүү жагдай, анткени адаттагыдай, "кодерлор гана" же AIди программалагандар AI этикасынын түшүнүктөрүн карманууга тийиш. Жогоруда айтылгандай, AI ойлоп табуу жана жайылтуу үчүн айыл керек, ал үчүн бүт айыл AI этикасынын эрежелерин билиши керек.

Келгиле, бүгүнкү AIнын табияты жөнүндө бир бетте экенибизди текшерип көрөлү.

Бүгүнкү күндө сезимтал AI жок. Бизде бул жок. Сезимдүү AI мүмкүн болорун билбейбиз. Эч ким так айта албайт, биз сезгич АИге жетебизби, же сезгич AI кандайдыр бир кереметтүү түрдө өзүнөн-өзү пайда болоорун айта албайт (көбүнчө сингулярлык деп аталат, менин камтууумду караңыз). бул жерде шилтеме).

Мен басым жасап жаткан AI түрү бүгүнкү күндө бизде бар сезилбеген AIдан турат. Эгерде биз жапайы ой жугуртууну кааласак сезимтал AI, бул талкуу түп-тамырынан бери башка багытта кетиши мүмкүн. Сезимдүү AI адамдык сапатка ээ болмок. Сиз сезүүчү AI адамдын когнитивдик эквиваленти экенин эске алышыңыз керек. Андан тышкары, кээ бирөөлөр бизде супер интеллектуалдык AI болушу мүмкүн деп божомолдогондуктан, мындай AI адамдардан акылдуураак болушу мүмкүн (супер-акылдуу AI боюнча менин изилдөөм үчүн, караңыз. камтуу бул жерде).

Келгиле, нерселерди жер бетине түшүрүп, бүгүнкү эсептөөчү сезилбеген AIны карап көрөлү.

Бүгүнкү AI адамдын ой жүгүртүүсү менен бирдей эч кандай модада “ойлоого” жөндөмсүз экенин түшүнүңүз. Alexa же Siri менен баарлашканыңызда, сүйлөшүү мүмкүнчүлүктөрү адамдын мүмкүнчүлүктөрүнө окшош сезилиши мүмкүн, бирок чындыгында ал эсептөөчү жана адамдын таанып-билүү жөндөмү жок. AIнын акыркы доору эсептөө үлгүлөрүн дал келүүнү камсыз кылган Machine Learning (ML) жана Deep Learning (DL) кеңири колдонду. Бул адамга окшош өңүттөгү AI системаларына алып келди. Ошол эле учурда, бүгүнкү күндө жалпы акылга окшош бир дагы AI жок жана адамдын күчтүү ой жүгүртүүсүнүн когнитивдик кереметтери жок.

ML/DL эсептөө үлгүсүн далдаштыруунун бир түрү. Кадимки ыкма сиз чечим кабыл алуу тапшырмасы жөнүндө маалыматтарды чогултасыз. Сиз маалыматтарды ML/DL компьютер моделдерине киргизесиз. Бул моделдер математикалык үлгүлөрдү табууга умтулушат. Мындай үлгүлөрдү тапкандан кийин, эгер табылса, AI системасы жаңы маалыматтарга туш болгондо ошол үлгүлөрдү колдонот. Жаңы маалыматтар берилгенден кийин, учурдагы чечимди чыгаруу үчүн "эски" же тарыхый маалыматтарга негизделген үлгүлөр колдонулат.

Менимче, сиз бул кайда бара жатканын биле аласыз. Эгерде чечимдерди кабыл алган адамдар терс көз караштарды камтыса, анда маалыматтар муну тымызын, бирок маанилүү жолдор менен чагылдырат. Machine Learning же Deep Learning эсептөө үлгүсүн дал келтирүү жөн гана тиешелүү түрдө маалыматтарды математикалык тууроого аракет кылат. AI тарабынан жасалган моделдөөнүн жалпы акыл-эстин же башка сезимтал аспектилердин окшоштугу жок.

Андан тышкары, AI иштеп чыгуучулар да эмне болуп жатканын түшүнбөй калышы мүмкүн. ML/DLдеги сырдуу математика азыр жашырылган калпыстыктарды жоюуну кыйындашы мүмкүн. Сиз AI иштеп чыгуучулары потенциалдуу көмүлгөн тенденцияларды сынашат деп үмүттөндүңүз жана күтөсүз, бирок бул көрүнгөндөн алда канча татаал. Салыштырмалуу кеңири тестирлөө менен дагы ML/DL үлгүсүнө дал келген моделдердин ичинде калпыстыктар сакталат деген чоң мүмкүнчүлүк бар.

Сиз кандайдыр бир атактуу же атагы чыккан таштандыны таштандыдан чыгаруу деген макалды колдонсоңуз болот. Эң негизгиси, бул AIнын ичине кирип кеткен көзкараштар катары тымызын түрдө пайда болгон бир тараптуулукка көбүрөөк окшош. AIнын алгоритмдик чечимдерди кабыл алуу (ADM) аксиоматикалык түрдө теңсиздикке толгон.

жакшы эмес.

Келгиле, муну ишенимдүү AI жөнүндөгү суроого байланыштыралы

Биз, албетте, терс көз караштарды жана басмырлоочу аракеттерди көрсөткөн AIга ишенүүгө даяр эмеспиз. Биздин ишенимибиз, мындай учурда, мындай AI ишенимдүү эмес, ошондуктан биз AIга жигердүү ишенбөөчүлүккө ыктайбыз. Антропоморфтук салыштыруудан ашып түшпөстөн (мен AI антропоморфизациясы жөнүндө бир аздан кийин айтып берем), терс көз караштарды көрсөткөн адам да өзгөчө ишеничтүү эмес деп бааланат.

Ишеним жана ишенимдүүлүктү казуу

Балким, биз кимдир бирөөгө же бир нерсеге ишенбейбиз деп ырастоодо эмнени билдирерин карап чыгышыбыз керек. Биринчиден, ишенимдин бир нече күнүмдүк сөздүк аныктамаларын карап көрөлү.

Ишенимдин аныктамалык маанисине мисалдар:

  • Кимдир бирөөнүн же бир нерсенин мүнөзүнө, жөндөмүнө, күчүнө же чындыгына ишенүү (Merriam-Webster онлайн сөздүк).
  • Бир адамдын же нерсенин бүтүндүгүнө, күчүнө, жөндөмүнө, кепилдикке ж.б (Dictionary.com)
  • Кимдир бирөөнүн же бир нерсенин ишенимдүүлүгүнө, чындыгына, жөндөмдүүлүгүнө же күчүнө бекем ишенүү (Oxford Languages ​​онлайн сөздүгү).

Мен бул аныктамалардын бардыгы "кимдир-бирөө" дегенди жана ошондой эле "бир нерсени" потенциалдуу ишенимдүү деп атаарын белгилегим келет. Бул көңүлгө аларлык, анткени кээ бирөөлөр биз адамдарга гана ишенебиз жана ишенүү актысы биздин ишенимдүүлүк максатыбыз катары гана адамзат үчүн сакталат деп ырасташы мүмкүн. Андай эмес. Сиз ашкана тостериңизге ишене аласыз. Эгер ал тостуңузду ишенимдүү жасап жаткандай сезилсе жана аны дайыма жасап жатса, анда тостер чындыгында ишенүүгө татыктуубу же жокпу деген ишенимге ээ боло аласыз.

Ошол эле ой жүгүртүү багытында AI да биздин ишеним көз карашыбыздын предмети болушу мүмкүн. AI менен байланышкан ишеним күнүмдүк тостерге караганда бир топ татаалыраак болот. Тостер адатта бир нече иш-аракеттерди жасай алат. AI системасы алда канча татаал жана анча ачык эместей көрүнөт. Биздин AIнин ишенимдүүлүгүн баалоо жана аныктоо жөндөмүбүз бир топ кыйыныраак жана өзгөчө кыйынчылыктарды жаратат.

Жөн гана татаалыраак болуу менен бирге, типтүү AI системасы детерминисттик эмес жана потенциалдуу өзүн-өзү жөнгө салуучу же өзүн-өзү жөнгө салуучу деп айтылат. Биз бул түшүнүктү кыскача изилдей алабыз.

Детерминисттик машина бир эле нерселерди кайра-кайра жасоого умтулат, алдын ала айтууга болот жана анын кандайча иштеп жаткандыгынын айкын үлгүсү менен. Кадимки тосттор болжол менен бирдей тост жасайт жана тостторду басаңдатуучу тостторду башкаруу элементтери бар деп айтышыңыз мүмкүн, булардын бардыгын тостторду колдонгон адам жалпысынан болжолдоого болот. Ал эми, татаал AI системалары көбүнчө детерминисттик эмес болуп иштелип чыккан, башкача айтканда, алар сиз күткөндөн башка нерселерди жасай алат. Эгерде AI өзүн-өзү тууралоо үчүн жазылган болсо, бул жарым-жартылай дагы күчөтүлүшү мүмкүн, бул аспект ML/DL учурунда AI жакшырышына мүмкүндүк берет, бирок ошондой эле AIнын солгундап же катарга киришине алып келиши мүмкүн. AI жамандыгы. Сиз айткандай, сизге эмне тийгенин билбей калышыңыз мүмкүн, анткени AIнын аракеттери сизди толугу менен байкабай калган.

AIны ишенимдүүлүккө жакындатуу үчүн эмне кылсак болот?

Бир ыкма AI куруп жаткандар AI этикасынын осуяттарынын топтомун карманышын камсыз кылууга аракет кылуудан турат. Бул AI изилдөөчүлөрү белгилегендей: "Ишеним - бул агент күтүлгөндөй жүрүш-турушу жана максатына жетүү үчүн ага ишенсе болот. Ишеним агент менен ишенимдүү адамдын ортосундагы ката же түшүнбөстүктөн кийин бузулат. Интеллектуалдык интеллектке болгон ишенимдин психологиялык абалы татаал системанын өзгөчө касиети болуп саналат, адатта дизайндын, окутуунун, жайылтуунун, натыйжалуулукту өлчөөнүн, жөнгө салуунун, кайра конструкциялоонун жана кайра даярдоонун көптөгөн циклдерин камтыган” (көрсөтүлгөн ACM байланыш, Стюарт Миддлтон, Эммануэль Летузе, Али Хоссэйни жана Адриан Чапман тарабынан “Европа чөлкөмүндөгү ишеним, жөнгө салуу жана адамдын интеллектуалдык интеллекти”, 2022-жыл, апрель).

Негизги нерсе, эгерде биз AI иштеп чыгуучуларын этикалык AIга баш ийүүгө мажбурлай алсак, алар ишенимдүү AI чыгарат деп үмүттөнүшөт. Мунун баары жакшы жана жакшы, бирок бул реалдуу дүйнөдө бир аз ишке ашпай тургандай сезилет, бирок бул такыр изденүүгө татыктуу жол.

Мына, мен деген эмне.

Биз жалпысынан X деп атай турган кандайдыр бир максатта AI системасын иштеп чыгуучу AI иштеп чыгуучулары тырышчаактык менен күч-аракет жумшашты дейли. Алар AI AI этикасынын ачыктык осуяттарын сакташына кылдаттык менен ынанышат. Алар купуялуулуктун AIга ылайыктуу түрдө орнотулушун катуу камсыз кылат. Кадимки AI этикасынын дээрлик бардык принциптери үчүн AI куруучулар AI берилген буйрукка жооп беришин толук камсыздайт.

Эми ошол AIга ишенишиңиз керекпи?

Ушул ачык суроо боюнча оюңузду айтууга мага уруксат этиңиз.

Көрсө, кибер шылуундар AIга кирип, тымызын AIга X аткарууга жетишип, ошол эле учурда киберхакерлерге AI чогултуп жаткан маалыматтардын баарын берип коюшкан. Муну менен бул кара ниеттер купуялуулуктун осуяттарын тымызын түрдө бузуп жатышат. Бул AI капкагы астында болуп жатканын бактылуу билбейсиз.

Кошумча маалымат менен мен сизге ошол эле суроону кайра берем.

Сиз AIга ишенесизби?

Мен айта кетейин, көпчүлүк адамдар дароо эле алар сөзсүз жасайт деп айтышат жок бул өзгөчө AIга ишен. Алар буга чейин ишенишсе керек. Эми алар AIны ишенимдүү деп эсептебей калышты.

Бул жөнөкөй мисалга негизделген бир нече негизги түшүнүктөр ой жүгүртүүгө татыктуу:

  • Ишеним динамикасы. AI этикасынын AI тутумуна орнотулушун камсыз кылуунун бардык негиздерин камтууга болгон эң жакшы ниеттер да AI эмне болуп чыгышына же болуп калышына кепилдик бербейт. AI колдонууга киргизилгенден кийин, сырттан келген адамдар Этикалык AI топтоолорун бузушу мүмкүн.
  • Ичтен ишеничти кетирүү. Ишенимдүүлүктү төмөндөтүү иш-аракети сөзсүз эле сырттан келгендер болушу шарт эмес. AI тутумун үзгүлтүксүз тейлеп жаткан инсайдер ката кетирип, AIны ишенимге татыктуу болбой калышы мүмкүн. Бул AI иштеп чыгуучу алардын эмне кылганын билбей калышы мүмкүн.
  • Ишенимдин кокусунан бузулушу. Өзүн-өзү жөнгө салуучу же өзүн-өзү жөнгө салуучу AI кандайдыр бир учурда өзүн тууралап, ишенимсиз аймакка бурулуп кетиши мүмкүн. Балким, AI AIнын айкындуулугун бекемдөөгө аракет кылат, бирок ошол эле учурда купуялык аспектилерин орунсуз түрдө бузуп жатат.
  • Ишенимдин чачылышы. AI этикасынын бардык принциптерине бирдей ишенимдүүлүк даражасына жетүүгө аракет кылуу, адатта, оңой эмес, анткени алар көбүнчө кайчылаш максаттарда же башка мүнөздүү конфликттерге ээ. Этикалык AI осуяттарынын бардыгы кыялдануу менен дал келет жана баарына бирдей максималдуу даражага жетүүгө болот деп ишенүү идеалдуу көз караш.
  • Ишенимге жетүү кымбатка турушу мүмкүн. Ар кандай кеңири жана толук кадамдарды жасоо жана AI этикасынын принциптерине баш ийүү аркылуу ишенимдүү AIнын эң мыкты окшоштугуна жетишүүнүн баасы салыштырмалуу жогору болот. Коом үчүн маанилүү мааниге ээ болгон кээ бир AI тутумдарын колдонууга алуу үчүн чыгым кымбат болот деп оңой эле талаша аласыз, ал тургай AI ишенимдүүлүк каалоосунан идеалдуу эмес деп айтсак да болот.
  • Жана башка.

Ишенимдүү AIны кылдат куруу жана жайылтуу аракетинен кандайдыр бир жол менен качышыбыз керек деп айтуу үчүн мурунку сөздөрдү туура эмес чечмелебеңиз. Сиз баланы ваннанын суусу менен ыргытып жибересиз. Туура чечмелөө - AIны ишенимдүү кароого алуу үчүн биз ишеничтүү иш-аракеттерди жасашыбыз керек, бирок бул жалгыз даба же күмүш ок эмес.

Ишенимдүү AI үчүн көп багыттуу жолдор

Ишенимдүү AI үчүн умтулуунун маанилүү кошумча көп багыттуу жолдору бар.

Мисалы, мен буга чейин өзүмдүн колонкаларымда айтып өткөндөй, AI боюнча жаңы пайда болгон көптөгөн мыйзамдар жана жоболор AI жасоочуларды ишенимдүү AI ойлоп табууга түртүүгө багытталган, караңыз бул жерде шилтеме жана бул жерде шилтеме.

Бул мыйзамдуу тосмолор AI ойлоп тапкандар AI үчүн толук жоопкерчиликке тартылышын камсыз кылуунун негизги каражаты катары өтө маанилүү. Мындай потенциалдуу укуктук каражаттар жана мыйзамдуу жазаларсыз, AIны базарга шашкандар, ишенимдүү интеллектке жетүү үчүн олуттуу көңүл бурбастан, муну уланта бериши мүмкүн. Мен кошумчалай кетейин, эгерде бул мыйзамдар жана жоболор начар иштелип чыкса же жетишсиз аткарылса, алар өкүнүчтүү түрдө ишенимдүү AIга умтулууну токтотушу мүмкүн, балким, ирониялуу жана таң калыштуу түрдө ишеничтүү AIга ишенимсиз AI-ны өнүктүрүп коюшу мүмкүн (мындан ары түшүндүрүү үчүн менин тилкеме талкууларды караңыз).

Мен ошондой эле мен катуу айтып келе жаткан нерсенин ишенимдүү жактоочусу болдум AI коргоочу периште боттору (менин камтууну караңыз бул жерде шилтеме). Бул от менен от менен күрөшүүнүн алдыдагы ыкмасы же мамилеси, тактап айтканда, ишенимдүү же ишенбөөчү башка AI менен күрөшүүдө бизге жардам берүү үчүн AI колдонуу.

Биринчиден, кээ бир фон контекст пайдалуу болот.

Сиз анын ишенимдүүлүгүнө ишенбеген AI тутумуна таянууну чечип жатасыз дейли. Негизги кооптонуу - бул AIга ишенүү керекпи же жокпу, аныктоо аракетиңизде жалгыз экениңиз болушу мүмкүн. AI сизге караганда тезирээк эсептөөчү жана сизден пайдалана алат. Жардам берүү үчүн сизге кимдир бирөө же бир нерсе керек.

Бир перспектива - сиз AI тутумун колдонуп жатканда сизге жардам бере турган адам ар дайым болушу керек. Бул көйгөйлүү чечим болсо да. Эгерде AI реалдуу убакыт режиминде иштеп жатса, биз аны AI негизиндеги өзүн-өзү башкара турган унаалардын пайда болушуна байланыштуу бир аз талкуулай турган болсок, анда адамдын циклине ээ болуу жетишсиз болушу мүмкүн. AI реалдуу убакыт режиминде иш алып барышы мүмкүн жана AI туура иштеп жатканын аныктоо үчүн сүрөткө белгилүү бир адам киргенде, катастрофалык натыйжа буга чейин болгон болушу мүмкүн.

Башкача айтканда, бул ишенимге дагы бир факторду алып келет. Биз, адатта, контекстке же жагдайга жараша ишеним деңгээлин дайындайбыз. Кичинекей уулуңуздун же кызыңыздын сизге ишенимдүү экенине толук ишенесиз, бирок эгер сиз сейилдөөдө жүрсөңүз жана аска-зоонун четине басуу коопсузбу же жокпу, айткысы келген балага таянууну чечсеңиз, менимче, сиз акылдуу болмоксуз. кичинекей бала өмүр же өлүм кеңешин бере алабы же жокпу, ойлонуп көрүү. Бала муну чын жүрөктөн жана чын жүрөктөн жасашы мүмкүн, бирок ага карабастан, мындай кеңешти адекваттуу түрдө бере албайт.

Ошол эле түшүнүк AI жөнүндө сөз болгондо ишеним менен байланышкан. Сиз шашки же шахмат ойноо үчүн колдонуп жаткан AI тутуму, балким, өлүм же өлүм талкууларына катышпайт. Ишеним тапшыруу менен сиз жеңилирээк боло аласыз. Жогорку ылдамдыкта трассада сүзүп бара жаткан AI негизиндеги өзүн-өзү башкара турган унаа бир топ күчтүү ишенимди талап кылат. AI айдоо тутумунун кичинекей бир кыйкырыгы түздөн-түз сиздин жана башкалардын өлүмүнө алып келиши мүмкүн.

Глобалдык Deloitte AI институтунун аткаруучу директору жана китептин автору Бина Амманаттын жарыяланган маегинде Ишенимдүү AI, AI ишенимдүүлүгү ойной турган контексттик аспектилерди карап чыгууга окшош басым: “Эгер сиз пациентке диагноз койгон AI чечимин куруп жатсаңыз, анда калыстык жана калыстык абдан маанилүү. Бирок эгер сиз реактивдүү кыймылдаткычтын иштебей калышын алдын ала айткан алгоритм түзүп жатсаңыз, анда калыстык жана калыстык анчалык деле маанилүү эмес. Ишенимдүү AI - бул чындыгында уюмуңуздагы ишенимдин өлчөмдөрү жөнүндө ойлонууга түрткү берүүчү түзүм» (VentureBeat, 22-март, 2022).

Ишенимдүү AI жөнүндө талкуулоодо, сиз бул теманы ар кандай жолдор менен чечмелей аласыз.

Мисалы, ишенимдүү AI Биз баарыбыз каалаган жана умтулган максат катары карай турган нерсе, тактап айтканда, биз ишенимдүү AI ойлоп таап, жайылтууну каалашыбыз керек. Кошумча сөздүн дагы бир колдонулушу бар. Бир аз альтернатива колдонуу болуп саналат ишенимдүү AI бул абалдын же өлчөөнүн абалы, кимдир бирөө ишенимдүү AIнын үлгүсү болгон AI тутумун түздү деп ырасташы мүмкүн. Сиз ошондой эле сөз айкашын колдоно аласыз ишенимдүү AI AI ишенимдүүлүгүнө жетүү үчүн колдонула турган ыкманы же ыкманы сунуштоо. Жана башкалар.

Тиешелүү эскертме боюнча, сиз бардык AI бирдей эместигин жана биз AIнын бардыгы жөнүндө ачык билдирүү жасабоодон сак болушубуз керек экенин түшүнөсүз деп ишенем. Белгилүү бир AI системасы башка AI тутумунан олуттуу айырмаланышы мүмкүн. Бул AI системаларынын бири өтө ишенимдүү болушу мүмкүн, ал эми экинчиси бир аз ишенимдүү болушу мүмкүн. AI толугу менен ишенимдүү же такыр ишеничтүү эмес монолит деп ойлогондо этият болуңуз.

Бул жөн гана учур эмес.

Эми мен сизди кызыктырган ишенимдүү AI жөнүндө жүрүп жаткан изилдөөлөрүмдүн айрымдарын кыскача айтып бергим келет. AI коргоочу периште боттору.

Мына ушундай болот.

Сиз башка AI тутумунун ишенимдүүлүгүн өлчөө үчүн иштелип чыккан AI системасы (AI коргоочу периште боту) менен куралданмаксыз. AI камкорчу периште боту сиздин коопсуздугуңузга өзгөчө көңүл бурат. Чыныгы чөнтөгүңүздө башка AI тутумуна ээ болуу менен, балким, смартфонуңузда же башка ушул сыяктуу түзмөктөрдө иштеп жаткан AI системасын көзөмөлдөөгө каражатыңыз бар деп ойлоңуз. Сиздин макал-лакап AI камкорчуңуз сиз таянган AI да жасай турган негизде эсептей алат, тез ылдамдыкта иштеп жана кырдаалды реалдуу убакытта эсептеп, циклдеги адам жасаганга караганда алда канча тезирээк.

Бир караганда, сиз буга чейин таянган AI бир аз болушу керек деп ойлошуңуз мүмкүн ички AI коргоочу периште ботун өзүнчө эсептеген AI тосмолору. Ооба, бул, албетте, каалаган болот. Бир кооптуу жагдай, AI тутумуна орнотулган AI тосмолору AI менен бүтүндөй жана преюдициалдуу түрдө шайкеш келиши мүмкүн, ошондуктан болжолдонгон AI тосмолору мындан ары AIны өз алдынча текшере же текшере албайт.

Карама-каршы идея сиздин AI камкорчу периште ботуңуз көз карандысыз же үчүнчү тараптын AI механизми, ал сиз таянган AIден айырмаланат. Ал башка AIнын сыртында отурат, сизге берилген бойдон калууда жана көзөмөлдөнүп же бааланып жаткан AIга арналбайт.

Бул жөнүндө ой жүгүртүүнүн жөнөкөй каражатын төмөнкү жөнөкөйлөштүрүлгөн теңдеме сыяктуу билдирүүлөр аркылуу айтса болот. Биз "P" "X" тапшырмасын аткаруу үчүн "R" га ишенгиси келет деп айта алабыз:

Бул адамдар гана катышканда төмөнкүдөй болот:

  • P адам R адамга X тапшырманы аткарууга ишенет.

Биз AIга таянууну чечкенибизде, билдирүү мындайча өзгөрөт:

  • P адам X тапшырмасын аткаруу үчүн AI инстанциясы-Rге ишенет.

Биз муну айтып, AI коргоочу периште ботун кошо алабыз:

  • P адамы X тапшырмасын аткаруу үчүн AI инстанциясы-Rге ишенет, анткени AI камкорчу периште бот үлгүсү-Z тарабынан көзөмөлдөнөт

AI камкорчу периште боту сиз таянган AIны талыкпай жана тынымсыз баалоодо. Ошентип, сиздин AI камкорчуңуз сизге бул башка AIдин ишеними негизсиз экенин эскертиши мүмкүн. Же болбосо, AI камкорчусу башка AI менен электрондук түрдө өз ара аракеттенип, ишенимдүүлүктөн алыс болгон бардык дисперсияны тез арада оңдоого аракет кылышы мүмкүн жана башкалар (бул маалымат боюнча менин камтууну караңыз бул жерде шилтеме).

Trusty Trust суу сактагычынын метафорасы

Биз ишенимдин ар кандай деңгээлдерин талкуулап жаткандыктан, ишенимди резервуардын бир түрү катары түшүнүү аркылуу ишенимдүүлүк жөнүндө пайдалуу метафораны колдонсоңуз болот.

Белгилүү бир учурда белгилүү бир жагдайда белгилүү бир адамга же нерсеге белгилүү өлчөмдө ишеним бар. Ишенимдин деңгээли ошол адамга же нерсеге байланыштуу дагы эмне болуп жатканына жараша көтөрүлөт же төмөндөйт. Эгер адамга же нерсеге эч кандай ишеним жок болгондо, ишеним нөл деңгээлинде болушу мүмкүн. Сиз ошол адамга же нерсеге ишенбөөчүлүк көрсөтсөңүз, ишеним терс болушу мүмкүн.

AI тутумдарына келсек, белгилүү бир жагдайда сиз таянган AI үчүн ишеним резервуарыңыз AIнын ишенимдүүлүгүн өлчөөңүзгө жараша көтөрүлөт же төмөндөйт. Кээде сиз интеллектке болгон ишенимдин ар кандай деңгээлин жакшы билесиз, ал эми башка учурларда сиз азыраак кабардар болушуңуз мүмкүн жана ишеничтүүлүк жөнүндө ой жүгүрткөндүктөн.

Биз бул жерде AI үчүн ишеним деңгээлин жогорулатуунун жолдорун талкуулап жатабыз:

  • AI этикасын сактоо. Эгерде сиз таянган AI туура AI этикасынын осуяттарын сактоого аракет кылуу менен иштелип чыккан болсо, анда сиз бул түшүнүктү ошол AI тутумунун ишеним резервуарыңыздын деңгээлин жогорулатуу үчүн колдонмоксуз. Кошумча эскертүү катары, сиз башка AI системаларына алардын ишенимдүүлүгүн жалпылооңуз мүмкүн, бирок бул кээде мен деп атаган нерсенин адаштыруучу түрү болушу мүмкүн. AI ишеним аурасы жайылууда (бул кылууда этият болуңуз!).
  • Адам-In-The-Loop колдонуңуз. Эгерде AI-да адам бар болсо, анда сиз AIга болгон ишенимиңизди оңдой аласыз.
  • Мыйзамдарды жана жоболорду белгилөө. AIнын ушул түрү менен байланышкан мыйзамдар жана эрежелер бар болсо, сиз да ишеним деңгээлиңизди жогорулата аласыз.
  • AI Guardian Angel Bot колдонуңуз. Эгер сизде AI камкорчу периште боту болсо, бул дагы ишеним деңгээлиңизди жогорулатат.

Мурда айтылгандай, ишеним абдан морт болуп, көз ирмемде ыдырап кетиши мүмкүн (б.а. ишеним резервуары тез жана күтүлбөгөн жерден курулган ишенимдин баарын төгүп салат).

Элестетиңиз, сиз AI негизиндеги өзүн-өзү башкарган унаанын ичинде экениңизди жана AI айдап бара жаткан AI күтүлбөгөн жерден оңго оңго бурулуп, дөңгөлөктөр шыбырашып, автономдуу унааны коркунучтуу оодарылып кете жаздады. Сиздин ишеним деңгээлиңиз кандай болот? Эгер сиз мурда AIга ишенимдин жогорулашына ээ болсоңуз да, ишеним деңгээлиңизди кескин жана күтүлбөгөн жерден төмөндөтүп кетерсиз.

Бул олуттуу талкуунун дал ушул маалында, сиз ишенимдүү AIнин мүнөзүн жана масштабын көрсөтө турган кошумча иллюстративдик мисалдарды каалайсыз деп ишенем. Менин жүрөгүмө жакын мисалдардын өзгөчө жана албетте популярдуу топтому бар. Көрдүңүзбү, менин AI боюнча эксперт катары, анын ичинде этикалык жана укуктук кесепеттерге байланыштуу, менден теманын бир аз теориялык табиятын оңой түшүнүү үчүн AI этикасынын дилеммаларын көрсөткөн реалдуу мисалдарды аныктоону суранышат. Бул этикалык AI туңгуюгун айкын көрсөткөн эң таасирдүү багыттардын бири AIга негизделген чыныгы өзүн-өзү башкаруучу унаалардын пайда болушу. Бул тема боюнча кеңири талкуулоо үчүн ыңгайлуу колдонуу учуру же үлгү катары кызмат кылат.

Бул жерде ойлонууга арзырлык бир суроо бар: AI негизиндеги чыныгы өзүн-өзү башкара турган унаалардын пайда болушу ишенимдүү AIга умтулуу жөнүндө эч нерсени жаркыратабы, эгер ошондой болсо, бул эмнени көрсөтөт?

Мага суроону ачууга бир азга уруксат бериңиз.

Биринчиден, чыныгы өзүн-өзү башкаруучу унаага катышкан адам айдоочу жок экенин белгилей кетүү керек. Чыныгы өзүн-өзү айдай турган унаалар AI айдоо системасы аркылуу айдалат. Рулда айдоочунун кереги жок, унааны адам башкара турган шарт жок. Автономдуу унаалар (АВ) жана өзгөчө өзүн өзү башкарган унаалар тууралуу кеңири жана үзгүлтүксүз чагылдыруу үчүн, караңыз бул жерде шилтеме.

Мен чыныгы өзүн-өзү башкаруучу унааларга кайрылганда эмнени билдирерин дагы тактагым келет.

Өзүн өзү айдай турган автоунаалардын деңгээлин түшүнүү

Тактап айтканда, чыныгы өзүн-өзү башкарган унаалар AI унааны толугу менен өз алдынча айдаган унаалар болуп саналат жана айдоо тапшырмасы учурунда эч кандай адам жардамы жок.

Бул айдоочусу жок унаалар 4-деңгээл жана 5-деңгээл деп эсептелет (менин түшүндүрмөнү караңыз бул шилтемени бул жерде), ал эми адамдын айдоочусу айдоо аракетин биргелешип бөлүшүүнү талап кылган унаа адатта 2 же 3-деңгээлде каралат. Айдоо милдетин биргелешип аткарган унаалар жарым-жартылай автономдуу деп сыпатталат жана адатта ар кандай унааларды камтыйт. ADAS (Advanced Driver-Assistance Systems) деп аталган автоматташтырылган кошумчалар.

5-деңгээлде чыныгы өзүн-өзү башкара турган унаа азырынча жок жана биз буга жетүү мүмкүнбү же жокпу, же ал жакка жетүү үчүн канча убакыт талап кылынарын азырынча билбейбиз.

Ошол эле учурда, 4-деңгээлдеги аракеттер акырындык менен өтө тар жана тандалма коомдук жол сыноолорунан өтүү менен бир аз тартууга аракет кылууда, бирок бул сыноого уруксат берилиши керекпи же жокпу деген талаштар бар (биз бардыгыбыз экспериментте өмүр же өлүү гвинея чочкобузбуз) Биздин трассаларыбызда жана өтүүчү жолдорубузда болуп жаткандыктан, кээ бирлери айтышат, менин камтууумду караңыз бул шилтемени бул жерде).

Жарым автономдуу автоунаалар адамдык драйверди талап кылгандыктан, ал унаалардын түрүн кабыл алуу кадимки унааларды айдоодон айырмаланбайт, андыктан бул темада алар жөнүндө бир аз жаңылык бар (бирок, сиз көргөндөй) бир аздан кийин, кийинки пункттар негизинен колдонулат).

Жарым автономдуу автоунаалар үчүн, акыркы кездерде пайда болгон тынчсыздандыруучу аспект жөнүндө, айрыкча, 2-деңгээлдеги же 3-деңгээлдеги унаанын дөңгөлөгүндө уктап жаткан видеолорун жарыялап жаткан адамдардын айдоочуларына карабастан, коомчулукка алдын-ала эскертүү керек. , айдоочу жарым автономдуу унааны айдап баратып, алардын көңүлүн айдоо милдетинен алыстатат ​​деп ишендирүүдөн оолак болушубуз керек.

Автоматташтыруу 2 же 3 деңгээлге түшүп кетишине карабастан, автоунаа айдоо аракеттери үчүн сиз жооптуу тарапсыз.

Өзүн башкарган унаалар жана ишенимдүү AI

4 жана 5-деңгээлдеги чыныгы өзүн-өзү айдаган унаалар үчүн айдоочулук милдетке тартылган адам болбойт.

Баардык жүргүнчүлөр жүргүнчүлөр болушат.

AI айдап бара жатат.

Тез арада талкуулоонун бир аспектиси бүгүнкү КТ айдоо тутумуна кирген КТнын сезимтал эместигине алып келет. Башка сөз менен айтканда, жасалма интеллект компьютердик программалоонун жана алгоритмдердин жамааты болуп саналат жана албетте, адамдар ойлогондой ой жүгүртө албайт.

Эмне үчүн бул AIга кошумча басым сезимтал эмес?

Анткени мен КТ айдоо системасынын ролу жөнүндө сөз болгондо, мен КТга адамдык сапаттарды бербейм деп баса белгилегим келет. Бүгүнкү күндө КТны антропоморфизациялоонун туруктуу жана кооптуу тенденциясы бар экендигин унутпаңыз. Түпкүлүгүндө, адамдар бүгүнкүдөй КТнын жок экендигинин талашсыз жана талашсыз фактысына карабастан, бүгүнкү күндө КТга адамдыкындай сезимдерди беришет.

Ушул тактоонун жардамы менен, сиз AI айдоо тутуму кандайдыр бир жол менен айдоонун жактары жөнүндө "билбейт" деп элестете аласыз. Айдоо жана ага байланыштуу бардык нерселер өзүн өзү башкаруучу машинанын аппараттык жана программалык камсыздоосунун бир бөлүгү катары программаланган болушу керек.

Келгиле, ушул темада ойноого келген көптөгөн аспектилерге сүңгүп кирели.

Биринчиден, AI өзүн-өзү айдай турган унаалардын бардыгы бирдей эмес экенин түшүнүү керек. Ар бир унаа өндүрүүчү жана өзүн-өзү айдай турган технологиялык фирма өзүн өзү айдай турган унааларды ойлоп табууга өзүнүн мамилесин көрүп жатат. Ошентип, AI айдоо тутумдары эмне кылаары же кылбашы жөнүндө кеңири билдирүүлөрдү жасоо кыйын.

Мындан тышкары, качан AI айдоо системасы кандайдыр бир нерсени жасабайт деп айткандан кийин, муну кийинчерээк компьютерди ошол нерсени жасоого программалаган программисттер басып кетиши мүмкүн. Кадам сайын AI айдоо системалары акырындык менен өркүндөтүлүп жана кеңейтилип жатат. Бүгүнкү күндө бар болгон чектөө системанын келечектеги итерациясында же версиясында жок болушу мүмкүн.

Мен ишенем, бул мен айткым келген нерселердин негизинде жетиштүү эскертүүлөрдү берет.

Биз азыр өзүн өзү башкарган унааларга жана ишенимдүү AIга терең сүңгүүгө даярбыз.

Ишеним - бул бардыгы, айрыкча AI негизиндеги өзүн-өзү башкарган унааларда.

Коом өзү башкарган унаалардын пайда болушуна этияттык менен көз салып жаткандай. Бир жагынан алганда, чыныгы өзүн-өзү башкаруучу унаалардын пайда болушу жыл сайын унаа менен байланышкан өлүмдөрдүн санын азайтат деген чоң үмүт бар. Америка Кошмо Штаттарында эле жыл сайын 40,000 2.5ге жакын адам каза болуп, XNUMX миллионго жакын адам жаракат алат, менин статистикалык жыйнакымды караңыз: бул жерде шилтеме. Адамдар ичип алып машина айдайт. Адамдар алаксып баратканда айдашат. Унаа айдоо милдети айдоону кайра-кайра жана адашпай топтоп, автокырсыктарга кабылбоодон турат окшойт. Ошентип, биз AI айдоо системалары өзүн-өзү айдаган унааларды кайталап жана жаңылбастан жетектейт деп кыялдансак болот. Сиз автокырсыктан каза болгондордун жана жаракат алгандардын көлөмүн азайтуу, ошондой эле мобилдүүлүктү алда канча кеңири жана жеткиликтүү кылууну камтыган, өзүн-өзү башкарган унааларды эки жак катары түшүнсөңүз болот.

Бирок ошол эле учурда коомдо өзүн-өзү башкара турган унаалар биздин коомдук жолдордо жүрүү үчүн коопсуз болобу деген кооптонуу пайда болууда.

Эгерде бир да өзүн-өзү башкара турган унаа бир жол кырсыгына же кагылышууга кабылып, бир адамдын өлүмүнө же оор жаракатка алып келсе, AI негизиндеги айдоочусу жок унааларга болгон ишенимдин бүгүнкү күндө бир аз калыптанып калганын күтө аласыз. Биз муну Аризона штатында өзүн-өзү башкара турган (чындыгында эмес) унаа менен жөө жүргүнчүнү сүзүп, өлтүргөн учурда болуп өткөн чуулгандуу окуяга күбө болдук (менин камтууну караңыз бул шилтемени бул жерде).

Кээ бир эксперттер AI өзүн-өзү башкара турган унаалардын ишенимине таянуу адилетсиз жана орунсуз экенин белгилешет, мисалы, өлүмгө алып келген кийинки бир гана кырсык же кагылышуу буга чейин салыштырмалуу авариясыз коомдук трассадагы сыноолорду жокко чыгарышы мүмкүн. Мындан тышкары, дагы бир адилетсиздик боюнча, AI өзүн-өзү айдай турган унаанын кайсы бренди же модели кайгылуу окуяга кабылбасын, коом бардык өзүн-өзү айдай турган унаа бренддерин айыптайт.

Бүтүндөй өзүн-өзү башкарган унаалар кыскача каралышы мүмкүн жана бүтүндөй тармак чоң каршылыкка дуушар болушу мүмкүн, бул бардык коомдук жолдордогу сыноолордун жабылышына алып келиши мүмкүн.

Мындай соккуга өзүн өзү айдаган унааны ачык эле жактагандардын бардык айдоочусу жок унаалар жараксыз болот деген маанисиз билдирүүлөрү себеп болгон. Бул бузулбас деген ой жөн эле туура эмес эмес (кара бул жерде шилтеме), ал тымызын түрдө өзүн-өзү башкара турган унаа индустриясын күтүүлөрдүн толук эмес топтомун түзүп жатат. Автоунаалардын айынан өлүм нөл болот деген бул таң калыштуу жана ишке ашпай турган билдирүүлөр айдоочусу жок унаалардын кагылышы бүт комплекттин жана кабуддун эч нерсеге жарабай турганынын ишенимдүү белгиси деген туура эмес түшүнүктү күчөтүүдө.

Өзү башкаруучу унааларга болгон прогресс жана коомдун ишениминин дюйм сайын топтолушу көз ирмемде жок болуп кетиши мүмкүн экенин түшүнүү өкүнүчтүү. Бул ишенимдин морттугунун бир далили болот.

жыйынтыктоо

Көптөгөн автоконструкторлор жана өзүн-өзү айдаган технологиялык фирмалар жалпысынан AI этикасынын принциптерине баш ийишет, муну менен AIнын негизиндеги коопсуз жана ишенимдүү өзүн-өзү башкара турган унаалар жагынан ишенимдүү AI түзүүгө аракет кылышат. Сураныч, бул фирмалардын айрымдары башкаларга караганда күчтүүрөөк жана этикалык AI осуяттарына көбүрөөк берилгендигин түшүнүңүз. Кээде AI этикасынын негизин четке кагып салган стартаптар да бар (менин карап чыгуумду караңыз: бул жерде шилтеме).

Башка багыттар боюнча, өзүн-өзү башкаруучу унааларды камтыган жаңы мыйзамдар жана эрежелер акырындык менен юридикалык китептерге киргизиле баштады. Аларды колдоо үчүн керектүү тиштери барбы, бул башка маселе, ошондой эле ал мыйзамдардын аткарылышына олуттуу мамиле жасалып жатабы же көз жаздымда калып жатабы (бул боюнча талдоо үчүн менин тилкелеримди караңыз).

Бул үчүн жогорку технологиялык бурч да бар. Мен акырындык менен AI коргоочу периште ботторунун варианттарын көрөбүз деп алдын ала айттым, алар автономдуу унаа жана өзүн-өзү башкарган унаалар аренасында биринчи орунга чыгат. Биз ал жерде элек. Бул өзүн-өзү башкаруучу унаалардын популярдуулугу кеңири жайылгандан кийин кеңири жайылат.

Бул акыркы пункт, сиз, албетте, жатка билген ишеним жөнүндө белгилүү сапты алып келет.

Ишен бирок текшер.

Биз өзүбүзгө ишенимибизди арттыра алабыз, балким, марттык менен. Ошол эле учурда, биз берген ишеним сөз менен да, иш менен да тастыкталганына ынануу үчүн шумкар сыяктуу карап турушубуз керек. Келгиле, AIга бир аз ишенели, бирок ишенимибизди туура жана көзүбүз менен ачып жатканыбызды чексиз текшерип көрөлү.

Бул боюнча мага ишенсеңиз болот.

Source: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/