AI этикасы AI кырсыктары менен күрөшүп жатат, бул автоматтык өзүн башкара турган унааларды да капалантат

Сиз өзгөчө кырсыкка жакын көрүнгөн адамды билесизби?

Баарыбыз эле жасайбыз окшойт.

Балким, бул адам бөлмөңүздө банандын кабыгына тайгаланып же баалуу вазаны кулатууга ынгайлуу адамдыр. Алар тигил же бул түрдөгү кырсыктар үчүн адамдын магнити. Бул абдан жаман болушу мүмкүн, атүгүл кээде алардын жанында болуу жек көрүндү болушу мүмкүн. Сиз коркунучтуу толуп кетишиңиз мүмкүн же алардын жагымсыз кырсыктарынын биринин жаман кесепеттерине дуушар болушуңуз мүмкүн.

Бирок, балким, кимдир бирөө кырсыкка башкаларга караганда көбүрөөк жакын деп айтууда өтө катаал болуп жаткандырбыз. Кырсыктар ар бирибиздин башыбызга келиши мүмкүн деген жүйө келтирилиши мүмкүн. Биз баарыбыз кырсыкка кабылып калуу же кырсыкка кабылуу мүмкүнчүлүгүбүзгө дуушар болобуз. Арабызда эң жакшылар камтылган.

Келгиле, бул талкуунун үстүнө дагы бир кыжырды келтирген суроону үйүп көрөлү.

Кырсыктар сөзсүз болобу?

Башка сөз менен айтканда, биз кырсыктарды алдын алууга канчалык аракет кылбайлы, бирок дагы деле болсо кырсыктардын болушуна толук ишенич бар экендиги ажырагыс түрдө болушу мүмкүн. Сиз дүйнөнү кырсыктардан коргоону издей аласыз. Бул, албетте, акылдуу көрүнөт. Бирок, кандайдыр бир жол менен, кырсыктар дагы эле алардын башын артка кайтарат.

Алар айткандай, кырсык күтүүдө.

Кырсык деп тиешелүү түрдө белгиленген кандайдыр бир окуяга шилтеме берүү менен эмнени билдирерин тактоо пайдалуу болушу мүмкүн. Кадимки сөздүк аныктамасы кырсык күтүүсүз жана кокусунан болгон окуянын бир түрү болуп саналат, ал үчүн зыяндын же жаракаттын окшоштугунан турган өкүнүчтүү натыйжа бар.

Бул аныктаманы акылдуулук менен ачып алыңыз.

Бул окуя күтүүсүз болду. Бул кырсыктын өзү болоорун аңдабадык окшойт дегенди билдирет.

Бул окуя күтүүсүз болгон. Бул кимдир бирөө атайылап окуянын болушуна умтулган жагдайларды жокко чыгаруу керек экенин көрсөтүп турат. Эгерде пранкер банандын кабыгын жерге коюп койсо, анда ал бактысыз жана эч нерседен шектенбеген бейкүнөө кадам таштай турганын билсе, анда ага чалынып калган адам кырсыкка кабылды деп айтууга кыйын болосуң. Тескерисинче, аларды алдап, тымызын капканга түшүрүштү.

Аныктама ошондой эле натыйжа өкүнүчтүү деген критерийди камтыйт. Бул жарыкта болгон кырсык кычкыл натыйжага алып келиши керек. Кокусунан вазаны сүзүп алган адам жыргап калган буюмду оңдоп-түзөөгө мүмкүн эмес бузуп алган. Вазанын ээси баалуулугун жоготуп, зыян тартат. Вазага кирип кеткен адам жоготуу үчүн ээсине карыз болушу мүмкүн. Асман ваза сынганда кимдир бирөө кесилип же жараланып калышынан сактасын.

Тең салмактуулук үчүн, биз дагы «жакшы» деп аталган кырсыктар бар экенин белгилей кетүү керек. Кырсыктын натыйжасында адам чоң байлыкка ээ болушу мүмкүн же башка маанилүү пайдага ээ болушу мүмкүн. Эң көп келтирилген мисалдардын бири сэр Александр Флемингден жана анын пенициллинди тааныган ачылышынан турат. Окуяда ал лабораторияда бир аз шалаакы болуп, эки жумалык каникулдан кайтып келери менен маданият табактарынын биринен калып таап алганы айтылат. Маалыматка ылайык, ал бул тууралуу мындай деди: «Адам кээде издебегенин табат. 28-жылдын 1928-сентябрында таң аткандан кийин ойгонгонумда, мен, албетте, дүйнөдөгү биринчи антибиотикти же бактерия өлтүргүчтү таап, бардык медицинада революция кылам деп ойлогон эмесмин. Бирок менин оюмча, мен так ушундай кылдым».

Биз жагымдуу кырсыктарды четке кагып, бул жерде кайгылуу кырсыктарга көңүл бурабыз. Кырсыктардын кабагын бүркөө версиясы - бул жагымсыз натыйжалар өзгөчө өмүргө коркунуч туудурушу же оор натыйжаларга алып келиши мүмкүн. Мүмкүн болушунча, биз минималдаштыргыбыз келген терс кырсыктарды (жана, албетте, мүмкүн болсо, биз максималдуу көбөйтүүнү каалайбыз, бирок мен бул смайликтин вариантын кийинки тилкеде чагылдырам).

Кырсыктардын сөзсүз болушу жөнүндө мурунку суроону бир аз кайталагым келет. Буга чейин биз өзгөчө бир адамдын окуясында болгон кырсыктарга көңүл буруп келебиз. Кырсыктар бир эле учурда көптөгөн адамдарга таасир этиши мүмкүн экендиги талашсыз. Бул, өзгөчө, адамдар тигил же бул түрдөгү татаал системага чөмүлгөндө кездешүүгө болот.

Мурунку суроонун вариантына даярданыңыз.

Системалык кырсыктар сөзсүз болобу?

Биз муну ойлонушубуз керек.

Машиналардын тетиктерин жасоо үчүн заводдун полу төшөлдү дейли. Заводду долбоорлогондор жумушчулардын келип чыгышы мүмкүн болгон кырсыктарынан абдан тынчсызданышат. Заводдун жумушчулары дайыма каска кийүүгө милдеттүү. Заводдогу белгилер кырсыктардан сак болууга, ишиңизде этият болууга чакырат. Кырсыктарды болтурбоо үчүн бардык чаралар көрүлүүдө.

Бул системада биз эч ким эч качан кырсыкка кабылбайт деп үмүттөнүшүбүз мүмкүн. Кырсыктын болуу ыктымалдыгы нөл экенине ишенесизби? Мен эч кандай акыл-эстүү ойчул бул учурда кырсыктын ыктымалдыгы нөлгө барабар деп коем деп сунуштайт элем. Кырсыктын болуу ыктымалдыгы чындап эле төмөн болушу мүмкүн, бирок биз дагы эле билебиз жана бардык сактык чараларына карабастан, кырсык болуп кетүү коркунучу дагы эле бар экенин билебиз жана ойлойбуз.

Булардын баары жетишерлик татаалдыктагы системада биз кырсыктарды алдын алууга канчалык аракет кылбайлы, дагы эле боло берерине ишенебиз деген ойду көрсөтүп турат. Биз каалабастан системадагы авариялар сөзсүз болот деген шартка таянып жатабыз. Бул калибрдеги чоң билдирүү системанын кандайдыр бир татаалдык босогосунда болушу керек деген эскертүүгө ээ болушу мүмкүн, андыктан аварияларды толугу менен алдын алуу үчүн бардык базаларды камтуу мүмкүн эмес.

Сиз азыр Кадимки Кырсыктар же Кадимки Кырсык теориясы (NAT) деп атала турган кырсыктар жөнүндө кеңири айтылган теория менен этап-этабы менен тааныштыңыз. Бул түшүнүктү изилдеген изилдөөчүлөрдүн ыңгайлуу сүрөттөмөсү: «Жетиштүү чоң масштабда ар кандай система «кадимки аварияларды» жаратат. Бул татаалдыктын, компоненттердин ортосундагы байланыштын жана мүмкүн болуучу зыяндын айкалышынан келип чыккан кутулбогон кырсыктар. Кадимки авария кадимки аварияга алып келген окуялар жана өз ара аракеттешүүлөр системанын операторлору үчүн түшүнүктүү болбогону менен кадимки тетиктердин бузулуу кырсыктарынан айырмаланат (Роберт Уильямс жана авторлордун “AI каталарын түшүнүү жана болтурбоо: Практикалык колдонмодо” айтылгандай" Роман Ямпольский, Философия журнал).

Мен сени аталган жерге алып келгенимдин себеби кадимки кырсыктар Бул теорияны коомубузда акырындык менен жана сөзсүз түрдө кеңири жайыла баштаган нерсеге, тактап айтканда, Жасалма интеллекттин (AI) пайда болушуна кылдаттык менен колдонуу керек болушу мүмкүн.

Келгиле муну казып алалы.

Кээ бир адамдар AI кемчиликсиз болот деп жалган ойлошот. AI системалары ката кетирбейт жана бизди кыйынчылыкка алып келбейт, - деп божомолдоого болот. Сизге керек болгон нерсе - бул AI иштеп чыгуучулары жетиштүү деңгээлде жакшы иштешет жана воила, AI эч качан кокустук же кокустук катары чечмеленүүчү эч нерсе кылбайт.

Бул гипотетикалык ишеним боюнча анчалык тез эмес. Эгер сиз теориясын сатып алууга даяр болсоңуз кадимки кырсыктар, кандайдыр бир олуттуу татаалдыктагы AI сөзсүз түрдө кырсыкка алып келет. Кырсыктын алдын алуу үчүн AI иштеп чыгуучулары түн ичинде канчалык аракет кылышканына карабастан, AI качандыр бир убакта кырсыкка кабылышы мүмкүн. Куки ушинтип майдаланат. Ал эми биздин төгүлгөн сүтүбүзгө ыйлап тыным жок.

AI жана концептуалдык жоболор жөнүндө ойлонуп көрүңүз кадимки кырсыктар.

Бизде өзөктүк куралды көзөмөлдөгөн AI системасы бар деп ойлойлу. AI кылдаттык менен иштелип чыккан. Ар бир мүмкүн болгон текшерүү жана баланс AI системасына коддолгон. Биз пайда болушу мүмкүн болгон AI негизиндеги кырсыктан коопсузбу? Кырсыктарга кадимки көз карашты колдогондор биз ойлогондой коопсуз эмеспиз деп айтышат. AI өзгөчө татаал болушу мүмкүн экенин эске алсак, кадимки кырсык бир күнү, балким, эң начар учурда пайда болушун унчукпай күтүп турат.

Ошол курч суроолордун жана кооптонуулардын өзөгү – биз AI кокустуктарга дуушар болорун жана адамзат келип чыгышы мүмкүн болгон коркунучтарга каршы акыл-эстүү жана жигердүү бир нерсе кылышы керек экенине ишенишибиз керек. Бир-эки көз ирмемден кийин көрүп турганыңыздай, бул AI колдонууга келгенде жакындап келе жаткан маселе жана AI этикасы жана этикалык AI чөйрөсү эмне кылуу керектиги жөнүндө бир аз күрөшүп жатат. Менин AI этикасы жана этикалык AI жөнүндө үзгүлтүксүз жана кеңири чагылдыруу үчүн караңыз бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

Коендун тешигине түшүүдөн мурун, келгиле, AI табияты жөнүндө бир бетте экенибизди текшерип көрөлү. Бүгүнкү күндө сезимтал AI жок. Бизде бул жок. Сезимдүү AI мүмкүн болорун билбейбиз. Эч ким так айта албайт, биз сезгич АИге жетебизби, же сезгич AI кандайдыр бир кереметтүү түрдө өзүнөн-өзү пайда болоорун айта албайт (көбүнчө сингулярлык деп аталат, менин камтууумду караңыз). бул жерде шилтеме).

Мен басым жасап жаткан AI түрү бүгүнкү күндө бизде бар сезилбеген AIдан турат. Эгерде биз жапайы ой жугуртууну кааласак сезимтал AI, бул талкуу түп-тамырынан бери башка багытта кетиши мүмкүн. Сезимдүү AI адамдык сапатка ээ болмок. Сезимдүү AI сизге кеңеш берген адамдын когнитивдик эквиваленти экенин эске алышыңыз керек. Андан тышкары, кээ бирөөлөр бизде супер интеллектуалдык AI болушу мүмкүн деп божомолдогондуктан, мындай AI адамдардан акылдуураак болушу мүмкүн (супер-акылдуу AI боюнча менин изилдөөм үчүн, караңыз. камтуу бул жерде). Бардык бул сценарийлер булактын баасын күчөтөрүн айтышты.

Келгиле, нерселерди жер бетине түшүрүп, бүгүнкү эсептөөчү сезилбеген AIны карап көрөлү.

Бүгүнкү AI адамдын ой жүгүртүүсү менен бирдей эч кандай модада “ойлоого” жөндөмсүз экенин түшүнүңүз. Alexa же Siri менен баарлашканыңызда, сүйлөшүү мүмкүнчүлүктөрү адамдын мүмкүнчүлүктөрүнө окшош сезилиши мүмкүн, бирок чындыгында ал эсептөөчү жана адамдын таанып-билүү жөндөмү жок. AIнын акыркы доору эсептөө үлгүлөрүн дал келүүнү колдогон Machine Learning (ML) жана Deep Learning (DL) кеңири колдонду. Бул адамдык ыкшоолук көрүнүшү бар AI системаларына алып келди. Ошол эле учурда, бүгүнкү күндө жалпы акылга окшош бир дагы AI жок жана адамдын күчтүү ой жүгүртүүсүнүн когнитивдик кереметтери жок.

AIнын акыркы доору башталганда, азыр кээ бирөөлөр деп атаган нерсеге энтузиазмдын чоң жарылуу болгонун билесиз. AI For Good. Тилекке каршы, ошол шаркыратма толкундан кийин биз күбө боло баштадык AI For Bad. Мисалы, AI негизиндеги жүздү таануунун ар кандай системалары расалык көз караштарды жана гендердик көз караштарды камтыганы аныкталган, алар жөнүндө мен талкууладым. бул жерде шилтеме.

каршы күрөшүү аракеттери AI For Bad активдүү жүрүп жатат. Кыйкырыктан тышкары укуктук туура эмес иш-аракеттерди ооздуктоого умтулуу, ошондой эле AIнын жамандыгын оңдоо үчүн AI этикасын кабыл алууга олуттуу түрткү бар. Биз AIны өнүктүрүү жана жайылтуу үчүн негизги этикалык AI принциптерин кабыл алып, бекитишибиз керек деген түшүнүк бар. AI For Bad жана ошол эле учурда артыкчылыктууларды жарыялоо жана алдыга жылдыруу AI For Good.

Тиешелүү түшүнүк боюнча, мен AIны AI көйгөйлөрүн чечүүнүн бир бөлүгү катары колдонууга аракет кылып, ушундай ой жүгүртүү менен от менен от менен күрөшүүнүн жактоочусумун. Биз, мисалы, этикалык AI компоненттерин AI тутумуна киргизсек болот, ал AIнын калган бөлүгү кандай иштерди жасап жатканын көзөмөлдөп, реалдуу убакытта дискриминациялоочу аракеттерди байкай алат, менин талкууну караңыз бул жерде шилтеме. Бизде ошондой эле өзүнчө AI системасы болушу мүмкүн, ал AI этикасынын мониторунун бир түрү катары иштейт. AI системасы башка AI этикага жатпаган туңгуюкка баратканда көзөмөлдөө жана аныктоо үчүн көзөмөлчү катары кызмат кылат (мындай мүмкүнчүлүктөр боюнча менин анализимди караңыз: бул жерде шилтеме).

Жалпысынан алганда, AI этикасынын осуяттарын түшүнүү менен биз, жок дегенде, AI пайдалуу жана терс таасир тийгизе турган нерселер жөнүндө коомдун маалымдуулугун жогорулата алабыз деген жалпы үмүт бар. Мен AI этикасынын принциптеринин ар кандай жамааттык анализдерин кеңири талкууладым, анын ичинде көптөгөн улуттук жана эл аралык AI этикасынын жоболорунун маңызын изилдеген жана конденсациялаган изилдөөчүлөр топтомун камтыган “The Global Landscape of AI Ethics Guidelines” (жарыяланган. ичинде жаратылыш), жана менин камтуум изилдейт бул жерде шилтеме, бул негизги таш тизмесине алып келди:

  • ачыктык
  • Адилеттик & Калыстык
  • Non-Maleficence
  • жоопкерчилик
  • Privacy
  • Пайдасы
  • Эркиндик жана автономия
  • ишеним
  • Туруктуулук
  • Кадыр-барк
  • Жардамдашуу

Түздөн-түз божомолдогонуңуздай, бул принциптердин негизинде жаткан өзгөчөлүктөрдү аныктоого аракет кылуу абдан кыйын болушу мүмкүн. Андан тышкары, бул кеңири принциптерди AI тутумдарын жасоодо колдонуу үчүн толугу менен сезилерлик жана деталдуу нерсеге айландыруу аракети да катаал жаңгак болуп саналат. AI этикасынын осуяттары эмне экендиги жана аларды жалпысынан кантип сактоо керектиги жөнүндө жалпысынан бир аз кол булгалоо оңой, ал эми AI коддоосунда бул жолго жооп берген чыныгы резина болушу керек болгон бир топ татаал жагдай.

AI этикасынын принциптерин AI иштеп чыгуучулары, ошондой эле AI өнүктүрүү аракеттерин башкаргандар, ал тургай, акырында AI тутумдарын иштеткен жана тейлеген адамдар колдонушу керек. AIны иштеп чыгуунун жана колдонуунун бүткүл жашоо циклиндеги бардык кызыкдар тараптар Этикалык AIнын белгиленген нормаларын сактоонун алкагында каралат. Бул маанилүү жагдай, анткени адаттагыдай, "кодерлор гана" же AIди программалагандар AI этикасынын түшүнүктөрүн карманышат. Жогоруда айтылгандай, AI ойлоп табуу жана жайылтуу үчүн айыл керек, ал үчүн бүт айыл AI этикасынын эрежелерин билиши керек.

Биз AI этикасынын мактанган тизмелерине кошуубуз керек болушу мүмкүн, биз AI-ге негизделген алдын алуу же жок дегенде катуу жумшартуу үчүн ачык-айкын карап чыгышыбыз жана ачык чараларды көрүшүбүз керек. кадимки кырсыктар пайда болушу мүмкүн. AI иштеп жаткандар бул фронтто колунан келгендин баарын кылышы керек. AI орноткондор да ушундай кылышы керек. AI колдонгондор же кандайдыр бир жол менен AIга баш ийгендер этият болушу керек жана AI кырсыктарынын пайда болушунан сак болушу керек.

Кырсыктын ыктымалдыгы нөлгө чейин төмөндөшү үчүн AIга жетиштүү сактык чаралары киргизилиши мүмкүн деп ойлошуңуз мүмкүн. Технологдор үчүн, адаттагыдай, кандайдыр бир технология көйгөй жаратса, башка технология көйгөйдү чече алат. Көйгөй жоюлмайынча, көбүрөөк технологияны ыргыта бериңиз.

Системага багытталган кырсыктарды изилдеген адамдар швейцариялык сыр модели (SCM) деп аталган көз карашты сунуштоо менен, болжолдонгон технологиялык помпозицияга макул болбой, сылыктык менен жооп кайтарышат: "SCMде коопсуздук катмарлары бөлүкчөлөр катары моделделет. коопсуздуктун ар бир катмарынын алсыз жерлерин билдирген тешиктери бар сыр. Убакыттын өтүшү менен тешиктер формасын өзгөртүп, айланасында жылышат. Акыр-аягы, сырдын канча кесими (коопсуздук катмары) болбосун, тешиктер тегиздеп, сырдын бардык кесимдерин түз атууга мүмкүндүк берет (кырсык болот)» (Роберт Уильямс жана Роман Ямпольскийдин мурда келтирилген кагазы боюнча). ).

Кырсыктын ар кандай мүмкүнчүлүктөрүн толугу менен жана ар дайым болтурбоо үчүн AIди программалоонун кепилденген жолу барбы же жокпу деген ушул тарапка батып калгым келбейт. Сыналып жаткан математикалык жана эсептөөчү далилдөөнүн бардык түрлөрү бар. Менимче, бүгүнкү күндө бизде масштабдуу иштөө методу да, мындай нөлдүк мүмкүнчүлүккө кепилдик бере ала турган технологиялар да жок, ошондой эле биз сөзсүз түрдө тонна-тонна AI менен толуп жатабыз деп айтуу туура жана адилеттүү деп ойлойм. мындай практикага баш ийүүгө умтулбаганын анык билем. Бул акыркы пункт абдан маанилүү, анткени биз AI лабораториясында бир нерсени ойлоп таба алсак да, аны зиллионерлер жапайы жана бейкапар AI аракеттерине чейин кеңейтсек жана бул түйүндүү маселе болуп саналат жана күмүш эсептөөчү машинасы болсо дагы чечилбейт. ок бар болчу.

Кыскача сөз кылууга арзырлык деп эсептеген дагы бир жагдай, адамдын зыяндуу актерлорунун натыйжасында жагымсыз аракеттерге айланган AI. Мен бул учурларды AI кырсыктары чөйрөсүнө киргизбейм. Эсиңизде болсун, ачылыш талкуусунда кырсыктын сөздүк аныктамасы бир окуя болгон деп айтылган ойлонбой туруп жаратылыш. Эгерде адам киберкрокер AI тутумун жаман иштерди кылууга жетишсе, мен ал AIны кырсыкка кабылган деп классификациялабайм. Сиз бул презумпция менен барасыз деп ишенем.

Кызыктуу суроо туулат: AIнын ар кандай терс аракеттеринин канчасы киберкылмышкердин кыңыр иш-аракетине каршы AI кырсыгына байланыштуу болушу мүмкүн. Учурдагы AI инциденттери жөнүндө маалымат базаларына ылайык, AI кырсыктары кара ниеттик менен жасалган инциденттерге караганда көбүрөөк болот окшойт, бирок сиз бул түшүнүктү туздун чоң дозасы менен кабыл алышыңыз керек. Мен муну айтып жатам, анткени AI тутумуна чабуул жасалганда кабар бербөө үчүн чоң азгырык бар жана балким, AI кырсыгы болгондо кабарлоого даяр болушу мүмкүн.

AI кырсыктарына байланыштуу биз талкуулашыбыз керек болгон өтө маанилүү эскертүү бар.

"AI кырсыктары" деген ураан сөз айкашын колдонуу жалпысынан жагымсыз жана баарыбыз үчүн, башкача айтканда, бүт коом үчүн баш аламандык жаратат. Адам баласы кырсыкка учураганда көбүнчө ийин куушуруп, кырсыкка учураган адамга боор ооруп калабыз. Биз “кырсык” деген сөздү болуп өткөн окуяга эч ким жооп бербегендей мамиле кылып жаткандай сезилет.

Жол кырсыгына кабылганды мисалга алалы. Бир машина оңго бурулуп, кокусунан түз келе жаткан башка машинаны сүзүп кетет. Шукс, бул жөн эле кокустук жана кокусунан болуп калды. Окуяга тиешеси жок адамдар, балким, окуя жөн эле болгон кырсык катары каралса, маселенин жылып кетишине жол бериши мүмкүн.

Менимче, эгер сиз сүзүп кеткен унаанын ичинде болсоңуз, ашыкча кенен бурулуш жасаган айдоочуга мынчалык боор оорубайт белеңиз. Сиздин пикириңизде, албетте, башка айдоочу начар айдоочу болгон жана мыйзамсыз же акылсыз айдоо аракети автокырсыкка алып келген. Окуяны "кырсык" деп белгилөө менен, тыгылып калган айдоочу азыр бир аз кемчиликке учурады, анткени сырткы көрүнүшү боюнча, мунун баары баш аламандык кылган айдоочунун колу менен эмес, бир гана кокустуктан болгон.

Чындыгында, "кырсык" деген сөз ар кандай мааниге ээ болгондуктан, жалпысынан алганда, мамлекеттик автокырсыктар боюнча статистикада автокырсык деген сөз айкашын колдонуунун ордуна, унаа кагылышуусу же автокырсыктары деп аталат. Автоунаанын кагылышуусу же автокырсыктын окуянын кантип келип чыгышына эч кандай таасири жоктой. Ошол эле учурда, "автокырсык" деген фраза бизди бул тагдырдын таң калычтуусу же кандайдыр бир жол менен адамзаттын колунан келбеген нерсе деген ойго түртөт.

AI кырсыктары жөнүндө сөз кылганда, бул коннотациялык ойдун кандайча пайда болоорун көрө аласыз. Биз AI иштеп чыгуучулардын AI кокустан бирөөлөргө зыян келтирген коннотациялык калканчтын артына жашынышын каалабайбыз. Ошол эле AI жайылткандарга да тиешелүү. Сиз "AI кырсыктары" деген сөз айкашы AIнын антропоморфизациясы болуп саналат, ал коомду AI көшөгөнүн артында турган адамдарга жоопкерчиликтен качууга мүмкүндүк берет деп талаша аласыз. Адамдарды AI үчүн жоопкерчиликке тартуунун маанилүүлүгү жөнүндө менин талкуум үчүн менин талкууну караңыз бул шилтемени бул жерде жана бул шилтемени бул жерде.

Мен мындан ары бул жерде AI кырсыктары деген фразаны колдоном, бирок мен муну каалабастан жана бул көрүнүшкө шилтеме кылуунун кадимки жолу болгондуктан гана жасайм. Муну башкача айтууга аракет кылуу, өкүнүчтүүсү, көбүрөөк шишип, оңой окулбайт. Сураныч, AI туура эмес болуп кеткенде, AIнын негизинде жаткан адамдар күнөөлүү экенин түшүнбөстөн, анткор фразаны чечмелеп бериңиз.

Интеллектуалдык интеллектти кырсыкка учуратуу деп айтуунун мүмкүн болгон башаламандыктарын же адаштыруучу аспектилерин түшүндүрүүгө жардам берүү үчүн, вазаны кагып салуу жөнүндө менин эскертүүлөрүмө кайрылсак болот. AI жасаган бул мисалды карап көрөлү: “Бул көйгөй AI кокусунан же кайдыгерликтен жасалган нерселерге байланыштуу. Тазалоочу роботтун вазаны кагышы мунун бир мисалы. Татаал чөйрөлөрдө «вазалардын» түрлөрү ушунчалык көп болгондуктан, биз бардык терс таасирлер үчүн жазалоону программалай албайбыз» (Роберт Уильямс менен Роман Ямпольскийдин кагазы боюнча).

Үй чарбасында колдонууга киргизилген AI системасы, анан "кокустан" вазаны кагып салат, AIнын бул терс аракети үчүн эч кимди күнөөлөбөш керек. Бул жөн эле кокустук болду, өкүнүч менен жемелесе болот. Экинчи жагынан, биз AI системасы эмне үчүн жалпы ваза жагдайын чечүүгө программаланган эмес деген суроону туура сурашыбыз керек. AI иштеп чыгуучулар вазаны өзүнөн өзү жолугууга мүмкүн болгон объекттердин алкагында деп күтүшпөсө дагы, биз, албетте, AI тутумун талкалап салуусунан сактай турган кандайдыр бир жалпы объектти качуу болгон эмес деген суроого жооп алабыз. ваза (ошондуктан, AI вазаны ваза катары классификациялабашы мүмкүн, бирок ошентсе да аны байкала турган объект катары кача алмак).

Мен "AI кырсыктарына" кабылып, кандайдыр бир зыян келтирүүчү AI системаларынын пайда болушуна байланыштуу чоң юридикалык күрөшкө бара-бара бара жатканыбызды алдын ала айттым жана болжолдоп жатам. Ушул убакка чейин коом базарга чыгып кеткен жана атайылап же кокустан терс кесепеттерге алып келген AIга мыйзамдуу түрдө каршы эч кандай реакция кылган эмес. Жарым-жартылай бышырылган AI жасоочулардын алтын чабыгына айланган бүгүнкү AI тобу жана AI жайылышын шашылыш түрдө ишке ашыргандар азыр ийгиликке жетип жатышат жана жарандык соттук иштер жана кылмыш куугунтуктоолору менен салыштырмалуу бойдон калууда.

AI менен байланышкан мыйзамдык каршылык эртеби-кечпи келе жатат.

Улантуу, биз кантип аракет кылып, AI кырсыктары деп аталган кырсыктарды жеңүүгө аракет кылабыз?

Биз дароо кыла турган нерсе - AI кырсыктары кандайча болушу мүмкүн экенин алдын ала билүү. AI кырсыктарын алдын ала көрүү менен, биз жок дегенде аларды кыскартуу же алардын пайда болуу ыктымалдыгын азайтуу үчүн каражаттарды ойлоп таба алабыз. Андан тышкары, биз AI кырсык болгондо, демонстративдик зыяндын мүмкүнчүлүгүн азайтышы үчүн, тосмолорду орнотууга аракет кылсак болот.

Мурда келтирилген изилдөө макаласында сүрөттөлгөн факторлордун пайдалуу жыйындысы AI кемчиликтерин түшүнүү жана болтурбоо: Практикалык колдонмо бул касиеттерди камтыйт (изилдөө кагазынан алынган):

  • AIнын натыйжалары таасир эткен система.
  • AI натыйжалары менен чоңураак системанын ортосундагы убакыттын кечигүүлөрү, системанын байкалышы, адамдын көңүл буруусунун деңгээли жана операторлордун AIнын туура эмес иштешин оңдоо жөндөмдүүлүгү.
  • AI көзөмөлдөгөн тутумдарды зыяндуу колдонуу менен мүмкүн болгон максималдуу зыян.
  • Компоненттерди AIга жакын бириктирүү жана өз ара аракеттенүүнүн татаалдыгы.
  • AI жана башка колдонулган технологиялар жана системанын энергетикалык деңгээли боюнча билимдин боштугу.

Ушул курч талкуунун дал ушул маалында, мен сизге AI кырсыктары темасын дагы да ачып бере турган бир нече иллюстративдик мисалдарды каалайсыз деп ишенем. Менин жүрөгүмө жакын мисалдардын өзгөчө жана албетте популярдуу топтому бар. Көрдүңүзбү, менин AI боюнча эксперт катары, анын ичинде этикалык жана укуктук кесепеттерге байланыштуу, менден теманын бир аз теориялык табиятын оңой түшүнүү үчүн AI этикасынын дилеммаларын көрсөткөн реалдуу мисалдарды аныктоону суранышат. Бул этикалык AI туңгуюгун ачык көрсөткөн эң таасирдүү аймактардын бири AIга негизделген чыныгы өзүн-өзү башкаруучу унаалардын пайда болушу. Бул тема боюнча кеңири талкуулоо үчүн ыңгайлуу колдонуу учуру же үлгү катары кызмат кылат.

Бул жерде ойлонууга арзырлык бир суроо бар: AI негизиндеги чыныгы өзүн-өзү башкара турган унаалардын пайда болушу AI кырсыктары деп аталган нерселердин пайда болушуна байланыштуу кандайдыр бир нерсени жаркыратабы жана эгер ошондой болсо, бул эмнени көрсөтөт?

Мага суроону ачууга бир азга уруксат бериңиз.

Биринчиден, чыныгы өзүн-өзү башкаруучу унаага катышкан адам айдоочу жок экенин белгилей кетүү керек. Чыныгы өзүн-өзү айдай турган унаалар AI айдоо системасы аркылуу айдалат. Рулда айдоочунун кереги жок, унааны адам башкара турган шарт жок. Автономдуу унаалар (АВ) жана өзгөчө өзүн өзү башкарган унаалар тууралуу кеңири жана үзгүлтүксүз чагылдыруу үчүн, караңыз бул жерде шилтеме.

Мен чыныгы өзүн-өзү башкаруучу унааларга кайрылганда эмнени билдирерин дагы тактагым келет.

Өзүн өзү айдай турган автоунаалардын деңгээлин түшүнүү

Тактап айтканда, чыныгы өзүн-өзү башкарган унаалар AI унааны толугу менен өз алдынча айдаган унаалар болуп саналат жана айдоо тапшырмасы учурунда эч кандай адам жардамы жок.

Бул айдоочусу жок унаалар 4-деңгээл жана 5-деңгээл деп эсептелет (менин түшүндүрмөнү караңыз бул шилтемени бул жерде), ал эми адамдын айдоочусу айдоо аракетин биргелешип бөлүшүүнү талап кылган унаа адатта 2 же 3-деңгээлде каралат. Айдоо милдетин биргелешип аткарган унаалар жарым-жартылай автономдуу деп сыпатталат жана адатта ар кандай унааларды камтыйт. ADAS (Advanced Driver-Assistance Systems) деп аталган автоматташтырылган кошумчалар.

5-деңгээлде чыныгы өзүн-өзү башкара турган унаа азырынча жок жана биз буга жетүү мүмкүнбү же жокпу, же ал жакка жетүү үчүн канча убакыт талап кылынарын азырынча билбейбиз.

Ошол эле учурда, 4-деңгээлдеги аракеттер акырындык менен өтө тар жана тандалма коомдук жол сыноолорунан өтүү менен бир аз тартууга аракет кылууда, бирок бул сыноого уруксат берилиши керекпи же жокпу деген талаштар бар (биз бардыгыбыз экспериментте өмүр же өлүү гвинея чочкобузбуз) Биздин трассаларыбызда жана өтүүчү жолдорубузда болуп жаткандыктан, кээ бирлери айтышат, менин камтууумду караңыз бул шилтемени бул жерде).

Жарым автономдуу автоунаалар адамдык драйверди талап кылгандыктан, ал унаалардын түрүн кабыл алуу кадимки унааларды айдоодон айырмаланбайт, андыктан бул темада алар жөнүндө бир аз жаңылык бар (бирок, сиз көргөндөй) бир аздан кийин, кийинки пункттар негизинен колдонулат).

Жарым автономдуу автоунаалар үчүн, акыркы кездерде пайда болгон тынчсыздандыруучу аспект жөнүндө, айрыкча, 2-деңгээлдеги же 3-деңгээлдеги унаанын дөңгөлөгүндө уктап жаткан видеолорун жарыялап жаткан адамдардын айдоочуларына карабастан, коомчулукка алдын-ала эскертүү керек. , айдоочу жарым автономдуу унааны айдап баратып, алардын көңүлүн айдоо милдетинен алыстатат ​​деп ишендирүүдөн оолак болушубуз керек.

Автоматташтыруу 2 же 3 деңгээлге түшүп кетишине карабастан, автоунаа айдоо аракеттери үчүн сиз жооптуу тарапсыз.

Өзүн башкарган унаалар жана AI окуялары

4 жана 5-деңгээлдеги чыныгы өзүн-өзү айдаган унаалар үчүн айдоочулук милдетке тартылган адам болбойт.

Баардык жүргүнчүлөр жүргүнчүлөр болушат.

AI айдап бара жатат.

Тез арада талкуулоонун бир аспектиси бүгүнкү КТ айдоо тутумуна кирген КТнын сезимтал эместигине алып келет. Башка сөз менен айтканда, жасалма интеллект компьютердик программалоонун жана алгоритмдердин жамааты болуп саналат жана албетте, адамдар ойлогондой ой жүгүртө албайт.

Эмне үчүн бул AIга кошумча басым сезимтал эмес?

Анткени мен КТ айдоо системасынын ролу жөнүндө сөз болгондо, мен КТга адамдык сапаттарды бербейм деп баса белгилегим келет. Бүгүнкү күндө КТны антропоморфизациялоонун туруктуу жана кооптуу тенденциясы бар экендигин унутпаңыз. Түпкүлүгүндө, адамдар бүгүнкүдөй КТнын жок экендигинин талашсыз жана талашсыз фактысына карабастан, бүгүнкү күндө КТга адамдыкындай сезимдерди беришет.

Ушул тактоонун жардамы менен, сиз AI айдоо тутуму кандайдыр бир жол менен айдоонун жактары жөнүндө "билбейт" деп элестете аласыз. Айдоо жана ага байланыштуу бардык нерселер өзүн өзү башкаруучу машинанын аппараттык жана программалык камсыздоосунун бир бөлүгү катары программаланган болушу керек.

Келгиле, ушул темада ойноого келген көптөгөн аспектилерге сүңгүп кирели.

Биринчиден, AI өзүн-өзү айдай турган унаалардын бардыгы бирдей эмес экенин түшүнүү керек. Ар бир унаа өндүрүүчү жана өзүн-өзү айдай турган технологиялык фирма өзүн өзү айдай турган унааларды ойлоп табууга өзүнүн мамилесин көрүп жатат. Ошентип, AI айдоо тутумдары эмне кылаары же кылбашы жөнүндө кеңири билдирүүлөрдү жасоо кыйын.

Мындан тышкары, качан AI айдоо системасы кандайдыр бир нерсени жасабайт деп айткандан кийин, муну кийинчерээк компьютерди ошол нерсени жасоого программалаган программисттер басып кетиши мүмкүн. Кадам сайын AI айдоо системалары акырындык менен өркүндөтүлүп жана кеңейтилип жатат. Бүгүнкү күндө бар болгон чектөө системанын келечектеги итерациясында же версиясында жок болушу мүмкүн.

Мен ишенем, бул мен айткым келген нерселердин негизинде жетиштүү эскертүүлөрдү берет.

Биз азыр өзүн-өзү башкара турган унааларга жана AI кырсыктары деп аталган нерселердин пайда болушуна алып келген Этикалык AI мүмкүнчүлүктөрүнө терең сүңгүп чыгууга даярбыз.

AI негизиндеги өзүн-өзү башкара турган унаа сиздин коңшулук көчөлөрүңүздө жүрүп жатканын жана коопсуз айдап баратканын элестетиңиз. Башында сиз өзүн-өзү башкара турган унааны көргөн сайын өзгөчө көңүл бургансыз. Автономдуу унаа видеокамераларды, радар блокторун, LIDAR түзүлүштөрүн жана башка ушул сыяктууларды камтыган электрондук сенсорлордун стойкасы менен өзгөчөлөндү. Коомчулуктун айланасында бир нече жума бою өзүн-өзү башкара турган унаа круиздегенден кийин, азыр аны араң байкайсыз. Сиздин оюңузча, бул ансыз деле бош эмес коомдук жолдордогу башка унаа.

Өзү башкаруучу унааларды көрүү менен таанышуу мүмкүн эмес же акылга сыйбаган нерсе деп ойлобоңуз үчүн, мен өзүм айдай турган унааларды сынап көрүүнүн алкагындагы аймактар ​​бара-бара карагайлуу унааларды көрүүгө кантип көнүп калгандыгы жөнүндө көп жаздым. Акыры, жергиликтүү тургундардын көбү оозун ача тиктеп, тажап бараткан ызы-чуу сезимине өтүштү.

Кыязы, азыр алардын автономдуу унааларды байкап калышынын негизги себеби - кыжырдануу жана ачуулануу фактору. Китепте жазылган AI айдоо тутумдары унаалар бардык ылдамдык чектөөлөрүнө жана жол эрежелерине баш ийип жатканын текшерет. Кадимки адам башкарган унааларындагы тынымсыз айдоочулар үчүн, сиз мыйзамды катуу сактаган AI негизиндеги өзүн-өзү айдаган унаалардын артында тыгылып калганда кыжырданасыз.

Бул туура же туура эмес, баарыбыз көнүшүбүз керек болгон нерсе.

Биздин жомокко кайтуу.

Күндөрдүн биринде өзү башкарган машина кырсыкка учурайт.

Оңго бурулуп жатканда, AI айдоо системасы автономдуу унааны кенен сүзүп, адам башкарган унаа сүзүлгөн. Адам башкарган унаа жол кыймылынын тиешелүү тилкесинде түз алдыда бара жаткан. Айдоочу сүзүп кетүү же сүзүп калбоо үчүн өзгөчө мүмкүнчүлүк болгон эмес. Мындан тышкары, өзүн-өзү башкара турган унаанын туура бурулушу тууралуу эч кандай эскертүү же белги болгон эмес.

Бул кырсыкпы?

Биз, албетте, ал AI кырсык болгон рубрика ичинде камтылган деп айта алабыз. Мындай ырастоонун негизи өзүн-өзү башкарган унаанын рулунда AI айдоо системасы болгон. Кандайдыр бир себептерден улам, AI оңго бурулушта кең селкинчек жасоону чечти. Натыйжада өзү башкарган унаа адам башкарган унааны сүзүп алган.

"Кырсык" деген сөз менен байланышкан коннотациялар жөнүндө мурунку талкууну эстеп, бул сценарийде мындай астар кандайча ойноорун көрүңүз. Ошондой эле, биз адамдын айдоочусу оңго кең бурулуп, адам башкарган унааны сүзүп алган окуяны талкуулаганыбызды унутпаңыз. Биз бул актыны “кырсык” деген түшүнүк жаңылыштык жана түшүнүксүз экенин түшүндүк. Кең селкинчекти жасаган адам айдоочу кырсык жөн эле кокустуктан же тагдырдын ыңгайсыздыгынан улам болгон деген ойдун артына жашынып алат.

Сценарийди "AI кырсык" деп белгилөөнүн ордуна, AI негизиндеги өзүн-өзү башкарган унаа кенен барып, адам башкарган унааны сүзүп алган учурда, биз бул автокырсык же автокырсык деп айтуубуз керек. айдаган машина жана адам башкарган машина. Андан кийин биз аны белгисиз каражаттардын кокусунан болгон баш аламандыктан арылта алабыз.

Бул окуяга коомчулук кандай мамиле кылат деп ойлойсуз?

Автоунаа өндүрүүчүсү же өзүн-өзү айдаган технологиялык фирма бул маселени кырсык деп белгилөө менен карманса, алар жалпы коомчулуктун потенциалдуу каршылыгынан четтеп калышы мүмкүн. Бардык айтылган кырсыктар жөнүндө боор ооруу сезими, балким, белгилүү бир жагдайга агып кетиши мүмкүн. Шаарлар, округдар жана штат лидерлери AI автономдуу унаа инциденттерине кандай реакция жасаары тууралуу көбүрөөк билүү үчүн мен жетектеген Гарвард изилдөөсүнүн талкуусун караңыз. бул жерде шилтеме.

Эгер кырдаал ачык эле автокырсык же унаа кагылышуусу катары сүрөттөлсө, анда бул окуяга кимдир бирөө же бир нерсе күнөөлүү экенин түшүнүүгө мүмкүндүк берет. Тизе реакциясы AI жоопкерчиликке тартылышы мүмкүн. Эң негизгиси, эгер биз AIны юридикалык жак катары майлоону чечмейинче, сиз AIга жоопкерчиликти жүктөй албайсыз (Менин AI жана юридикалык жак боюнча талкууну караңыз: бул жерде шилтеме).

Биз AI айдоо тутумун текшерип, туура эмес көрүнгөн айдоо жана андан кийинки автокырсыкка эмне себеп болгонун аныктоого аракет кылсак болот. Бул AI жоопкерчиликке тартылат дегенди билдирбейт. Жооптуу тараптарга AI иштеп чыгуучулары, өзүн-өзү башкарган унаанын паркынын оператору жана башкалар кирет. Мен башкаларды да кошуп жатам, анткени бурулуш болгон бурчтун дизайны үчүн жарым-жартылай шаар жооптуу болушу мүмкүн. Кошумчалайлы, жөө жүргүнчү бурчтан чыгып бара жатып, AI айдоо системасы адамдан качууну чечти, бирок андан кийин автокырсыкка кабылды дейли.

Жана башка.

жыйынтыктоо

Биз AI эмнени эсептеп жатканын жана ал эмне кылуу үчүн программаланганын билгибиз келет. AI коддолгондой кылдыбы? Мүмкүн, AI программалоодо катага же катага туш болгондур, бул иш-аракеттерди актабайт, бирок кыйроонун кантип келип чыккандыгы жөнүндө көбүрөөк маалымат берет.

AI айдоо системасына кандай AI тосмолору программаланган? Коргоочу тосмолор болсо, эмне үчүн алар унаанын кагылышынын алдын албагандай көрүнгөнүн билгибиз келет. Балким, AI айдоо системасы бурулуш жасоонун ордуна токтоп калышы мүмкүн. Биз окуянын жүрүшүндө AI кандай альтернативаларды эсептөө менен баалаганын билгибиз келет.

Белгилүү бир окуянын түбүнө жетүүдөн тышкары, дагы бир туура маселе - AI айдоо тутумунда кемчилик барбы же ушул сыяктуу терс иш-аракеттерди жасай турган башка камтылган аспект. Негизи, бул окуя алдыда боло турган окуялардын бир көрсөткүчү болушу мүмкүн. AI айдоо тутумунун ушул түрүн сынап көрүү жана алдын ала билүү үчүн айдоо кырдаалдарынын компьютердик симуляциялары кандайча пайда болгон? Автоунаа кырсыгына алып келиши мүмкүн болгон AI маселелерин чечүүгө жетиштүү жолдун айдоо сыноолору болдубу?

Бул сценарий AI негизиндеги өзүн-өзү башкаруучу унаалардын пайда болушуна туш болгон талаштуу табышмакты көрсөтөт.

Ушундай болот.

Бир жагынан алганда, AI айдоо системалары адам айдоочуларына караганда коопсуз же мүмкүн болушунча коопсуз болот деген үмүттөн улам, коомдо өзүн-өзү башкара турган унааларды тез кабыл алууга каалоо бар. Бир гана Америка Кошмо Штаттарында, биз учурда жыл сайын дээрлик 40,000 адам өлүмгө дуушар болот, анткени унаа кырсыктары жана 2.5 миллион адам жаракат алган. Анализдер көрсөткөндөй, бул автокырсыктардын олуттуу бөлүгү адамдын катасынан, мисалы, мас абалында айдоо, алаксыган учурда айдоо ж.б. бул жерде шилтеме).

AI айдоо системалары ичпейт жана айдабайт. Алар эс алуунун кереги жок жана рулда отурганда эскирбейт. Автоунааларды транспорттун жашоого жарамдуу түрү катары орнотуу менен биз адам айдоочулардын санын кыскарта алабыз деген божомол бар. Бул өз кезегинде биз автокырсыктардан жыл сайын каза болгон адамдардын жана жаракат алгандардын санын кыскартабыз дегенди билдирет.

Кээ бир эксперттер биз нөл өлүм жана нөл жаракаттар менен аяктайбыз деп айтышты, ал эми бул өзүн-өзү айдаган унаалар кыйроого туруштук бере албайт, бирок бул таптакыр абсурд жана таптакыр жалган күтүүлөр. Мен мунун эмне үчүн мынчалык туура эмес экенин түшүндүрдүм бул жерде шилтеме.

Кандай болгон күндө да, бизде өзүн-өзү башкарган унаалар катышкан кээ бир автокырсыктар болот деп ойлойлу. Ошол автокырсыктарда каза болгондор жана жаракат алгандар аз болот деп ойлойлу. Биз коом катары мындай учурларга дегеле чыдайбызбы деген суроо тынчсыздандырат. Кээ бирөөлөр чыныгы өзүн-өзү айдаган унаалардын натыйжасында бир өлүм же бир жаракат болсо, бүт комплект жана кабудл жабылышы керек дешет.

Компенсациялык көз-караш, эгерде сакталып калган адамдардын өмүрү жылдык эсептерди азайтып жатса, анда биз өзүн-өзү башкаруучу унаалардын пайда болушун кубаттай беришибиз керек жана мындай логикасыз реакцияга барбашыбыз керек. Биз өзүн-өзү башкара турган унаалар менен дагы, өлүмдүн жана жаракат алгандардын кээ бир саны дагы эле боло берет деген негизди кабыл алышыбыз керек, бирок жыл сайын азайса, биздин туура жолдо экенибизди билдирерин түшүнүшүбүз керек.

Албетте, кээ бирөөлөр компьютердик симуляциялардын натыйжасында же жеке жабык тестирлөөнүн натыйжасында ушундай колдонуу үчүн тазаланганга чейин коомдук жолдорубузда өзүн-өзү башкарган унаалар болбошу керек деп ырасташат. Карама-каршы жүйө, өзүн-өзү башкарган унааларды өткөрүүнүн бирден-бир жашоого жөндөмдүү жана эң тез жолу коомдук жолдорду колдонуу болуп саналат жана өзүн-өзү башкарган унааларды кабыл алуунун ар кандай кечигүүлөрү, антпесе, адам башкарган унаалардын үрөй учурган санын улантууга мүмкүндүк берет. Мен өзүмдүн рубрикаларымда бул талкууну кененирээк чагылдырдым жана окурмандарды бул талаштуу маселе боюнча көз караштарды толук түшүнүү үчүн ошол талкууларды кароого чакырам.

Келгиле, азыр ишти жыйынтыктайлы.

AI кырсыктары болуп жатат. Биз AI кырсыкты көрүнгөн деп түшүнүү импульсуна туруштук беришибиз керек кокус жана демек, жаратуучуларга жана AIны жайылтууга таптакыр жол бербейт.

Кошумча бир бурулуш бар, аны мен сизге күнүңүз үчүн акыркы кызыктуу ой катары калтырам.

Маалыматтарга караганда, куудул Дэйн Кук автокырсыктар тууралуу мындай тамашаны айтып берди: «Бир нече күн мурун мен жол кырсыгына кабылдым. Менин күнөөм эмес. Сен күнөөлүү болбосоң да, экинчиси машинесинен түшүп, сени күнөөлүүдөй карап: Эмне үчүн светофордун кызыл күйүп турганына токтоп, 80 кылып урайын!» – дейт.

Бурулуш биринчи орунга чыкканда, AI тутумунун ошол AI менен байланышкан AI авариясы болгондо, AI бул окуя адамдын күнөөсү болгон жана AIнын күнөөсү эмес деп ырасташы мүмкүн. Айтмакчы, бул абдан чындык болушу мүмкүн жана адам AI күнөөлүү деп ырастап, AIны күнөөлөөгө аракет кылышы мүмкүн.

Же, балким, AI адамды күнөөлөөгө аракет кылып жатат.

Көрдүңүзбү, биз ойлоп тапкан AI кокусунанбы же жокпу, ушундай татаал болушу мүмкүн.

Source: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- айдоо-машиналар да/