AI этикасынын жана автономдуу системалардын сабактары Аляска авиакомпаниясынын акыркы учуусунан алынган, учкуч менен экинчи учкуч учуп кетерден мурун макул болушкан эмес жана күтүлбөгөн жерден такси менен терминалга кайтып келип, өзүнчө жолдор менен кетишкен.

Авиакомпаниялар акыркы убакта бир аз жаңылык болуп калды.

Биз жайкы аба каттамдарынын катаалындабыз. Чарчаган жана көңүлү чөккөн жүргүнчүлөр ар кандай каттамдардын үзгүлтүккө учурашына жана авиакомпаниянын графиктерин бузууга туш болушат. Каттамдар күтүүсүздөн токтотулат. Каттамдар кармалууда. Жүргүнчүлөр түтүн. Тилекке каршы, жүргүнчүлөрдүн бул кыжырдануусуна жол берген учурлары көп болду жана биз бетме-бет тирешүүлөрдүн жана кээде муштумдардын муштумдарын урган өтө көп вирустук видеолорду көрдүк.

Учкуч менен экинчи учкучтун ортосундагы талаш-тартыштар учкучтун кабинасында болушу мүмкүн экенин сейрек билебиз.

Бул абдан сюрприз.

Чынында эле, биз учкуч менен экинчи учкучтун учуунун кайсы бир этабында кандайдыр бир олуттуу пикир келишпестиктин көрүнүшү болот деп ойлоп, табигый түрдө таң калабыз. Эгерде пикир келишпестик кофенин кайсы бренди жакшыраак экенине байланыштуу болсо, биздин божомолубуз боюнча, бул учакты учкан жумушка кийлигишпейт. Экөө учууга тиешеси жоктой көрүнгөн темада көз-караш жоктугунан ийнин куушурушту. Алардын профессионалдуу жүрүм-туруму жана көп жылдык учкучтук машыгуусу башталат жана алар кайрадан учуунун өзгөчөлүктөрүнө көңүл бурушат.

А кесиптик пикир келишпестик кийлигишет.

Мен учкуч кабинасындагы профессионалдык пикир келишпестикке байланыштуу АКШда учуу учурунда болгон окуя тууралуу кеңири жарыяланган жаңылыкты кыскача бөлүшөм.

Бул негизинен бул жерде келтирилген, ошондуктан биз Жасалма интеллекттин (AI) пайда болушу үчүн чоң мааниге ээ болгон тиешелүү теманы изилдей алабыз. Көрдүңүзбү, адамдан адамга болгон пикир келишпестикте адамдардын ортосунда гана эмес, профессионалдык пикир келишпестиктердин бир түрү болушу мүмкүн, бирок бизде AI кабыл алынган учурда да окшош нерсе болушу мүмкүн жана натыйжада адам менен AI-кесиптик пикир келишпестиктер пайда болушу мүмкүн. . AI этикасынын бардык түрлөрү пайда болот. Менин AI этикасы жана этикалык AI маселелери боюнча кеңири жана үзгүлтүксүз чагылдыруу үчүн караңыз бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

Кызыктуу окуяга даярданыңыз.

Жакында кабарда айтылгандай, Вашингтондон Сан-Франциского бара жаткан Alaska Airline авиакомпаниясынын учагы учурунда "кесиптик пикир келишпестик" окуясы пайда болгон. Кабарларга караганда, рейс дарбазадан алыстап, такси менен учууга уруксат алуу үчүн асфальтта күтүп турган. Бороон-чапкын болуп, учак бир жарым сааттан ашык кечигүүгө алып келген. Көрсө, учак акыры бурулуп, дарбазаны көздөй бет алган, адатта, кээ бир жүргүнчүлөр бул жөн эле бороон-чапкынга байланыштуу коопсуздук чарасы деп ойлошкон.

Ар кандай твиттерге караганда, учкуч менен экинчи учкучтун кабинада отурган учурунда кандайдыр бир көз карашынан тыш чыр-чатактар ​​болгон окшойт жана кандайдыр бир жол менен эң этият мамиле рейсти тазалап, терминалга кайтып келүү деген тыянакка келишкен. . Твиттерде капитан менен биринчи офицер бири-бири менен тил табыша албады окшойт. Кийинчерээк авиакомпания кырдаал өкүнүчтүү деп билдирүү таратты (жагдай ачык айтылган эмес же өзүнчө түшүндүрүлгөн эмес), эки рейс кызматкери жетекчилик тарабынан бааланган жана учууга жарактуу деп табылган, экипаждар алмашылган жана учуу аяктады. жана кийинчерээк Сан-Франциского жетти.

Бир жагынан алганда, эгер чындыгында учкуч менен экинчи учкучтун ортосунда профессионалдык пикир келишпестик бар болсо, мисалы, учак учууга даярбы же бороон-чапкындан учуп кетүү коркунучу ылайыктуу коопсуздук чегиндеби, бул жүргүнчүлөр жеңилдетилип, жеңилдеп калышы керек. самолеттун дарбазага кайтарылганына ыраазы. Кечиргенден көрө коопсуз болгон жакшы. Кошумча кечигүүнүн болушу катаал же жагымсыз учуу сапары менен байланышкан тобокелдиктерди болжолдуу кыскартууга арзыйт.

Кээ бир адамдар мындай профессионалдык пикир келишпестиктин пайда болушуна таң калышы мүмкүн.

Бизде, балким, кабинада болуп жаткан нерселердин баары так жана жакшы жазылган деген туура эмес ой бар. Адамдын акыл-эстүүлүгүнүн бардык түрү процесстен четтеп калгандай. Так жана кылдат эсептелген диаграммалардын негизинде, учуу улантууга жарайт же андай эмес. Бүт комплект жана кабуд фактылардын жана цифралардын четке кагылгыс эсебине негизделген деп ойлогондо, эч кандай пикир келишпестик болушу мүмкүн эмес.

Бул иштин толук чындыгы эмес. Албетте, көптөгөн протоколдор жана ар кандай текшерүүлөр жана тең салмактуулуктар бар, бирок бул адамдын ой-пикирин эч кандай кыйнабайт. Учкучтар жана учкучтар дагы эле адамдык акыл-эстүүлүккө ээ. Бактыга жараша, бул адам соту учкан жылдар менен такталган. Коммерциялык жүргүнчү учагындагы пилоттун жана экинчи учкучтун мурунку учуу тажрыйбасы бар жана алардын көп жылдык терең ой жүгүртүүсүн жана учууну башкарууда болуу менен байланышкан ой жүгүртүүсүн дароо колдонушу ыктымал.

Адамдын акыл-эсинин көрүнүктүү ролун эске алганда, биз учкуч менен экинчи учкучтун ортосунда кээде профессионалдык пикир келишпестиктер пайда болот деп логикалык жактан күтө алабыз. Көбүнчө, мындай пикир келишпестиктер өтө аз болот. Күнүмдүк учуу үчүн учкуч жана экинчи учкуч убакыттын басымдуулугуна ылайыктуу болушу мүмкүн. Учуу сценарийи кадимки чектен чыгып кеткенде гана биз чыңалган сүрүлүүнүн пайда болушун күтөбүз.

Эгерде экөөнүн ортосунда катуу пикир келишпестик бар болсо, мен алардан аны жок кылышын каалайбыз деп айта алам.

Пилоттун уланткысы келген, бирок экинчи учкуч тобокелдиктер өтө жогору экенин сезген кырдаалды элестетиңиз. Учкучтун учкучтун коутусу жөн эле жагымсыз көрүнүш. Кошумча учкуч - бул учкуч эмне кылууну ойлоп жатканын текшерүү жана баланс. Кошумча учкучтун оозун жабууну жана пилоттун буйругуна карабастан, акылсыздык менен иш-аракет кылуусун каалагандар үчүн бул анча деле ишеничтүү эмес. Кошумча учкуч - бул сүрөткө учкуч толук жөндөмсүз болгондо гана кире турган запастык "учкуч" эмес. Бул учкучтун жана экинчи учкучтун кабинада болушунун баалуулугун туура эмес түшүнүү.

Мунун башка бурчу бар.

Учуу уланат деп ишенбеген учкучтун окуясын карап көрөлү, ошол эле учурда экинчи учкуч абага көтөрүлүп жатат. Анда эмне? Күтүлгөн иерархия боюнча учкуч шарттуу түрдө экинчи учкучтан үстөмдүк кылышы керек. Негизги жетекчинин дайындалган ролу учкучту башка жагынан бир аз бирдей болгон нерседен чоңураак кылат. Адатта, учкучтун учкучтун жалпы учуу убактысы кошумча пилотко караганда көбүрөөк болот жана демек, экинчи учкуч иерархиялык түрдө учкучтун каалоосуна (эсепке жараша) баш ийиши керек.

Кандай болгон күндө да, биз баарыбыз макул боло алабыз деп ойлойм, учуп кетүүдөн баш тартуу, учууну чечкенге караганда, албетте, анча коркунучтуу эмес. Учак абага көтөрүлгөндөн кийин, коркунучтун деңгээли кадимки туруктуу жерде болуу менен салыштырганда абдан чоң болот. Кадимки коммерциялык рейс, абага түшпөстөн эле терминалга такси менен кайтып келүү, учууга баруу боюнча ар кандай кызуу талаш-тартыштар үчүн жагымдуу чечим болмок.

Келгиле, тиштерди алмаштыралы жана бул укмуштуудай жаңылыкты такыр башка, бирок окшош максатта колдонолу.

Акырындык менен биздин арабызда AI негизиндеги автономдуу системалар кеңири жайылууда. Кээде AI шоуну башкарат. AI Адан Яга чейин баарын жасайт жана биз муну толугу менен автономдуу же дээрлик ушундай AI деп түшүнүшүбүз мүмкүн. Башка учурларда, биз менен өз ара аракеттенген AI болушу мүмкүн жана кандайдыр бир даражада циклде адамдын болушуна таянуу үчүн программаланган.

Мен AI негизиндеги автономдуу же жарым-жартылай автономдуу система маселесине көңүл бургум келет, ал башынан эле циклде адам бар. AI жана адам атайылап биригип, бири-бири менен тандемде иштеши керек. Алар белгилүү бир ишти аткарууда когорта болуп саналат. Жалгыз AI тапшырманы аткарбашы керек. AI дайындалган циклдеги адам менен өз ара аракеттениши керек.

Мен бул мүнөздөмөнү циклдеги адам фасеттик фасет деп эсептелген кырдаалдардан айырмалоо үчүн келтирем. Негизи, AIга эркиндик берилет. Эгерде AI адамды колдонууну чечсе, анда ошондой болсун. AI дайындалган адам менен базага тийип же аны менен кол кармашып иштеши керек деген талап жок. Мен айтып жаткан анализдер, албетте, ушул түргө тиешелүү кошумча өз ара аракеттенүү тартиби, бирок мен бул талкууда атайын айдап жаткан нерсе эмес.

Макул, бизде адам менен AI бири-биринен ажырагыс түрдө чогуу иштей турган кандайдыр бир тапшырма бар. Абстракттуу мааниде бизде бир орунда адам отурса, экинчи орунда AI системасы отурат. Мен муну шылдыңдап айтып жатам, анткени биз бул талкууну, мисалы, отургучта отурган робот менен чектебейбиз. Мен AI кайсы бир жерде тапшырмага катышып жатат деген түшүнүктү метафоралык түрдө айтып жатам жана адам дагы. Физикалык жактан алганда, алардын турган жери талкуу үчүн өзгөчө маанилүү эмес.

Мындай жагдай качан пайда болорун билбей калышың мүмкүн.

Оңой peasy.

Мен кийинчерээк автономдуу унаалардын жана өзүн-өзү башкаруучу унаалардын пайда болушун талкуулайм. Автономиянын белгилүү деңгээлдеринде AI жана адам чогуу иштеши керек. AI унааны айдап, адамдан айдоо башкаруусун колго алууну суранышы мүмкүн. Адам унааны айдап, башкарууну колго алуу үчүн AIды иштетиши мүмкүн. Алар айдоону башкарууда кезектешип турушат.

Мындан тышкары, кээ бир конструкцияларда AI ар дайым активдүү (же өчүрүлбөсө), AI ар дайым даяр болушу үчүн. Андан тышкары, AI болуп жаткан кырдаалга жараша, адам сурабай туруп, түздөн-түз кийлигише алат. Мисалы, адам рулда уктап калды окшойт дейли. Адам AIны иштете албагандыктан (адам уктап жаткандыктан), AI адамдан башкарууну өзүнө алуу үчүн программаланган болушу мүмкүн.

Кээ бир конструкциялар AI менен адамдарды кош айдоо ыкмасына алып келет. AI айдап баратат, ал эми адам айдайт. Же, эгер кааласаңыз, адам айдап баратат, ал эми AI дагы айдайт. Алардын ар бири унаа айдап жүрүшөт. Мен муну, балким, сиз айдоочулук курста жүргөндө колдонгон атайын бурмаланган машиналарга окшоштурам жана унаада айдоочулук башкаруунун эки топтому бар болчу, бири студент айдоочу үчүн жана экинчиси айдоочулук инструктор үчүн.

Бул AI жана адамдар бир тапшырманын үстүндө чогуу иштеши мүмкүн болгон жагдайдын бир гана мисалы. Бардык мүмкүнчүлүктөр бар. Автономдуу унаалардын башка түрлөрү, мисалы, учактар, дрондор, суу астындагы кемелер, жер үстүндөгү кемелер, поезддер ж.б.у.с. Биз бир гана унаа жана транспорт жөндөөлөрүн эске алышыбыз керек эмес. Медициналык доменди жана медициналык дарыгер менен AI тутуму биргелешип жасалып жаткан операцияларды элестетиңиз. Тизме чексиз.

Барга чогуу кирген адам жана AI жөнүндөгү классикалык чуулуу тамашага кайрылгым келип кетти. Бул AI менен алектенгендер үчүн күлкүлүү.

Олуттуу түрдө, келгиле, берилген тапшырмада чогуу иштеген адам менен AI тутумунун көңүл чордонуна кайрылалы. Биринчиден, мен AIды антропоморфизациялоодон алыс болгум келет, бул мен бүтүндөй баса белгилеген нерсе. AI сезимтал эмес. Суранам экенин эстен.

Бул жерде ойлоно турган нерсе бар: Белгиленген адам ар дайым биргелешкен AI менен толук макулдашабы?

Кандайдыр бир татаал тапшырма үчүн, адам жана AI толугу менен жана ар дайым кулпу жана кадамда болоору күмөндүү көрүнөт. Адам кээ бир учурларда AI менен макул болбой калышы мүмкүн. Биз бул божомолду банкка чейин жеткире алабыз.

Бул, балким, таң калыштуу мүмкүнчүлүктү да карап чыгышыңызды каалайм: AI ар дайым белгилүү бир адам менен толук макулдашабы?

Дагы бир жолу, кандайдыр бир татаал тапшырма үчүн, AI кээ бир учурларда адамдар менен макулдаша албай тургандай сезилет. Эгер сиз AI ар дайым туура эмес болушу керек, ал эми адамдар дайыма туура болушу керек деген идеяга ыктап жатсаңыз, анда шашылыш тыянакты кайра карап чыкканыңыз туура болот. Жарым автономдуу унааны адам менен AI бирге башкарган унааны элестетиңиз. Адам кирпич дубалды көздөй айдайт. Неге? Биз билбейбиз, балким, адам мас абалында же уктап калгандыр, бирок кирпич дубалды сүзүү жакшы идея эмес экенин билебиз. AI алдыдагы кырсыкты байкап, алдыда келе жаткан тоскоолдуктан качууга аракет кылышы мүмкүн.

Баардыгы айтылгандай, бизде AI жана адамдардын бири-бири менен макул болбошу мүмкүн. Ошол эле нерсени айтуунун башка жолу - адамдар жана AI бири-бири менен макул эмес. Белгилей кетчү нерсе, мен AI-адамга каршы адам жана AI ырааттуулугу пикир келишпестиктин багыты же ишенимдүүлүгү жөнүндө эч нерсе сунуш кылышын каалабайм.

Эки жумушчу, бири адам, экинчиси AI, бири-бири менен макул эмес.

Белгилүү бир AI менен берилген адамдын ортосунда пикир келишпестик пайда болгондо, биз алдын ала AIдан адам үстөмдүк кылат деп жарыялай алабыз. Айтор, кирпич дубалды көздөй бара жаткан машине жөнүндөгү менин иллюстративдик мисалым бизди адам дайыма туура деп эсептейт дегенден тайдыргандай.

Биз, тескерисинче, пикир келишпестиктер келип чыкканда, биз AI туура, ал эми адам туура эмес экенин алдын ала аныктайбыз деп алдын ала жарыялоону тандасак болот. Бул да акылга сыярлык жалпылоочу жобо эмес. AI кандайдыр бир камтылган программалык катасы же мүчүлүштүктөрү бар унааны элестетиңиз, ал эми AI унааны жолдон чыгарып, арыкка бурууга аракет кылып жатат. Калганынын баары бирдей деп ойлосок, адам AI айдоо аракетин жеңип, унаанын сайга түшүп кетишине жол бербөө керек.

Келгиле, мунун кыскача баяндамасын жасайлы:

  • Айланадагы адам ар дайым AI менен толук макул болобу? деп жооп берет: Жок.
  • AI ар дайым циклдеги адам менен толук макул болобу? деп жооп берет: Жок.
  • Айланадагы адам AIга салыштырмалуу дайыма туура болобу? деп жооп берет: Сөзсүз эле андай эмес.
  • Айланадагы адамга салыштырмалуу AI ар дайым туура болобу? Жооп: Сөзсүз эмес.

Сиз, албетте, AIди демейки боюнча "туура эмес" же алсыз тарап катары эсептей тургандай кылып орното аласыз, ошондуктан пикир келишпестик пайда болгондо ар дайым адамга кайрыла аласыз. Ошо сыяктуу эле, сиз AIны адам AI менен макул болбогон учурда, AI "туура" деп эсептеш үчүн орното аласыз. Эгерде биз муну кааласак, программалык түрдө жасай аларыбызды тактап айткым келет. Мен жалпысынан алганда, бул дайыма эле боло бербейт деп ырастайм. Белгилүү бир тапшырмага байланыштуу пикир келишпестикте тигил же бул жакты тандоо жагынан AI "туура" же адам "туура" экенин алдын ала билбеген жөндөөлөр бар.

Мен сизди абдан маанилүү жана өтө татаал суроого алып келдим.

Профессионалдык пикир келишпестиктер циклдеги адам менен AI ортосунда пайда болгондо эмне кылышыбыз керек?

Суроодон качууга аракет кылбаңыз.

Кээ бирөөлөр бул эч качан болбойт деп талашышы мүмкүн, бирок мен машина жөнүндө мисалымда айтып өткөндөй, бул сөзсүз болушу мүмкүн. Кээ бирөөлөр адам өзүнөн жогору турат жана кандайдыр бир пикир келишпестиктин жеңүүчүсү болушу керек деп айтышы мүмкүн. Менин мисалымда машина менен кирпич дубал аны кулатат. AIнын жактоочулары бар, алар AI жеңүүчү болушу керек деп ырасташат, анткени адамдык эмоцияларды жеңип, ошол туш келди бүдөмүк ой жүгүртүүчү адамдар тарабынан туура эмес ой жүгүртүү. Дагы бир жолу айта кетейин, менин башка мисалымда машинанын арыкка баратканы бул ырастоону жокко чыгарат.

Чыныгы дүйнөдө, AI жана адамдар, атүгүл биргелешип аткарылган тапшырманы аткаруу үчүн атайылап командалык кырдаалга келтирилгенде да, келишпейт. Бул болот. Биз башыбызды кумга салып, андай болбойт деп айта албайбыз.

Биз учакты башкарып жаткан адамдар, кыязы, пикир келишпестикке кабылышканын көрдүк. Кудайга шүгүр, макул болбостон макул болушту окшойт. Алар учакты кайра терминалга алып келишти. Алар пикир келишпестиктерди чечүүнүн жолун табышты. Алардын пикир келишпестиктерин чечүү, балким, кабинада муштумчулукка барышканбы же балким, абага учушканбы жана бири-бири менен кармашууну уланта беришкенге салыштырмалуу жакшы жыйынтыкталды. Бул өкүнүчтүү сценарий, аны четке кагуу мүмкүн эмес жана биз болбогонуна ыраазыбыз.

Мага AI жана циклдеги адам (же, адам жана AI) пикир келишпестиктерин чечүүнүн ар кандай жолдорунун тизмесин берүүгө уруксат этиңиз:

  • AI жана бириккен адам баарын чечет (тынчтык менен же жокпу)
  • Демейки боюнча, адам AIдан үстөмдүк кылат
  • Демейки боюнча, AI адамга караганда үстөмдүк кылат
  • Демейки боюнча, кээ бир башка алдын ала белгиленген резолюция үстөмдүк кылат
  • Үчүнчү жактын адамы луп жатат жана алардын көрсөткүчү тараптарга караганда үстөмдүк кылат
  • Үчүнчү тараптын AI илештирилген жана анын көрсөткүчү тараптардын үстүнөн басымдуулук кылат
  • Үчүнчү жактын адамы бар адамды алмаштырат, баары жаңыдан башталат
  • Үчүнчү тараптын AI бар AI алмаштырат, баары кайра башталат
  • Үчүнчү тараптын адамы бар AIны алмаштырат, баары жаңыдан башталат (азыр адамдан адамга)
  • Үчүнчү тараптын AI учурдагы адамды алмаштырат, баары жаңыдан башталат (азыр AI-AI)
  • башка

Булар чечмеленүүгө абдан татыктуу.

AI жана адамдардын пикир келишпестиктери менен кантип күрөшүү керектиги жөнүндө жапайы жана жүндүү ой-пикирлер жөнүндө дагы бир нече эт жана картошкага киришүүдөн мурун, келгиле, терең маанилүү темалар боюнча кээ бир кошумча негиздерин айтып берели. Биз AI этикасына жана айрыкча Machine Learning (ML) жана Deep Learning (DL) пайда болушуна кыскача киришибиз керек.

Бүгүнкү күндө AI тармагында, атүгүл AI талаасынан тышкары жерлерде эң катуу үндөрдүн бири этикалык AIнин көбүрөөк окшоштугу үчүн кыйкырыктардан турат деп бүдөмүк билесиз. Келгиле, AI этикасына жана этикалык AIге кайрылуу эмнени билдирерин карап көрөлү. Анын үстүнө, мен Machine Learning жана Deep Learning жөнүндө айтканда эмнени айткым келгенин изилдейбиз.

ЖМКнын көңүлүн бурган AI этикасынын белгилүү бир сегменти же бөлүктөрү терс көз караштарды жана теңсиздикти көрсөткөн AIдан турат. AIнын акыркы доору башталганда, азыр кээ бирөөлөр деп атаган нерсеге энтузиазмдын чоң жарылуу болгонун билесиз. AI For Good. Тилекке каршы, ошол шаркыратма толкундан кийин биз күбө боло баштадык AI For Bad. Мисалы, AI негизиндеги жүздү таануунун ар кандай системалары расалык көз караштарды жана гендердик көз караштарды камтыганы аныкталган, алар жөнүндө мен талкууладым. бул жерде шилтеме.

каршы күрөшүү аракеттери AI For Bad активдүү жүрүп жатат. Кыйкырыктан тышкары укуктук туура эмес иш-аракеттерди ооздуктоого умтулуу, ошондой эле AIнын жамандыгын оңдоо үчүн AI этикасын кабыл алууга олуттуу түрткү бар. Биз AIны өнүктүрүү жана жайылтуу үчүн негизги этикалык AI принциптерин кабыл алып, бекитишибиз керек деген түшүнүк бар. AI For Bad жана ошол эле учурда артыкчылыктууларды жарыялоо жана алдыга жылдыруу AI For Good.

Тиешелүү түшүнүк боюнча, мен AIны AI көйгөйлөрүн чечүүнүн бир бөлүгү катары колдонууга аракет кылып, ушундай ой жүгүртүү менен от менен от менен күрөшүүнүн жактоочусумун. Биз, мисалы, этикалык AI компоненттерин AI тутумуна киргизсек болот, ал AIнын калган бөлүгү кандай иштерди жасап жатканын көзөмөлдөп, реалдуу убакытта дискриминациялоочу аракеттерди байкай алат, менин талкууну караңыз бул жерде шилтеме. Бизде ошондой эле өзүнчө AI системасы болушу мүмкүн, ал AI этикасынын мониторунун бир түрү катары иштейт. AI системасы башка AI этикага жатпаган туңгуюкка баратканда көзөмөлдөө жана аныктоо үчүн көзөмөлчү катары кызмат кылат (мындай мүмкүнчүлүктөр боюнча менин анализимди караңыз: бул жерде шилтеме).

Бир аздан кийин мен сиз менен AI этикасынын негизги принциптерин бөлүшөм. Бул жерде жана бул жерде калкып жаткан көптөгөн тизмелер бар. Сиз азырынча универсалдуу кайрылуунун жана макулдашуунун бирдиктүү тизмеси жок деп айта аласыз. Бул жагымсыз кабар. Жакшы жаңылык, жок эле дегенде, жеткиликтүү AI этикасынын тизмелери бар жана алар абдан окшош. Мунун баары негиздүү конвергенциянын бир түрү аркылуу биз AI этикасынын жалпы жалпылыгына карай жол таап жатканыбызды көрсөтүп турат.

Биринчиден, келгиле, AI жасаган, талаага чыгарган же колдонгон адам үчүн эмне маанилүү экенин көрсөтүү үчүн жалпы этикалык AI осуяттарынын айрымдарын кыскача ачып берели.

Мисалы, Ватикан тарабынан айтылгандай Рим AI этикасына чакырат жана мен тереңирээк карадым бул жерде шилтеме, булар алардын аныкталган алты негизги AI этикасынын принциптери:

  • ачыктык: Негизи, AI системалары түшүнүктүү болушу керек
  • Кошуу: Ар бир адам пайда көрүшү үчүн жана бардык инсандарга өзүн көрсөтүү жана өнүктүрүү үчүн мүмкүн болгон эң жакшы шарттарды сунуштоо үчүн бардык адамдардын муктаждыктары эске алынышы керек.
  • жоопкерчилиги: AI колдонууну иштеп чыккан жана жайылткандар жоопкерчилик жана айкындуулук менен жүрүшү керек
  • Калыс: Адилеттүүлүктү жана адамдык ар-намысты коргоп, бир жактуулукту жаратпаңыз же аракет кылбаңыз
  • ишенимдүүлүк: AI системалары ишенимдүү иштей алышы керек
  • Коопсуздук жана купуялык: AI системалары коопсуз иштеши керек жана колдонуучулардын купуялыгын сыйлашы керек.

АКШнын Коргоо министрлигинин (DoD) билдирүүсүндө Жасалма интеллектти колдонуунун этикалык принциптери жана мен тереңирээк карадым бул жерде шилтеме, булар алардын алты негизги AI этика принциптери:

  • Жооптуу: DoD кызматкерлери AI мүмкүнчүлүктөрүн иштеп чыгуу, жайылтуу жана колдонуу үчүн жоопкерчиликтүү бойдон калууда, тиешелүү деңгээлде ой жүгүртүү жана кам көрүшөт.
  • Адилеттүү: Бөлүм AI мүмкүнчүлүктөрүндө күтүлбөгөн терс көрүнүштөрдү азайтуу үчүн атайылап чараларды көрөт.
  • Изделүүчү: Бөлүмдүн AI мүмкүнчүлүктөрү тиешелүү персонал AI мүмкүнчүлүктөрүнө колдонулуучу технологияларды, иштеп чыгуу процесстерин жана оперативдүү ыкмаларын, анын ичинде ачык-айкын жана аудитордук методологияларды, маалымат булактарын, долбоорлоо процедурасын жана документтерин тийиштүү түшүнүүгө ээ болушу үчүн иштелип чыгат жана жайылтылат.
  • ишенимдүү: Бөлүмдүн AI мүмкүнчүлүктөрү ачык, так аныкталган колдонууга ээ болот жана мындай мүмкүнчүлүктөрдүн коопсуздугу, коопсуздугу жана натыйжалуулугу алардын бүткүл жашоо циклдеринде аныкталган колдонуунун алкагында сыноодон жана кепилдиктен өтүүгө тийиш.
  • Башкарылуучу: Бөлүм күтүлбөгөн кесепеттерди аныктоо жана болтурбоо, ошондой эле күтүлбөгөн жүрүм-турумду көрсөткөн орнотулган системаларды өчүрүү же өчүрүү жөндөмдүүлүгүнө ээ болуу менен, өз милдеттерин аткаруу үчүн AI мүмкүнчүлүктөрүн иштеп чыгат жана инженериялайт.

Мен ошондой эле AI этикасынын принциптеринин ар кандай жамааттык анализдерин талкууладым, анын ичинде көптөгөн улуттук жана эл аралык AI этикасынын жоболорунун маңызын изилдеген жана конденсациялаган изилдөөчүлөр тарабынан иштелип чыккан комплексти камтыган “The Global Landscape of AI Ethics Guidelines” (жарыяланган. ичинде жаратылыш), жана менин камтуум изилдейт бул жерде шилтеме, бул негизги таш тизмесине алып келди:

  • ачыктык
  • Адилеттик & Калыстык
  • Non-Maleficence
  • жоопкерчилик
  • Privacy
  • Пайдасы
  • Эркиндик жана автономия
  • ишеним
  • Туруктуулук
  • Кадыр-барк
  • Жардамдашуу

Түздөн-түз божомолдогонуңуздай, бул принциптердин негизинде жаткан өзгөчөлүктөрдү аныктоого аракет кылуу абдан кыйын болушу мүмкүн. Андан тышкары, бул кеңири принциптерди AI тутумдарын жасоодо колдонуу үчүн толугу менен сезилерлик жана деталдуу нерсеге айландыруу аракети да катаал жаңгак болуп саналат. AI этикасынын осуяттары эмне экендиги жана аларды жалпысынан кантип сактоо керектиги жөнүндө жалпысынан бир аз кол булгалоо оңой, ал эми AI коддоосунда бул жолго жооп берген чыныгы резина болушу керек болгон бир топ татаал жагдай.

AI этикасынын принциптерин AI иштеп чыгуучулары, ошондой эле AI өнүктүрүү аракеттерин башкаргандар, ал тургай, акырында AI тутумдарын иштеткен жана тейлеген адамдар колдонушу керек. AIны иштеп чыгуунун жана колдонуунун бүткүл жашоо циклиндеги бардык кызыкдар тараптар Этикалык AIнын белгиленген нормаларын сактоонун алкагында каралат. Бул маанилүү жагдай, анткени адаттагыдай, "кодерлор гана" же AIди программалагандар AI этикасынын түшүнүктөрүн карманууга тийиш. Жогоруда айтылгандай, AI ойлоп табуу жана жайылтуу үчүн айыл керек, ал үчүн бүт айыл AI этикасынын эрежелерин билиши керек.

Келгиле, бүгүнкү AIнын табияты жөнүндө бир бетте экенибизди текшерип көрөлү.

Бүгүнкү күндө сезимтал AI жок. Бизде бул жок. Сезимдүү AI мүмкүн болорун билбейбиз. Эч ким так айта албайт, биз сезгич АИге жетебизби, же сезгич AI кандайдыр бир кереметтүү түрдө өзүнөн-өзү пайда болоорун айта албайт (көбүнчө сингулярлык деп аталат, менин камтууумду караңыз). бул жерде шилтеме).

Мен басым жасап жаткан AI түрү бүгүнкү күндө бизде бар сезилбеген AIдан турат. Эгерде биз жапайы ой жугуртууну кааласак сезимтал AI, бул талкуу түп-тамырынан бери башка багытта кетиши мүмкүн. Сезимдүү AI адамдык сапатка ээ болмок. Сиз сезүүчү AI адамдын когнитивдик эквиваленти экенин эске алышыңыз керек. Андан тышкары, кээ бирөөлөр бизде супер интеллектуалдык AI болушу мүмкүн деп божомолдогондуктан, мындай AI адамдардан акылдуураак болушу мүмкүн (супер-акылдуу AI боюнча менин изилдөөм үчүн, караңыз. камтуу бул жерде).

Келгиле, нерселерди жер бетине түшүрүп, бүгүнкү эсептөөчү сезилбеген AIны карап көрөлү.

Бүгүнкү AI адамдын ой жүгүртүүсү менен бирдей эч кандай модада “ойлоого” жөндөмсүз экенин түшүнүңүз. Alexa же Siri менен баарлашканыңызда, сүйлөшүү мүмкүнчүлүктөрү адамдын мүмкүнчүлүктөрүнө окшош сезилиши мүмкүн, бирок чындыгында ал эсептөөчү жана адамдын таанып-билүү жөндөмү жок. AIнын акыркы доору эсептөө үлгүлөрүн дал келүүнү камсыз кылган Machine Learning (ML) жана Deep Learning (DL) кеңири колдонду. Бул адамга окшош өңүттөгү AI системаларына алып келди. Ошол эле учурда, бүгүнкү күндө жалпы акылга окшош бир дагы AI жок жана адамдын күчтүү ой жүгүртүүсүнүн когнитивдик кереметтери жок.

ML/DL эсептөө үлгүсүн далдаштыруунун бир түрү. Кадимки ыкма сиз чечим кабыл алуу тапшырмасы жөнүндө маалыматтарды чогултасыз. Сиз маалыматтарды ML/DL компьютер моделдерине киргизесиз. Бул моделдер математикалык үлгүлөрдү табууга умтулушат. Мындай үлгүлөрдү тапкандан кийин, эгер табылса, AI системасы жаңы маалыматтарга туш болгондо ошол үлгүлөрдү колдонот. Жаңы маалыматтар берилгенден кийин, учурдагы чечимди чыгаруу үчүн "эски" же тарыхый маалыматтарга негизделген үлгүлөр колдонулат.

Менимче, сиз бул кайда бара жатканын биле аласыз. Эгерде чечимдерди кабыл алган адамдар терс көз караштарды камтыса, анда маалыматтар муну тымызын, бирок маанилүү жолдор менен чагылдырат. Machine Learning же Deep Learning эсептөө үлгүсүн дал келтирүү жөн гана тиешелүү түрдө маалыматтарды математикалык тууроого аракет кылат. AI тарабынан жасалган моделдөөнүн жалпы акыл-эстин же башка сезимтал аспектилердин окшоштугу жок.

Андан тышкары, AI иштеп чыгуучулар да эмне болуп жатканын түшүнбөй калышы мүмкүн. ML/DLдеги сырдуу математика азыр жашырылган калпыстыктарды жоюуну кыйындашы мүмкүн. Сиз AI иштеп чыгуучулары потенциалдуу көмүлгөн тенденцияларды сынашат деп үмүттөндүңүз жана күтөсүз, бирок бул көрүнгөндөн алда канча татаал. Салыштырмалуу кеңири тестирлөө менен дагы ML/DL үлгүсүнө дал келген моделдердин ичинде калпыстыктар сакталат деген чоң мүмкүнчүлүк бар.

Сиз кандайдыр бир атактуу же атагы чыккан таштандыны таштандыдан чыгаруу деген макалды колдонсоңуз болот. Эң негизгиси, бул AIнын ичине кирип кеткен көзкараштар катары тымызын түрдө пайда болгон бир тараптуулукка көбүрөөк окшош. AIнын алгоритмдик чечимдерди кабыл алуу (ADM) аксиоматикалык түрдө теңсиздикке толгон.

жакшы эмес.

Келгиле, AI менен адамдын ортосундагы пикир келишпестиктерге көңүл буралы.

Мен буга чейин бул пикир келишпестиктерди чечүү стратегияларынын кээ бирлери экенин айттым:

  • AI жана бириккен адам баарын чечет (тынчтык менен же жокпу)
  • Демейки боюнча, адам AIдан үстөмдүк кылат
  • Демейки боюнча, AI адамга караганда үстөмдүк кылат
  • Демейки боюнча, кээ бир башка алдын ала белгиленген резолюция үстөмдүк кылат
  • Үчүнчү жактын адамы луп жатат жана алардын көрсөткүчү тараптарга караганда үстөмдүк кылат
  • Үчүнчү тараптын AI илештирилген жана анын көрсөткүчү тараптардын үстүнөн басымдуулук кылат
  • Үчүнчү жактын адамы бар адамды алмаштырат, баары жаңыдан башталат
  • Үчүнчү тараптын AI бар AI алмаштырат, баары кайра башталат
  • Үчүнчү тараптын адамы бар AIны алмаштырат, баары жаңыдан башталат (азыр адамдан адамга)
  • Үчүнчү тараптын AI учурдагы адамды алмаштырат, баары жаңыдан башталат (азыр AI-AI)
  • башка

Буларды ачууга убакыт келди.

Биринчиден, мунун баары жөнүндө экенин карап көрөлү кесиптик пикир келишпестиктер.

Кесиптик пикир келишпестик жумушка байланыштуу тапшырма менен байланышкан пикир келишпестик катары аныкталат.

Мисалы, учкуч менен экинчи учкучтун ортосунда бороон-чапкынга туш болгон учушту улантуу керекпи же жокпу деген пикир келишпестик кесиптик пикир келишпестик катары белгилениши мүмкүн. Ал эми, пилот кофенин кайсы брендин жактап жатканы боюнча катуу пикир келишпестик, бул контекстте кесипкөй эмес пикир келишпестик катары оңой эле категорияга кирет.

Албетте, эгерде профессионалдык эмес пикир келишпестик профессионалдык пикир келишпестикке айланып кетсе, акыры биз профессионалдык пикир келишпестиктин болжолдуу булагы же учкуну катары кызыкдар болушубуз мүмкүн. Элестеткиле, учкуч менен экинчи учкуч кофенин кайсы маркасы эң жакшы экендиги жөнүндө катуу талашып-тартышып, анан ал өкүнүчтүү түрдө учуп кетүү же учпоо сыяктуу учуу үчүн спецификалык кооптонууларга (пн!) кирип кетет.

Экинчиден, профессионалдык пикир келишпестиктин чоңдугун эстен чыгарбашыбыз керек.

Балким, учкуч менен экинчи учкуч же учууну улантуу боюнча бир аз пикир келишпестик бар. Алар талашып-тартышпайт жана жөн гана учуп кетүүнүн жакшы жана жаман жактарын ойлоп жатышат. Бул биз бул жерде адатта карап жаткан профессионалдык пикир келишпестиктин масштабы же чоңдугу эмес. Кептин баары, бул кесипкөй пикир келишпестик өткөөл болуп саналат жана эки тарап бир чечимди чын жүрөктөн же жок дегенде өз убагында иштеп чыгышы мүмкүн. Жалпысынан алганда, масштабдагы профессионалдык пикир келишпестиктердин чордону чечүүгө мүмкүн болбогон нерселер болуп саналат жана эки тарап келишпестикте туруктуу бойдон калууда.

Үчүнчүдөн, бул көрсөтмөлөр ишке кириши үчүн, адатта, олуттуу бир нерсе болушу керек.

Учууну тандап алуу же учпоо - бул, эгерде учуу бороон-чапкындан улам коркунучта болсо же учак мындай сапарга толук даяр эмес деп эсептелсе, өлүм же өлүм чечими болуп саналат. Бул олуттуу бизнес. Биз дагы эле көрсөтмөлөрдү азыраак таасирдүү профессионалдык пикир келишпестиктерге колдоно алабыз, бирок бул баалуулуктан көбүрөөк убара болушу мүмкүн.

Макул, биздин ойлорубуз төмөнкүлөр:

  • Пикир келишпестик профессионалдуу эмес нерседе эмес, негизинен профессионалдык жактан багытталган
  • Пикир келишпестик туруктуу мүнөзгө ээ жана жөн гана убактылуу же башка жол менен чечилбестен
  • Пикир келишпестик олуттуу кесепеттерге алып келет жана адатта таасирдүү натыйжага алып келет
  • Партиялар араздашып, алар чечилгистей сезилет

Эми мындай профессионалдык пикир келишпестиктер менен күрөшүүгө байланыштуу менин сунуштаган көрсөтмөлөрүмдү же ыкмаларымды кененирээк карап чыгалы.

AI жана бириккен адам баарын чечет (тынчтык менен же жокпу)

Мен тизмени AI жана чөйрөдөгү адам өз ара профессионалдык пикир келишпестиктерди чече аларынын түз мүмкүнчүлүгү менен баштайм. Бул, балким, эки адамдын, учкуч менен экинчи учкучтун мисалы ушундай жагдайды көрсөтүп турат окшойт. Алар кандайдыр бир жол менен терминалга кайтып келип, өз жолдоруна барууну чечишти. Бул AI системасы жана адам жалпысынан эки тарапка тең канааттандырарлык болгон чечүүчү ыкманы аныктай алышы мүмкүн жана маселе ушундайча канааттандырарлык жыйынтыкталды.

Демейки боюнча, адам AIдан үстөмдүк кылат

AI орнотуп жатканда, профессионалдык пикир келишпестиктер келип чыкканда, циклдеги адам ар дайым үстөмдүк кылат деген эрежени программалашыбыз мүмкүн. Бул ачык коддолгон демейки болот. Биз ошондой эле кандайдыр бир түрдө жокко чыгарууга уруксат беришибиз мүмкүн, бирок туруктуу эреже адам үстөмдүк кылат.

Демейки боюнча, AI адамга караганда үстөмдүк кылат

AI орнотуп жатканда, профессионалдык пикир келишпестиктер келип чыкканда, AI ар дайым циклдеги адамдан үстөмдүк кылат деген эрежени программалашыбыз мүмкүн. Бул ачык коддолгон демейки. Биз ошондой эле кандайдыр бир түрдө жокко чыгарууга уруксат беришибиз мүмкүн, бирок туруктуу эреже AI үстөмдүк кылат.

Демейки боюнча, кээ бир башка алдын ала белгиленген резолюция үстөмдүк кылат

AI орнотуп жатканда, биз адам менен профессионалдык пикир келишпестик пайда болгондо, башка алдын ала белгиленген резолюция үстөмдүк кыла турган эрежени программалашыбыз мүмкүн. Укуктагы адам демейки боюнча үстөмдүк кылбайт. AI демейки боюнча үстөмдүк кылбайт. Дагы бир алдын ала аныкталган резолюция бар. Мисалы, балким, эки тараптын кайсынысы туура жолду тандай турганын чечүүгө колдонула турган тыйын ыргытуу бар. Бул, албетте, өзүм билемдиктей көрүнөт; Ошентип, дагы бир мисал мамилеси, адистештирилген эреже эки тараптын киргизген маалыматтарынын негизинде маанини эсептеп, тайбрейкер катары жыйынтыкка келет.

Үчүнчү жактын адамы луп жатат жана алардын көрсөткүчү тараптарга караганда үстөмдүк кылат

Профессионалдык пикир келишпестиктер боюнча, эреже катары, пикир келишпестикти чечүү жөнүндө чечим кабыл алуу үчүн адам болгон үчүнчү тарап чакырылышы мүмкүн. AI үчүнчү тарап адам кандай чечим чыгарбасын, ошого жараша программаланган. Адамдын айлампасында турган адамга, эгерде мындай кырдаал жаралса, алар дагы үчүнчү тарапка баш ийүүлөрү керек деп алдын ала көрсөтмө берилген. Башка жагынан алганда, сиз, балким, ал адам үчүнчү тараптын чечими циклдеги адамдын позасына макул болбосо, ага кошулууга нааразы болушу мүмкүн.

Үчүнчү тараптын AI илештирилген жана анын көрсөткүчү тараптардын үстүнөн басымдуулук кылат

Кесиптик пикир келишпестиктер болгондо, эреже катары, башка AI системасы болгон үчүнчү тарап келишпестикти чечүү жөнүндө чечим кабыл алуу үчүн чакырылышы мүмкүн. Түпнуска AI үчүнчү тараптын AI кандай чечим чыгарбасын, кийинкиге калтырууга программаланган. Адамдын айлампасында турган адамга, эгерде мындай кырдаал жаралса, алар да үчүнчү тараптын AIга баш ийиши керек деп алдын ала көрсөтмө берилген. Башка жагынан алганда, эгер чечим циклдеги адамдын позасы менен макул болбосо, үчүнчү тарап AI чечкен нерсеге кошулуудан кыжаалат болушу мүмкүн деп божомолдоого болот.

Үчүнчү жактын адамы бар адамды алмаштырат, баары жаңыдан башталат

Профессионалдык пикир келишпестиктен кийин, циклдеги адам адам болуп саналган үчүнчү тарап менен алмаштырылат жана ал мындан ары циклдеги адам болуп калат. Тапшырма үчүн баштапкы адам болгон адам мындан ары тапшырманын бир бөлүгү катары каралбайт. Бул ачык аспект болуп саналат, башкача айтканда, азыр алмаштырылган адам-укурук менен, бирок, биз, албетте, алардын мындан ары жумуш тапшырмасында эч кандай туруктуу ролу жок деп айтып жатабыз.

Үчүнчү тараптын AI бар AI алмаштырат, баары кайра башталат

Кесиптик пикир келишпестиктен кийин, AI үчүнчү тараптын AI менен алмаштырылат жана ал мындан ары жумуш тапшырмасы үчүн колдонулган AI болуп калат. Башында тапшырма үчүн колдонулган AI мындан ары тапшырманын бир бөлүгү катары каралбайт. Бул азыр алмаштырылган AI менен башкача эмне болору ачык аспект, бирок биз AI мындан ары жумуш тапшырмасында туруктуу роль ойнобойт деп айтып жатабыз.

Үчүнчү тараптын адамы бар AIны алмаштырат, баары жаңыдан башталат (азыр адамдан адамга)

Кесиптик пикир келишпестиктер болгондо, AI үчүнчү тараптын адамы менен алмаштырылат, ал үчүн ал адам азыр жумуш тапшырмасы үчүн колдонула турган биргелешкен команда болуп саналат. Башында тапшырма үчүн колдонулган AI мындан ары тапшырманын бир бөлүгү катары каралбайт. Бул азыр алмаштырылган AI менен башкача эмне болору ачык аспект, бирок биз AI мындан ары жумуш тапшырмасында туруктуу роль ойнобойт деп айтып жатабыз. Кыскасы, бул азыр эки тараптын адамдан адамга аткарылуучу милдети болуп калды.

Үчүнчү тараптын AI учурдагы адамды алмаштырат, баары жаңыдан башталат (азыр AI-AI)

Кесиптик пикир келишпестиктен кийин, циклдеги адам үчүнчү тараптын AI менен алмаштырылат жана бул AI мындан ары мурунку циклдеги адам үчүн толуктоо болуп калат. Тапшырма үчүн баштапкы адам болгон адам мындан ары тапшырманын бир бөлүгү катары каралбайт. Бул ачык аспект болуп саналат, башкача айтканда, азыр алмаштырылган адам-укурук менен, бирок, биз, албетте, алардын мындан ары иш тапшырмасында эч кандай туруктуу ролу жок деп айтып жатабыз. Кыскача айтканда, бул азыр тапшырманы аткаруу үчүн эки тараптуу AI-то-AI болуп калат.

башка

Башка вариациялар профессионалдык пикир келишпестиктерди жеңүү үчүн иштелип чыгышы мүмкүн, бирок биз бул жерде негизги таштардын айрымдарын карап чыктык.

Бул ыкмалардын кайсынысы белгилүү бир кырдаалга туура келерин кантип чечебиз?

Мындай тандоо жасоодо ар кандай маселелер бар. Технологиялык ойлор бар. Бизнес ойлору бар. Юридикалык жана этикалык пикирлер бар.

Кандайдыр бир деңгээлде, ошондуктан AI этикасы жана этикалык AI абдан маанилүү тема болуп саналат. AI этикасынын осуяттары бизди сергек болууга түрткү берет. AI технологдору кээде технология менен, айрыкча жогорку технологияны оптималдаштыруу менен алек болушу мүмкүн. Алар сөзсүз түрдө чоң социалдык кесепеттерди эске алышпайт. AI этикасынын ой жүгүртүүсүнө ээ болуу жана аны AIны өнүктүрүү жана жайылтуу үчүн интегралдык түрдө жасоо ылайыктуу AI өндүрүү үчүн абдан маанилүү, анын ичинде AI этикасынын фирмалар тарабынан кабыл алынышын баалоо (балким таң калыштуу же ирониялык).

Жалпысынан AI этикасынын осуяттарын колдонуудан тышкары, бизде AIнын ар кандай колдонулушун жөнгө салуучу мыйзамдар болушу керекпи деген тиешелүү суроо бар. Жаңы мыйзамдар федералдык, штаттык жана жергиликтүү деңгээлдерде AI кантип иштелип чыгышы керектигинин диапазону жана мүнөзүнө тиешелүү. Мындай мыйзамдарды иштеп чыгуу жана кабыл алуу аракети акырындык менен жүрүп жатат. AI этикасы, жок эле дегенде, токтоолук катары кызмат кылат жана кандайдыр бир деңгээлде түздөн-түз ошол жаңы мыйзамдарга киргизилет.

Эсиңизде болсун, кээ бирөөлөр бизге AI камтыган жаңы мыйзамдардын кереги жок жана азыркы мыйзамдарыбыз жетиштүү деп ырасташат. Чынында, алар алдын ала эскертишет, эгерде биз бул AI мыйзамдарынын айрымдарын кабыл алсак, AIдагы жетишкендиктерди кыскартуу менен биз алтын казды өлтүрөбүз, бул чоң социалдык артыкчылыктарды берет.

Бул олуттуу талкуунун дал ушул маалында, сиз бул теманы чагылдыра турган айрым иллюстративдик мисалдарды каалайсыз деп ишенем. Менин жүрөгүмө жакын мисалдардын өзгөчө жана албетте популярдуу топтому бар. Көрдүңүзбү, менин AI боюнча эксперт катары, анын ичинде этикалык жана укуктук кесепеттерге байланыштуу, менден теманын бир аз теориялык табиятын оңой түшүнүү үчүн AI этикасынын дилеммаларын көрсөткөн реалдуу мисалдарды аныктоону суранышат. Бул этикалык AI туңгуюгун ачык көрсөткөн эң таасирдүү аймактардын бири AIга негизделген чыныгы өзүн-өзү башкаруучу унаалардын пайда болушу. Бул тема боюнча кеңири талкуулоо үчүн ыңгайлуу колдонуу учуру же үлгү катары кызмат кылат.

Бул жерде ойлонууга арзырлык бир суроо бар: AI негизделген чыныгы өзүн-өзү башкара турган унаалардын пайда болушу AI жана адам ортосундагы пикир келишпестиктердин чечимдери жөнүндө бир нерсени жарыктандыратбы, эгер ошондой болсо, бул эмнени көрсөтөт?

Мага суроону ачууга бир азга уруксат бериңиз.

Биринчиден, чыныгы өзүн-өзү башкаруучу унаага катышкан адам айдоочу жок экенин белгилей кетүү керек. Чыныгы өзүн-өзү айдай турган унаалар AI айдоо системасы аркылуу айдалат. Рулда айдоочунун кереги жок, унааны адам башкара турган шарт жок. Автономдуу унаалар (АВ) жана өзгөчө өзүн өзү башкарган унаалар тууралуу кеңири жана үзгүлтүксүз чагылдыруу үчүн, караңыз бул жерде шилтеме.

Мен чыныгы өзүн-өзү башкаруучу унааларга кайрылганда эмнени билдирерин дагы тактагым келет.

Өзүн өзү айдай турган автоунаалардын деңгээлин түшүнүү

Тактап айтканда, чыныгы өзүн-өзү башкарган унаалар AI унааны толугу менен өз алдынча айдаган унаалар болуп саналат жана айдоо тапшырмасы учурунда эч кандай адам жардамы жок.

Бул айдоочусу жок унаалар 4-деңгээл жана 5-деңгээл деп эсептелет (менин түшүндүрмөнү караңыз бул шилтемени бул жерде), ал эми адамдын айдоочусу айдоо аракетин биргелешип бөлүшүүнү талап кылган унаа адатта 2 же 3-деңгээлде каралат. Айдоо милдетин биргелешип аткарган унаалар жарым-жартылай автономдуу деп сыпатталат жана адатта ар кандай унааларды камтыйт. ADAS (Advanced Driver-Assistance Systems) деп аталган автоматташтырылган кошумчалар.

5-деңгээлде чыныгы өзүн-өзү башкара турган унаа азырынча жок жана биз буга жетүү мүмкүнбү же жокпу, же ал жакка жетүү үчүн канча убакыт талап кылынарын азырынча билбейбиз.

Ошол эле учурда, 4-деңгээлдеги аракеттер акырындык менен өтө тар жана тандалма коомдук жол сыноолорунан өтүү менен бир аз тартууга аракет кылууда, бирок бул сыноого уруксат берилиши керекпи же жокпу деген талаштар бар (биз бардыгыбыз экспериментте өмүр же өлүү гвинея чочкобузбуз) Биздин трассаларыбызда жана өтүүчү жолдорубузда болуп жаткандыктан, кээ бирлери айтышат, менин камтууумду караңыз бул шилтемени бул жерде).

Жарым автономдуу автоунаалар адамдык драйверди талап кылгандыктан, ал унаалардын түрүн кабыл алуу кадимки унааларды айдоодон айырмаланбайт, андыктан бул темада алар жөнүндө бир аз жаңылык бар (бирок, сиз көргөндөй) бир аздан кийин, кийинки пункттар негизинен колдонулат).

Жарым автономдуу автоунаалар үчүн, акыркы кездерде пайда болгон тынчсыздандыруучу аспект жөнүндө, айрыкча, 2-деңгээлдеги же 3-деңгээлдеги унаанын дөңгөлөгүндө уктап жаткан видеолорун жарыялап жаткан адамдардын айдоочуларына карабастан, коомчулукка алдын-ала эскертүү керек. , айдоочу жарым автономдуу унааны айдап баратып, алардын көңүлүн айдоо милдетинен алыстатат ​​деп ишендирүүдөн оолак болушубуз керек.

Автоматташтыруу 2 же 3 деңгээлге түшүп кетишине карабастан, автоунаа айдоо аракеттери үчүн сиз жооптуу тарапсыз.

Өзүн башкарган унаалар жана AI-Versus-Адамдын пикир келишпестиги

4 жана 5-деңгээлдеги чыныгы өзүн-өзү айдаган унаалар үчүн айдоочулук милдетке тартылган адам болбойт.

Баардык жүргүнчүлөр жүргүнчүлөр болушат.

AI айдап бара жатат.

Тез арада талкуулоонун бир аспектиси бүгүнкү КТ айдоо тутумуна кирген КТнын сезимтал эместигине алып келет. Башка сөз менен айтканда, жасалма интеллект компьютердик программалоонун жана алгоритмдердин жамааты болуп саналат жана албетте, адамдар ойлогондой ой жүгүртө албайт.

Эмне үчүн бул AIга кошумча басым сезимтал эмес?

Анткени мен КТ айдоо системасынын ролу жөнүндө сөз болгондо, мен КТга адамдык сапаттарды бербейм деп баса белгилегим келет. Бүгүнкү күндө КТны антропоморфизациялоонун туруктуу жана кооптуу тенденциясы бар экендигин унутпаңыз. Түпкүлүгүндө, адамдар бүгүнкүдөй КТнын жок экендигинин талашсыз жана талашсыз фактысына карабастан, бүгүнкү күндө КТга адамдыкындай сезимдерди беришет.

Ушул тактоонун жардамы менен, сиз AI айдоо тутуму кандайдыр бир жол менен айдоонун жактары жөнүндө "билбейт" деп элестете аласыз. Айдоо жана ага байланыштуу бардык нерселер өзүн өзү башкаруучу машинанын аппараттык жана программалык камсыздоосунун бир бөлүгү катары программаланган болушу керек.

Келгиле, ушул темада ойноого келген көптөгөн аспектилерге сүңгүп кирели.

Биринчиден, AI өзүн-өзү айдай турган унаалардын бардыгы бирдей эмес экенин түшүнүү керек. Ар бир унаа өндүрүүчү жана өзүн-өзү айдай турган технологиялык фирма өзүн өзү айдай турган унааларды ойлоп табууга өзүнүн мамилесин көрүп жатат. Ошентип, AI айдоо тутумдары эмне кылаары же кылбашы жөнүндө кеңири билдирүүлөрдү жасоо кыйын.

Мындан тышкары, качан AI айдоо системасы кандайдыр бир нерсени жасабайт деп айткандан кийин, муну кийинчерээк компьютерди ошол нерсени жасоого программалаган программисттер басып кетиши мүмкүн. Кадам сайын AI айдоо системалары акырындык менен өркүндөтүлүп жана кеңейтилип жатат. Бүгүнкү күндө бар болгон чектөө системанын келечектеги итерациясында же версиясында жок болушу мүмкүн.

Бул мен айтып жаткан нерсенин негизинде жетиштүү эскертүүлөрдү берет деп үмүттөнөм.

Толугу менен автономдуу унаалар үчүн адам менен AIнын ортосунда профессионалдык пикир келишпестиктер пайда болушу мүмкүн эмес, анткени баштоо үчүн эч кандай адам жок болушу мүмкүн. Бүгүнкү күндөгү өзүн-өзү башкара турган унаа жасоочулардын көбүнүн умтулуусу – адам айдоочусун айдоо милдетинен толугу менен алып салуу. Унаада адам жете ала турган башкаруу элементтери да болбойт. Мындай учурда, адам айдоочу, эгерде бар болсо, айдоо милдетине катыша албайт, анткени аларда айдоо башкаруу элементтери жок.

Кээ бир толугу менен автономдуу унаалар үчүн, кээ бир конструкциялар дагы эле адамдын айлампасында болушуна мүмкүндүк берет, бирок адам жеткиликтүү болбошу же айдоо процессине таптакыр катышышы керек эмес. Демек, эгер адам кааласа, адам айдоого катыша алат. Эч кандай учурда AI адамга айдоо тапшырмаларын аткарууда көз каранды эмес.

Жарым автономдуу унааларда адам айдоочусу менен AI ортосунда кол кармашуу бар. Адамдын айдоочусу айдоо башкаруусун толугу менен колго алып, AIнын айдоодо катышуусун токтото алат. Эгерде адам айдоочу AIны айдоо ролуна калыбына келтирүүнү кааласа, алар муну жасай алышат, бирок бул кээде адамды айдоо башкаруусунан баш тартууга мажбурлайт.

Жарым автономдуу операциянын дагы бир түрү адам айдоочусу менен AI бир командада иштешин талап кылат. AI айдап баратат, ал эми адам айдайт. Алар чогуу айдап баратышат. AI адамга ылайыктуу болушу мүмкүн. Адам AIга баш ийиши мүмкүн.

Кээ бир учурда, AI айдоо системасы жана циклдеги адам айдоочусу айдоочулук милдет боюнча "кесиптик пикир келишпестик" учуруна жетиши мүмкүн.

Профессионалдык пикир келишпестиктерди чечүүнүн жогоруда айтылган кээ бир эрежелерин ишке ашыруу канчалык кыйынга турушу мүмкүн экенин көрсөтүү үчүн, үчүнчү тарапты ишке тартуу жана чечилбеген маселени чечүү үчүн чечимди сунуштоо мисалын карап көрөлү.

Автоунаа өндүрүүчүсү же өзүн-өзү айдай турган технологиялык фирма алыскы адам операторлоруна өз паркындагы унааларды башкарууну башкаруу мүмкүнчүлүгүн түздү дейли. Оператор алыскы кеңседе же башка жерде отурат. Компьютер системасы аркылуу, алар өзүн-өзү айдаган унаага жүктөлгөн камералар жана башка сенсордук түзүлүштөр аркылуу айдоо көрүнүшүн көрө алышат. Алар үчүн бул дээрлик онлайн видео оюнун ойноого окшош, бирок, албетте, чыныгы турмуштук жагдайлар коркунучтуу кесепеттерге алып келиши мүмкүн.

AI системасы жана унаанын ичиндеги адам айдоочу жарым-жартылай автономдуу унааны узун трассада айдап баратат. Күтүлбөгөн жерден AI арыкка бургусу келет. Адамдын айдоочусу муну каалабайт. Экөө айдоо башкаруусун талашып жатышат.

Бул кантип чечилет?

Адам дайыма жеңет деп, балким, алдын ала белгилесек болмок. Биз муну кылбайм деп чечтик деп ойлойлу.

Биз AI ар дайым жеңерин алдын ала белгилесек болмок. Биз муну кылбай койдук деп ойлойлу. Жалпысынан алганда, биз бул эрежелердин бирин да кабыл алган жокпуз, бирок биз үчүнчү тарапка кийлигишип, кандайдыр бир олуттуу мүнөздөгү профессионалдык пикир келишпестикти чечүүгө уруксат берүү чечимин кабыл алган жокпуз.

Бул учурда, AI жана рулдагы адам айдоочу башкарууну башкаруу үчүн күрөшүп жатышат. Бул алыскы адам операторуна (биздин үчүнчү тараптын адамына) жеткирилди дейли. Алыскы адам оператору эмне болуп жатканын карап чыгып, AI эмне кылууга аракет кылганын токтотуп, арыктан оолак болууну чечет. Ошол эле учурда, алыскы адам оператору келе жаткан трафикти башкарып жатат дейли, муну AI да, машиненин ичиндеги адам айдоочусу да каалабагандыр.

Кеп, бул эрежени ишке ашыруунун жолу, үчүнчү тараптын адам оператору AIны да, циклдеги адамды да толугу менен жокко чыгара алат. Бул жакшы натыйжа береби же жокпу, анык эмес.

Мен бул мисалды ушул маселелер боюнча кээ бир кошумча түшүнүктөрдү баса белгилөө үчүн колдоном.

Бул эрежелердин бири орнотулгандыктан, чечилген пикир келишпестиктин натыйжасы сөзсүз түрдө жакшы натыйжа болот деп уятсыз божомол кыла албайсыз. Болбошу мүмкүн. Тандап ала турган эч кандай темирдей, дайыма туура эреже жок.

Андан кийин, бул эрежелердин айрымдары ишке ашпай калышы мүмкүн.

AI жана адам айдоочусу айдоо башкаруу элементтерин талашып жатканда, алыскы адам операторунун кийлигишүүсүнүн мисалын карап көрөлү. Алыскы адам операторуна эмне болуп жатканын түшүнүү үчүн көп секунд талап кылынышы мүмкүн. Ага чейин унаа арыкка түшүп калган же башка жагымсыз натыйжаларга алып келиши мүмкүн. Ошондой эле, унаанын жайгашкан жери эч кандай тармактык электрондук туташуусу жок жерде болуу сыяктуу алыскы кирүү мүмкүнчүлүгүн жокко чыгарат дейли. Же, балким, унаанын тармактык өзгөчөлүктөрү ошол учурда иштебей жатат.

Көрүнүп тургандай, эреже кагазда жөнөкөй көрүнүшү мүмкүн, бирок эрежени иш жүзүндө колдонуу өтө татаал же өтө кокустук мамиле болушу мүмкүн. Автономдуу унаалардын жана өзүн өзү башкарган унаалардын алыскы оператору боюнча менин сын көз карашымды караңыз бул жерде шилтеме.

Мен алдыдагы талдоодо тереңирээк камтый турган дагы бир теманы кыскача ачып бергим келет.

Автономдуу унаалар жана жарым-жартылай автономдуу өзүн-өзү башкаруучу унаалар жөнүндө көтөрүлүп жаткан тынчсыздануулардын бири - бул Ысык картошка синдрому.

Мына келишим.

AI айдоо системасы жана адам чогуу айдайт. Оор абал пайда болот. AI айдоо тапшырмасынан баш тартып, коркунучтуу учур келгенде баарын адамга тапшырууга программаланган. Бул, балким, "акылдуу" көрүнөт, анткени биз кандайдыр бир профессионалдык пикир келишпестиктерде демейки "жеңүүчү" адам жөнүндөгү эрежени колдонуп жаткандайбыз.

Бирок AI окууну таштап коюу дагы кара ниет же тымызын максаттар үчүн болушу мүмкүн. Автоунаа өндүрүүчүсү же өзүн-өзү айдаган технологиялык фирма алардын AIнын автокырсык болгондо "күнөөлүү тарап" катары каралышын каалабашы мүмкүн. Ушундай болуп калбашы үчүн, AI башкарууну күтүүсүздөн адамга өткөрүп берет. Voila, адам азыр унаа үчүн толугу менен жооп берет.

Эң негизгиси, AI муну кыйроого чейин бир секунд калды дейли.

Адамдын кыйроону болтурбоо үчүн чындап эле бош убактысы болобу?

Мүмкүн эмес.

AI бир нече миллисекунд же наносекунддар менен өткөрүп берет дейли. Адамдын кыйроону болтурбоо үчүн эч нерсе кылуу мүмкүнчүлүгү жок деп айта алам.

Автоунаа жасоочу же өзүн-өзү башкаруучу унаа фирмасынын көз карашы боюнча, алар мындай автокырсык болгондо колдору таза болгондой иш-аракет кылууга аракет кылышы мүмкүн. Унааны адам башкарып бара жаткан. AI унааны айдаган эмес. Жалгыз "логикалык" тыянак адам күнөөлүү болушу керек жана AI толугу менен күнөөсүз болушу керек.

Бул идиш.

Мен бул тууралуу келерки рубрикада кененирээк талкуулайм.

жыйынтыктоо

Кесиптик пикир келишпестиктер жаралат.

Тапшырманы чогуу аткарган эки тарап бар жана эч качан профессионалдык пикир келишпестиктер жаралбай турган татаал тапшырманы элестетүү кыйын. Бул фантазия же, жок эле дегенде, чоң сейрек көрүнүш сыяктуу көрүнөт.

Бүгүнкү күндө бизде профессионалдык пикир келишпестиктердин көп жана көп учурлары бар, алар үчүн күн сайын тынчтык жана акыл-эстүүлүк менен тигил же бул жол менен чечилет. Чындыгында, биз көбүнчө кесипкөй пикир келишпестиктерди жаратып, бети-башын ачып берүү үчүн атайын кырдаалдарды түзөбүз. Бул кээде эки баш бирден жакшыраак деген атактуу акылмандыкты көрсөтөт деп талаша аласыз.

AI кеңири таралган сайын, бизде AI-адамга же адамдан AI-ге эки тараптуу тапшырмаларды аткаруучулар көп болот жана алар дагы болот. кесиптик пикир келишпестиктер ошол болот. Жалкоолук - бул ар дайым адамга баш ийүү. Бул эң ылайыктуу ыкма болбошу мүмкүн. AI жакшы тандоо болушу мүмкүн. Же болбосо, жогоруда айтылган эрежелердин бири дагы жакшыраак мамиле болушу мүмкүн.

Биз баарыбыз макул болбошубуз керек деген акылман сызык бар, бирок кеп зымга келгенде, кээде пикир келишпестикти чечкиндүү түрдө чечиш керек, антпесе, маселе эсепсиз балээге алып келет. Биз жөн эле пикир келишпестиктин жүзүм сабагында солгундап кетишине жол бере албайбыз. Убакыт маанилүү болушу мүмкүн жана өмүрлөр коркунучта болушу мүмкүн.

Сөзсүз эле макул болбосо да, пикир келишпестиктерди чечүү үчүн кээ бир акылдуу каражаттар үчүн так талап бар, анын ичинде AI жана циклдеги адам көз-көз же байт-байт көрбөгөндө.

Сиз бул толугу менен макулдашылган талаш-тартыш менен макул болбойт деп ишенем.

Source: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- учкуч менен экинчи учкуч учуп кетердин алдында макул эмес жана күтүлбөгөн жерден таксиге кайра терминалга жана өзүнчө жолдорун тандап алган/