AI этикасы AI негизиндеги автономдуу курал системаларынын бир-эки соккусу жана шайтандык менен куралданган AI башкарган автономдуу системаларды эксплуатациялоо менен күрөшүү

Ошол укмуштуудай бийлеген төрт буттуу роботтор.

Сиз сүйүктүү жана ит сыяктуу көрүнгөн жолдор менен бийлеген жана бийлеген төрт буттуу робот системаларынын вирустук видеолорун көргөнүңүзгө ишенем. Биз AI башкарган роботтордун тоскоолдуктарды ашып, коробкалардын үстүнө орношкондо же шкафтардын чокуларына кооптуу түрдө орнотулгандан кийин назик таянычка ээ болуп жаткандай көрүнгөндөн рахаттанып жаткандайбыз. Алардын адам башкаруучулары кээде төрт буттуу роботторду түртүп же түртүп жиберишет, бул өтө адилетсиздей сезилет жана ошол устат гуманоиддердин кыжырданган мамилесине ачууңузду жаратат.

Сиз такыр башка калибрдеги вирустук эмес видеолорду көрдүңүз беле деп ойлоп жатам.

Өзүңдү даярда.

Тигил же бул түрдөгү курал-жарактар ​​менен жабдылган төрт буттуу роботтордун окшош түрүн көрсөткөн видеолор кеңири жарыяланган.

Мисалы, автомат же ушуга окшош ок атуучу курал башка жакка тааныш бийлеген роботтун үстүнө орнотулган. Төрт буттуу робот менен куралдын атуу механизминин ортосунда электрондук байланыш бар. Азыр куралданган компьютердик басуу куралы бута бутасы коюлган жерге карай кадам шилтеп баратканы көрсөтүлөт жана пулемет бутага катуу атылып жатат. Кийинчерээк жарым-жартылай талкаланган бутаны кадап алгандан кийин, төрт буттуу робот жакын жердеги тоскоолдуктарды айланып бийлейт жана башка жаңы буталарда ошол эле аракетти кайра-кайра кайталоо үчүн тизилип турат.

Сиз күткөндөй эмес. Бул, албетте, ошол эркелеткен төрт буттуу роботтордун өз ишин кылып жатканын көрүүдөн жеңилдикти жана салыштырмалуу кубанычты алат. Көрүнгөн катаал чындыкка кош келиңиз бейкүнөө автономдуу системалар кескин куралданууга айландырылууда же айландырылууда. Көп күч-аракет жумшоо менен, сиз түн ичинде толук куралды камтыган "куралданбаган" автономдуу тутумга ээ боло аласыз.

Бул кээ бир шарттарда дээрлик оңой-тоңой.

Мен бул кызуу талаштуу теманы талкуулап, пайда болгон AI этикасынын олуттуу көйгөйлөрүн чагылдырайын деп жатам. Биз автономдуу системалар, AI, автономдуу унаалар, куралдандыруу жана ага байланыштуу бир катар этикалык AI согуштук маселелерине саякатка чыгабыз. Менин AI этикасы жана этикалык AI жөнүндө үзгүлтүксүз жана кеңири чагылдыруу үчүн караңыз бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

Келгиле, кээ бир негизги таштардан баштайлы.

Талкуу үчүн, курал менен куралданган автономдуу системаларды категорияга бөлүүнүн эки негизги жолу бар экенин кабыл алыңыз:

1) Автономдуу курал системалары (дизайн боюнча)

2) Куралданган автономдуу системалар (андан кийин)

Эки категориянын ортосунда маанилүү айырма бар.

Биринчиден, биз аныктайбыз автономдуу курал системасы максаттуу түрдө курал болууга багытталган компьютерлештирилген жаратууну негиздөөдөн башталышы. Иштеп чыгуучулар куралды ойлоп табууну каалашкан. Алардын ачык-айкын изденуусу — курал чыгаруу. Алар куралды автономдуу системалардын эң акыркы технологиялары менен айкалыштыра аларын билишкен. Бул автономдуу кыймылга жана автономдуу иш-аракеттерге жетүүчү жогорку технологиянын толкунуна минген курал (мен жакын арада кененирээк айтып берем).

Тескерисинче, экинчи учурда, биз курал-жаракка карата эч кандай өзгөчө ыктабаган автономдуу системалар маселесин карайбыз. Бул башка максаттар үчүн иштелип жаткан автономдуу системалар. Баары үчүн мобилдүүлүктү камсыз кылуу жана адам башкарган жана адам башкарган унаалардын айынан пайда болгон миңдеген өлүмдөрдү азайтуу үчүн колдонула турган өзүн-өзү башкарган унаа сыяктуу автономдуу унааны элестетиңиз (менин терең камтууну караңыз. саат бул жерде шилтеме). Адамдарды рулдан түшүрүп, анын ордуна АИди айдоочунун отургучуна отургузуу боюнча коомдогу күч-аракеттерди күчөткөн курал эмес окшойт.

Бирок адамдар кааласа, бул зыянсыз автономдуу системалар куралдандырылышы мүмкүн.

Мен анда бул экинчи категорияга кайрылам куралданган автономиялуу системалар. Автономдуу система башында куралсыз максатта иштелип чыккан. Ошого карабастан, кыялданган альтруисттик үмүттү кимдир бирөө бул айла-амалды куралдандырса болот деген ойго жетелейт. Күтүлбөгөн жерден, эркедей көрүнгөн автономдуу система куралдын кандайдыр бир мүмкүнчүлүктөрүн белгилөө менен өлүмгө дуушар болгон куралга айланды (мисалы, жогоруда айтылган төрт буттуу итке окшогон роботтор, алардын өзгөчөлүктөрүнө автомат же окшош ок атуучу курал кошулган). .

Тилекке каршы, эки категория бир жерде бир аз бүтөт, атап айтканда, курал-жарак үчүн автономдуу системаларды өлүмгө алып келүүчү негизде колдонуу мүмкүнчүлүгүн камсыз кылуу.

Бул акыркы чекитке жетүү процесси башкача болушу мүмкүн.

Курал катары жабдылган түз куралданган автономдуу системалар үчүн курал-жарак аспектилери, адатта, алдыңкы жана ортолук болуп саналат. Автономдуу системанын кырлары каралып жаткан кандай гана курал болбосун бурчка оролгон деп айтууга болот. Иштеп чыгуучулардын ой жүгүртүү процесси бир аз курал автономдуу системалардын пайда болушун кантип пайдалана алат деген линияга туура келет.

Башка көз-караш, адатта, мындай ой жүгүртүү эмес. Иштеп чыгуучулар, балким, адамзаттын жыргалчылыгы үчүн заманбап автономдуу системаны алууну каалашат. Бул иштеп чыгуучулар автономдуу системаны түзүүгө чын жүрөктөн жана жан-дүйнөсүн жумшашкан. Бул алардын ойлоп табуусунун өзөгү. Алардын укмуштуудай пайдалуу түзүлүшүн кимдир бирөө басып алат же талкалайт деп ойлобошу мүмкүн. Алар автономдуу системанын калыптанышы жана өндүрүлүшү менен байланышкан коомдук пайдаларга сүйүнүшөт.

Кайсы бир учурда, үчүнчү тараптар автономдуу системаны кайра куралдандырууга болорун түшүнүштү дейли. Балким, алар иштеп чыгуучуларды алдап, бийик максаттар үчүн автономдуу системага ээ болушат. Жабык эшиктердин артында бул кара ниеттер автономдуу системага куралдануу мүмкүнчүлүгүн тымызын түрдө кошууну чечишет. Voila, күнөөсүздүк ачык куралга айланган.

Иштер мындай жол менен жүрүшү керек эмес.

Балким, иштеп чыгуучуларга бейкүнөө автономдуу системаны иштеп чыгууда деп айтышкандыр, бирок күч-аракетти каржылаган же башкарган адамдар башка максаттарды көздөгөн. Мүмкүн, автономдуу системанын аракети чындап эле бейкүнөө башталган, бирок кийинчерээк векселдер төлөнүшү керек болгондо, жетекчилик терс себептерден улам автономдуу системаларды каалаган каржылоо булагы менен келишим түздү. Дагы бир мүмкүнчүлүк, иштеп чыгуучулар кийинчерээк колдонуу куралдандыруу үчүн болушу мүмкүн экенин билишкен, бирок алар ошол оор көпүрөнү качан же качан пайда болгондо кесип өтүшөт деп ойлошкон. Жана башкалар.

Мунун баары кантип ишке ашкандыгы боюнча көптөгөн жана көп түрдүү жолдор бар.

Сизди мен мурунку тилкелерде сүрөттөгөн кызыкдар болушу мүмкүн, бул тууралуу AI этикасы боюнча маалымдуулуктун өсүп жатканы байкалат. кош-колдонуу заманбап AI элементтери, карагыла бул жерде шилтеме. Мен сизге кыскача ылдамдыкты келтирейин.

Жакшы жагын ойлогон AI системасы, балким, кээ бир жөнөкөй өзгөртүүлөр аркылуу кээде жамандыктын босогосунда болушу мүмкүн жана тиешелүүлүгүнө жараша кош колдонуу мүнөзү катары каралат. Жакында жаңылыктарда киши өлтүргүч болушу мүмкүн болгон химиялык заттарды табуу үчүн курулган AI тутуму бар болчу, аны иштеп чыгуучулар мындай жаман ойлоп табылган химиялык заттардан алыс болушубузга же сак болушубузга ынандырууну каалашкан. Көрсө, AI бул өлтүргүч химиялык заттарды ачыкка чыгаруу үчүн бир аз оңой эле өзгөртө алат жана ошону менен жаман кишилерге өздөрүнүн туңгуюк жаман пландары үчүн кандай химиялык заттарды даярдай аларын билүүгө мүмкүндүк берет.

Автономдуу системалар ошол кош максаттуу конвертке дал келе алат.

Кандайдыр бир деңгээлде, ошондуктан AI этикасы жана этикалык AI абдан маанилүү тема болуп саналат. AI этикасынын осуяттары бизди сергек болууга түрткү берет. AI технологдору кээде технология менен, айрыкча жогорку технологияны оптималдаштыруу менен алек болушу мүмкүн. Алар сөзсүз түрдө чоң социалдык кесепеттерди эске алышпайт. AI этикасынын ой жүгүртүүсүнө ээ болуу жана аны AIны өнүктүрүү жана жайылтуу үчүн интегралдык түрдө жасоо ылайыктуу AI өндүрүү үчүн абдан маанилүү, анын ичинде AI этикасынын фирмалар тарабынан кабыл алынышын баалоо (балким таң калыштуу же ирониялык).

Жалпысынан AI этикасынын осуяттарын колдонуудан тышкары, бизде AIнын ар кандай колдонулушун жөнгө салуучу мыйзамдар болушу керекпи деген тиешелүү суроо бар. Жаңы мыйзамдар федералдык, штаттык жана жергиликтүү деңгээлдерде AI кантип иштелип чыгышы керектигинин диапазону жана мүнөзүнө тиешелүү. Мындай мыйзамдарды иштеп чыгуу жана кабыл алуу аракети акырындык менен жүрүп жатат. AI этикасы, жок эле дегенде, токтоолук катары кызмат кылат жана кандайдыр бир деңгээлде түздөн-түз ошол жаңы мыйзамдарга киргизилет.

Эсиңизде болсун, кээ бирөөлөр бизге AI камтыган жаңы мыйзамдардын кереги жок жана азыркы мыйзамдарыбыз жетиштүү деп ырасташат. Чынында, алар алдын ала эскертишет, эгерде биз бул AI мыйзамдарынын айрымдарын кабыл алсак, AIдагы жетишкендиктерди кыскартуу менен биз алтын казды жок кылабыз, бул чоң социалдык артыкчылыктарды берет.

Автономия жана курал эки осуят катары

Кээ бирлери куралданган автономдуу системалар жөнүндө алдын ала эскертүү үчүн колдонуп жаткан фраза бар. союучу роботтор.

Бул биз ойлонушубуз керек болгон кошумча аспектти алып келет.

Автономдуу курал системасы жана/же куралданган автономдуу система өлүмгө алып келген же өлтүргүч роботтун басымдуу болушу керекпи?

Кээ бирөөлөр биз чече алабыз деп талашат өлүмгө алып келбейт куралданган автономдуу системалар да. Ошентип, бул көз карашта, кыргыч роботтор же киши өлтүргүч роботтор сыяктуу сөз айкаштарын колдонуу өтө орунсуз көрүнөт. Өлүмгө алып келбеген вариант, кыязы, өлүмгө алып келбеген зыянды багындырып же ишке ашыра алат. Мындай системалар өлтүрбөйт, алар азыраак жаракат алып келет. Мүмкүнчүлүктөрдү аша чаппаңыз, биз ачык эле өлтүрүүчү машина тропу менен алек болбошубуз керек деп ырасташат.

Ошентип, биз бул болушу мүмкүн:

  • Өлтүрүүчү автономдуу курал системалары
  • Куралданган өлүмчүл автономдуу системалар
  • Өлтүрбөгөн автономдуу курал системалары
  • Куралданган өлүмгө алып келбеген автономдуу системалар

Албетте, каршы аргумент, куралданган ар кандай автономдуу система, өлүмгө алып келбеген негизде колдонуу үчүн гана болжолдонгон күндө да, өлүм чөйрөсүнө жылып кетүү мүмкүнчүлүгүнө ээ болуп көрүнөт. Автономдуу системанын ортосунда куралды колго алгандан кийин, өлүмгө алып келбегенден өлүмгө алып баруунун эки кадамы тез арада ишке ашат. Өлтүрбөгөн адам өлүмгө дуушар болгон аренага кирбей турганына темирдей кепилдик берүү үчүн сиз кыйын болосуз (бирок кээ бирлери математикалык окшоштурууга аракет кылып жатышат).

Бул автономдуу системалар жана куралдандыруу темасына кененирээк киришүүдөн мурун, балким, ачык-айкын нерсе акылдын башында көрүнбөй турган дагы бир нерсени белгилей кетүү керек.

Мына, ал бул жерде:

  • Автономдук системанын бир бөлүгү болуп саналган AI аспектиси бар
  • Бул теңдеменин куралдык жагы болгон курал-жарак жагы бар
  • AI ошондой эле курал менен өз ара байланышта болушу мүмкүн

Келгиле, аны ачалы.

Бүгүнкү күндө автономдуу системалар AIны автономдуу жактарды пайда кылуунун негизги компьютерлештирилген каражаты катары талап кылат деп ойлойбуз. Мен муну айтып жатам, анткени сиз биз AI менен байланышпаган технологияларды жана ыкмаларды автономдуу системаларды жасоо үчүн колдонушубуз мүмкүн деп талашууга аракет кылышыңыз мүмкүн, бирок бул чындык болсо да, азыраак жана азыраак көрүнөт. Негизинен, AI көбүрөөк деңгээлде автономияга мүмкүнчүлүк берет жана көпчүлүгү ошого жараша AI жогорку технологияларын колдонушат.

Макул, ошондуктан бизде AIга негизделген мүмкүнчүлүк бар, ал автономдуу системага кандайдыр бир жол менен киргизилген жана автономдуу системаны жетектейт жана көзөмөлдөйт.

Муну эреже катары колуңузда кармаңыз.

Бизде куралдын кандайдыр бир түрү болушу керек экени көрүнүп турат, антпесе эмне үчүн бул жерде автономдуу системалар темасын талкуулап жатабыз. жана куралдар. Демек, ооба, албетте, тигил же бул түрдөгү курал бар.

Мен колдонулушу мүмкүн болгон куралдын түрүн изилдебейм. Сиз жөн гана акылыңызга келген куралды алмаштыра аласыз. Ал жерде так курал болушу мүмкүн. Массалык багытталган кыйратуучу курал болушу мүмкүн. Бул ок же снаряддар менен бир нерсе болушу мүмкүн. Бул химиялык заттар же атомдук учуучу компоненттери бар нерсе болушу мүмкүн. Тизме чексиз.

Кошумча маселе AI курал менен байланыштабы же жокпу. AI жөн гана курал-жаракты айдап алышы мүмкүн. Мылтык атып жаткан төрт буттуу роботто, балким, мылтык куралды ишке киргизүүгө туташтырылган пульту бар адам тарабынан атылган болушу мүмкүн. Итке окшош робот бир көрүнүштү башкарып, андан соң триггерди алыскы адам тартат.

Башка жагынан алганда, AI козгогуч болушу мүмкүн. AI багыттоо жана маневр жасоо үчүн гана эмес, куралды дагы иштетүү үчүн иштелип чыккан болушу мүмкүн. Бул жагынан алганда, AI Адан Яга чейин баарын жасайт. Алыскы адамдан нерселердин куралдуу тарабын аткаруу үчүн эч кандай көз карандылык жок. Анын ордуна AI муну жасоого программаланган.

Куралданган автономдуу системаларды колдонуунун ушул өзгөчө жагдайында тактоо үчүн, бизде мындай мүмкүнчүлүктөр бар:

  • Автономдуу система: AI автономдуу системаны толугу менен өз алдынча башкарат
  • Автономдуу система: AI автономдуу системаны башкарат, бирок циклдеги адам да кийлигише алат
  • Курал: Алыскы адам куралды башкарат (AI иштебейт)
  • Курал: AI куралды башкарат, бирок айлампадагы адам да кийлигише алат
  • Курал: AI куралды толугу менен өз алдынча башкарат

Мен буга чейин автономдуу системаларга жана автономдуу унааларга байланыштуу адамдын айлампасына ээ болгон вариацияларды карагам. бул жерде шилтеме.

Төрт буттуу роботтордун бийлеген жана ойногон кызыктуу видеолорун көргөнүңүздө, алар, адатта, AI тарабынан башкарылуучу роботтор болушу керек (ошондой эле, бул каада-салт же терең түшүнгөндөрдүн арасында туура этикет болуп саналат. бул маселелерге). Бул сиз да туура деп ойлошу мүмкүн. Албетте, сен муну так билбейсиң. Алыскы адам оператору роботторду жетектеп жаткан болушу мүмкүн. Ошондой эле AI жетекчиликтин бир бөлүгүн аткарышы мүмкүн жана алыскы адам оператору да муну жасайт, балким, робот кыйын абалга түшүп калса жана өзүн эркин кыймылдатуу үчүн ыңгайлуу каражатты эсептей албаса, AIга жардам берет.

Бул жерде негизги нерсе, AI жана автономдуу системалар жана куралдандыруу кантип аралаша аларын көптөгөн даамдар бар. Айрымдарында автономдуу системаны иштеткен AI бар, бирок куралды иштетпейт. Адам, балким, куралды алыстан башкарат. Дагы бир бурч, курал алдын ала иштетилген болушу мүмкүн, ал эми автономдуу система иштетилген куралды жеткирет, ошондуктан AI куралды ишке киргизүүгө түздөн-түз катышкан эмес жана анын ордуна жеткирүү каражаты катары иштеген. Ал эми AI бардык кесиптердин ылакап болуп саналат жана куралды колдонууга автономдуу системанын бардык аспектилерин аткарышы мүмкүн.

Тандооңду ал.

Ошол эле учурда, бул тема боюнча талаш-тартыштарга келгенде, адамдын-укурук чоң фактор экенин билиңиз.

Кээ бир бөлүүчү сызык, эгерде AI бутага алуу жана атуу менен алектенип жатса (же курал кандай болсо да), анда бүт комплект жана кабудь жок жерге өтүп кеткен. Бул кадимки ок жана унутуучу куралдардан айырмаланып турат, алар алдын ала максаттуу адам аныктаган тандоосу бар, мисалы, патрулдук учкучсуз башкаруучу учкучсуз башкаруучу учкучсуз, ракетасы бар бутаны атууга даяр. буга чейин адам тарабынан тандалып алынган.

Кээ бирөөлөр эмне үчүн куралданган автономдуу системалар активдүү түрдө иштеп жаткан автономдуу система процессинин жүрүшүндө дайыма эле адамды камтый бербейт деп таң калышат. Ушундай катуу талап кылынган бардык куралданган автономдуу системалар автономдуу системанын иштеши үчүн же куралды (же экөөнө тең) башкаруу үчүн адам болушу керек болсо, биз жакшыраак болмокпуз. . Бул AI аралашмасында ишенимдүү жана туруктуу адамдын колун кармоо таптакыр акылдуу көрүнүшү мүмкүн.

Бул сөзсүз түрдө ишке ашпай турган себептердин узун тизмесине даяр болуңуз.

Бул кыйынчылыктарды карап көрөлү:

  • Убакыттын өтүшү менен адам өз убагында жооп бере албайт
  • Укуктагы адамда так жооп берүү үчүн жетиштүү маалымат жок болушу мүмкүн
  • Укуктагы адам керектүү учурда жеткиликсиз болушу мүмкүн
  • Укуктагы адам чечкинсиз болушу мүмкүн жана керек болгондо аракет кылбайт
  • Укуктагы адам "туура эмес" чечим кабыл алышы мүмкүн (салыштырмалуу түрдө)
  • Циклдеги адам тутумдан керектүү убакта жеткиликсиз болушу мүмкүн
  • Укуктагы адам адашып, чөгүп кетиши мүмкүн
  • Ж.б.

Сиз, албетте, адамдын алсыздыктарынын жана чектөөлөрүнүн тизмесин карап чыгууга азгырылып, андан кийин циклдеги адамды акциздеп, анын ордуна ар дайым AI колдонуунун мааниси бар деген салтанаттуу жыйынтыкка келесиз. Бул циклдеги адамды эске албаганда болушу мүмкүн же AI сиңип калган адамдын циклдеги дизайнын жокко чыгара алат. AI менен адамдын ортосундагы пикир келишпестиктер кооптуу кырдаалдарга алып келиши мүмкүн деген менин анализимди караңыз. бул жерде шилтеме.

Көбүнчө, реалдуу убакыт режиминде адамга багытталган мындай терс жактардын кемсинткен тизмеси өзүнөн-өзү калып, AI кандайдыр бир жол менен секирик болушу керек деген ойду калтырат жана циклдеги адамга караганда алда канча акылдуу тандоону чектейт. . Ошол чыккынчы тузакка түшпө. Бул жерде олуттуу соодалашуулар бар.

AIнын бул кесепеттерин карап көрөлү:

  • AI адашып кетишине себеп болгон катага туш болушу мүмкүн
  • AI ашыкча болуп, жооп бербей жабылышы мүмкүн
  • AI туура эмес жүрүм-турумга алып келген иштеп чыгуучунун мүчүлүштүктөрүн камтышы мүмкүн
  • AI имплантацияланган каардуу вирус менен бузулушу мүмкүн
  • AI реалдуу убакытта киберхакерлер тарабынан колго алынышы мүмкүн
  • AI татаалдыктардан улам күтүүсүз деп эсептелиши мүмкүн
  • AI эсептөө жолу менен "туура эмес" чечим кабыл алышы мүмкүн (салыштырмалуу түрдө)
  • Ж.б.

AIга гана көз каранды болуу менен адамдын циклин колдонуунун ортосунда келишпестиктер бар экенин көрө аласыз деп ишенем. Эгер сиз даяр чечим экөөнү тең колдонууну сунуштоого азгырылган болсоңуз, мен эки дүйнөнүн эң жакшысын ала аларыңызды баса белгилегим келет, бирок сиз эки дүйнөнүн тең эң жаманын ала аласыз. Ал ар дайым жана сөзсүз түрдө эки дүйнөнүн эң мыктысы болот деп ойлобоңуз.

Сизди AI жөнүндө жогоруда саналып өткөн терс жактардын бири таң калтырышы мүмкүн, атап айтканда AI болушу мүмкүн. алдын ала. Биз AI так логикалык жана математикалык жактан так болушу керек деп ишенүүгө көнүп калганбыз. Ошентип, сиз AI толугу менен алдын ала болоорун күтө аласыз. Биз AI эмне кыларын так билишибиз керек. Мезгил, окуянын аягы.

Бул шарды жарып жибергеним үчүн кечирим сурайм, бирок бул алдын ала айтылган миф туура эмес аталыш. Заманбап AIнин көлөмү жана татаалдыгы көбүнчө алдын ала айтууга каршы турган баткак болуп саналат. Бул бүгүнкү күндө кээ бир Machine Learning (ML) жана Deep Learning (DL) колдонулушу жөнүндө этикалык AI ызы-чууларынан көрүнүп турат. Мен бир аз көбүрөөк түшүндүрүп берем.

Ошондой эле, сиз AI коопсуздугунун эң акыркысы аркылуу текшерилүүчү жана математикалык жактан такталган AI системаларын камсыз кылууга аракет кылуу боюнча алдыдагы тенденциялар боюнча менин акыркы анализимди карап көргүңүз келет. бул жерде шилтеме.

Жол эрежеси боюнча ойлонуу

Мен максаттар жана бутага алуу түшүнүгүн айтып кеткен элем, бул өтө көп жүктөлгөн терминологиянын бир бөлүгү, ал өзгөчө көңүл бурууну талап кылат.

Биз бул жөнүндө ойлоно алабыз:

  • Максаттары адамдар
  • Адамдар эмес, тирүү жандыктар болгон буталар
  • Менчик катары чечмеленүүчү максаттар

Бизде куралданган автономдуу система бар дейли. AI автономдуу системаны жетектөө үчүн колдонулат жана курал-жарак үчүн колдонулат. AI Адан Яга чейин баарын жасайт. Адамдын айлампасында эч кандай шарт жок. Максаттуу жагынан AI максаттарды тандайт. Адамдар тарабынан белгиленген алдын ала бутага алуу жок. Анын ордуна, AI жалпысынан максаттуу адамдар бар же жок экенин аныктоо үчүн программаланган (балким, кастык аракеттерди, айрым формалардын түрлөрүн ж.б. скандоо).

Ушул убакка чейин мени мененби?

Бул сценарий куралданган автономдуу системалар боюнча эң көп нааразычылыктарды жараткан сценарий.

Белгиленген тынчсыздануу AI (жок дегенде) үч нерсени жасап жатат, ага уруксат берилбеши керек:

  • Бута катары адамдарды бутага алуу
  • Адам-да-макты колдонбостон бутага алуу
  • Потенциалдуу алдын ала айтууга болбойтly

Көңүл буруңуз, AI күтүлбөгөн жерден тынчсыздануу бар. Балким, AI кээ бир адамдарды бутага алуу үчүн программаланган болсо да, AI программалоо биз ойлогондой эмес жана AI AI "душман" деп чечмелей турган нерселерден тышкары "достуктарды" бутага алат. ” (же, балким, ордуна). Анын үстүнө, биз циклдеги адам жөнүндө жобону кошууну тандасак дагы, AIнын күтүлбөгөндүгү AI циклдеги адам менен сүйлөшүшү керек болгондо, ал аткара албайт дегенди билдириши мүмкүн. ошондой жана эч кандай адамдын кийлигишүүсүз иш-аракет кылат.

Эл аралык Кызыл Крест комитетинин (ЭККК) автономдуу курал системалары жөнүндө үч пункттан турган жалпы позицияны сунуш кылганы сизди кызыктырышы мүмкүн, анда бул кооптонуулардын түрлөрү боюнча (ЭКККнын веб-сайты боюнча):

1. «Божомолдонууга мүмкүн болбогон автономдуу курал системалары ачык түрдө каралышы керек чыккан, өзгөчө, анткени алардын ылгабай таасирлери. Бул эң жакшысы, алардын таасирин жетиштүү түрдө түшүнүүгө, алдын ала айтууга жана түшүндүрүүгө болбой тургандай түрдө иштелип чыккан же колдонулган автономдуу курал системаларына тыюу салуу менен жетишмек.

2. «Адамзатты коргоо үчүн этикалык көз караштарды эске алуу менен, ошондой эле жарандарды жана согушкерлерди коргоо үчүн эл аралык гуманитардык укуктун эрежелерин колдоо үчүн, адамдарды бутага алуу үчүн автономдуу курал системаларын колдонууну жокко чыгаруу керек. Бул эң жакшы адамдарга каршы күч колдонуу үчүн иштелип чыккан же колдонулган автономдуу курал системаларына тыюу салуу аркылуу жетишмек.

3. «Жарандык адамдарды жана жарандык объектилерди коргоо, эл аралык гуманитардык укуктун нормаларын колдоо жана адамзатты коргоо максатында, тыюу салынбаган автономдуу курал системаларын долбоорлоо жана колдонуу жөнгө салынышы керек, анын ичинде: максаттуу түрлөрү боюнча чектөөлөр, мисалы, аларды табияты боюнча аскердик объектилер менен чектөө; колдонуунун узактыгы, географиялык масштабы жана масштабы боюнча чектөөлөр, анын ичинде белгилүү бир кол салууга карата адамдын ой жүгүртүүсүн жана башкаруусун камсыз кылуу; пайдалануу жагдайлар боюнча чектөөлөр, мисалы, аларды жарандык же жарандык объектилер жок болгон кырдаалдарга чектөө; радам менен машинанын өз ара аракеттенүүсү үчүн шарттар, өзгөчө натыйжалуу адам көзөмөлүн камсыз кылуу, жана өз убагында кийлигишүү жана өчүрүү.

Тиешелүү көз караш боюнча, Бириккен Улуттар Уюму (БУУ) Женевадагы Кээ бир кадимки куралдар боюнча Конвенция (CCW) аркылуу онлайн режиминде жарыяланган расмий баяндамага ылайык, өлүмгө алып келүүчү автономдуу куралдар боюнча он бир жетектөөчү принциптерди түзгөн (тиешелүү эл аралык гуманитардык жардамга шилтемелерди камтыган). Мыйзам же IHL жоболору):

(a) Эл аралык гуманитардык укук куралдын бардык системаларына, анын ичинде өлүмгө алып келген автономдуу курал системаларын потенциалдуу өнүктүрүүгө жана колдонууга толугу менен колдонулушун улантууда;

(б) Курал системаларын колдонуу боюнча чечимдер үчүн адамдын жоопкерчилиги сакталууга тийиш, анткени жоопкерчиликти машиналарга өткөрүп берүү мүмкүн эмес. Бул курал системасынын бүткүл жашоо цикли боюнча каралышы керек;

(c) Ар кандай формада болушу мүмкүн болгон жана куралдын жашоо циклинин ар кандай этаптарында ишке ашырылышы мүмкүн болгон адам менен машинанын өз ара аракети өлүмгө алып келген автономдуу курал системаларынын чөйрөсүндө жаңы пайда болгон технологияларга негизделген курал системаларын потенциалдуу пайдаланууну камсыз кылууга тийиш. колдонуудагы эл аралык мыйзамдарга, атап айтканда, IHLге ылайык келүү. Адам менен машинанын өз ара аракеттенүүсүнүн сапатын жана көлөмүн аныктоодо бир катар факторлор эске алынууга тийиш, анын ичинде операциялык контекст, ошондой эле бүтүндөй курал системасынын мүнөздөмөлөрү жана мүмкүнчүлүктөрү;

(d) CCW алкагында ар кандай жаңы курал-жарак системасын иштеп чыгуу, жайгаштыруу жана колдонуу үчүн жоопкерчилик колдонулуучу эл аралык укукка ылайык, анын ичинде адам башкаруусунун жооптуу чынжырында мындай системалардын иштеши аркылуу камсыз кылынууга тийиш;

(e) мамлекеттердин эл аралык укук боюнча милдеттенмелерине ылайык, жаңы куралды, куралды же согуш ыкмасын изилдөөдө, иштеп чыгууда, сатып алууда же кабыл алууда анын колдонулушу кандайдыр бир же бардык жагдайларда колдонулушу мүмкүнбү деген чечим кабыл алынууга тийиш. эл аралык укук тарабынан тыюу салынган;

(f) Өлүмгө алып келүүчү автономдуу курал системалары, физикалык коопсуздук, тийиштүү физикалык эмес кепилдиктер (анын ичинде хакердик же маалыматтарды бурмалоодон киберкоопсуздук) чөйрөсүндө жаңы технологиялардын негизинде жаңы курал системаларын иштеп чыгууда же сатып алууда террористтик топтор тарабынан сатып алуу коркунучу. жана жайылтуу коркунучун эске алуу керек;

(g) Тобокелдиктерди баалоо жана анын кесепеттерин азайтуу боюнча чаралар ар кандай курал системаларында жаңы пайда болгон технологияларды долбоорлоо, иштеп чыгуу, сыноо жана жайылтуу циклинин бир бөлүгү болушу керек;

(h) Эл аралык укуктун жана башка колдонулуучу эл аралык укуктук милдеттенмелердин сакталышы үчүн өлүмгө алып келүүчү автономдуу курал системалары чөйрөсүндө жаңы технологияларды колдонууну карап чыгуу керек;

(i) потенциалдуу саясий чараларды иштеп чыгууда, өлүмгө алып келген автономдуу курал системалары чөйрөсүндө жаңы технологияларды антропоморфизмге салууга болбойт;

(j) CCW контекстинде кабыл алынган талкуулар жана ар кандай потенциалдуу саясий чаралар интеллектуалдык автономдуу технологияларды тынчтык максатта колдонуудагы прогресске же жетүүгө тоскоол болбошу керек;

(k) CCW Конвенциянын максаттарынын жана максаттарынын контекстинде аскерий зарылдык менен гуманитардык ой-пикирлердин ортосунда тең салмактуулукту түзүүгө умтулган өлүмгө алып келүүчү автономдуу курал системалары чөйрөсүндө жаңы пайда болгон технологиялар маселесин чечүү үчүн тиешелүү негизди сунуштайт.

Биз өзүбүздү тапкан туңгуюк

Бул ар кандай согуш мыйзамдары, куралдуу кагылышуулардын мыйзамдары же IHL (Эл аралык гуманитардык мыйзамдар) куралданган автономдуу системалардын пайда болушуна байланыштуу эмне кылууга аракет кылсак болорун карап чыгуу үчүн маанилүү жана ар дайым келечектүү колдонмо болуп кызмат кылат. кийинки ыкмалар менен.

Өлтүрүүчү куралданган автономиялуу системаларга тыюу салуу катуу жана баш ийүү менен сакталышын чын жүрөктөн каалайбыз. Көйгөй, эң чынчыл тыюулардын кайсынысында болбосун, күбүр-шыбыр бөлмөлөр табылышы мүмкүн. Алар айткандай, эрежелерди бузуу керек. Иштер бош болгон жерде, риффрафф боштуктарды ачып, эрежелерди кысып, көз кысып коюуга аракет кылат деп коюңуз.

Бул жерде карап чыгууга татыктуу кээ бир мүмкүн болгон кемчиликтер бар:

  • Өлтүрбөгөн дооматтар. Жүзүнө өлүмгө алып келбейт автономдуу курал системалары (бул тыюу салынган чектердин чегинен тышкары болгондуктан, жакшы көрүнөт), аны сиз андан кийин өлүмгө дуушар кыла аласыз (сиз акыркы мүнөттө тыюудан чыгасыз).
  • Автономдуу системанын дооматтары гана. Өлүмгө багытталган автономдуу системаларды жасабай, тыюуну сактаңыз, ошол эле учурда (азырынча) куралдандырыла элек, бирок бир тыйындан кийин куралдандырыла турган күнүмдүк автономдуу системаларды иштеп чыгууда көп ийгиликтерге жетишиңиз.
  • Бир катары интеграцияланбаган дооматтар. Дегеле куралданбаган автономдуу системаларды жасаңыз жана убагы келгенде, алар эки өзүнчө элемент экенин катуу талашууга аракет кыла тургандай кылып куралдандырыңыз, ошондуктан алар бардыгы бир жерде автономдуу курал системасы же анын тууганы.
  • Бул автономдуу эмес деп ырастайт. Автономдук кубаттуулуктарга ээ эместей көрүнгөн курал системасын жасаңыз. AI негизделген автономияны төмөндөтүү үчүн бул автономдуу эмес системада орун калтырыңыз. Керек болгондо, автономияны туташтырыңыз жана сиз айланууга даярсыз (ошол убакка чейин сиз тыюуну бузган жоксуз окшойт).
  • башка

Өлтүрүүчү автономдуу курал системаларына тыюу салуу аракетинде дагы көптөгөн кыйынчылыктар бар. Мен алардын дагы бир нечесин айтам.

Кээ бир эксперттер тыюу салуу өзгөчө пайдалуу эмес жана анын ордуна жөнгө салуучу жоболор болушу керек деп ырасташат. Идея бул карама-каршылыктарга жол берилет, бирок катуу көзөмөлгө алынат. Мыйзамдуу колдонуунун литаниясы, мыйзамдуу максаттуу жолдору, мүмкүнчүлүктөрдүн мыйзамдуу түрлөрү, мыйзамдуу пропорционалдык жана башка ушул сыяктуулар белгиленген.

Алардын ою боюнча, түз эле тыюу салуу башыңды кумга салып, бөлмөдө пил жок дегендей түр көрсөтүүгө барабар. Бул талаш-тартыш, бирок тыюу салуу менен сиз мындай системаларга умтулуу азгырыгын кескин түрдө азайта аласыз деген аргументке каршы чыккандардын канын кайнатып жатат. Албетте, кээ бирлери тыюуну макташат, бирок жок дегенде көпчүлүгү андай болбойт деп үмүттөнөбүз. Андан кийин көңүлүңүздү шылдыңчыларга буруп, көңүлүңүздү баарына бөлбөшүңүз керек.

Бул талаш-тартыштар айланып баратат.

Дагы бир кооптонуу - бул тыюуну жакшылар сактаса да, жамандык кылбайт. Бул жакшыны жаман абалга салат. Жамандардын мындай куралдуу автономдуу системалары болот, ал эми жакшылар болбойт. Жамандыктын бар экени ачыкка чыккандан кийин, жакшылыкка жетүүгө кеч болуп калат. Кыскасы, бир гана кыраакы нерсе - от менен от менен күрөшүүгө даярдануу.

Ошондой эле классикалык кармануу талашы бар. Эгерде жакшылар куралданган автономдуу системаларды жасоону тандаса, муну жамандардын чыр-чатакка түшүүсүнө жол бербөө үчүн колдонсо болот. Же жакшылар жакшыраак куралданып, ошону менен жаманды четтетет, же жамандар, балким, бул системаларды башынан эле тымызын ойлоп тапканын ачыкка чыгарганда, жакшылар даяр болот.

Бул эсептегичтерге каршы куралданган автономдуу системаларды жасоо менен сиз жарыша куралданууну жүргүзүп жатасыз. Экинчи тарап да ошондой болууга умтулат. Технологиялык жактан мындай системаларды жаңыдан түзө алышпаса да, алар азыр “жакшылардын” пландарын уурдап, жогорку технологиялык ичегилерди тескери инженериялай алышат же сынап көрүлгөн жана чындык катары көргөн нерселерди туурай алышат. ишти бүтүрүүнүн жолу.

Аха, кээ бир жооптор, мунун баары бири-бири менен чыр-чатактын азайышына алып келиши мүмкүн. Эгерде А тарап В тарабында өлүмгө алып баруучу автономдуу системалар бар экенин билсе, ал эми В тарабы А тарапта алар бар экенин билсе, алар катуу отура бериши мүмкүн жана сокку урушпайт. Бул өз ара ишендирилген жок кылуунун (MAD) өзгөчө аурасына ээ.

Жана башка.

Автономиядагы AI

Келгиле, бүгүнкү АИнин табияты жөнүндө бир бетте экенибизди текшерели.

Бүгүнкү күндө сезимтал AI жок. Бизде бул жок. Сезимдүү AI мүмкүн болорун билбейбиз. Эч ким так айта албайт, биз сезгич АИге жетебизби, же сезгич AI кандайдыр бир кереметтүү түрдө өзүнөн-өзү пайда болоорун айта албайт (көбүнчө сингулярлык деп аталат, менин камтууумду караңыз). бул жерде шилтеме).

Мен басым жасап жаткан AI түрү бүгүнкү күндө бизде бар сезилбеген AIдан турат. Эгерде биз жапайы ой жугуртууну кааласак сезимтал AI, бул талкуу түп-тамырынан бери башка багытта кетиши мүмкүн. Сезимдүү AI адамдык сапатка ээ болмок. Сиз сезүүчү AI адамдын когнитивдик эквиваленти экенин эске алышыңыз керек. Андан тышкары, кээ бирөөлөр бизде супер интеллектуалдык AI болушу мүмкүн деп божомолдогондуктан, мындай AI адамдардан акылдуураак болушу мүмкүн (супер-акылдуу AI боюнча менин изилдөөм үчүн, караңыз. камтуу бул жерде).

Келгиле, нерселерди жер бетине түшүрүп, бүгүнкү эсептөөчү сезилбеген AIны карап көрөлү.

Бүгүнкү AI адамдын ой жүгүртүүсү менен бирдей эч кандай модада “ойлоого” жөндөмсүз экенин түшүнүңүз. Alexa же Siri менен баарлашканыңызда, сүйлөшүү мүмкүнчүлүктөрү адамдын мүмкүнчүлүктөрүнө окшош сезилиши мүмкүн, бирок чындыгында ал эсептөөчү жана адамдын таанып-билүү жөндөмү жок. AIнын акыркы доору эсептөө үлгүлөрүн дал келүүнү камсыз кылган Machine Learning (ML) жана Deep Learning (DL) кеңири колдонду. Бул адамга окшош өңүттөгү AI системаларына алып келди. Ошол эле учурда, бүгүнкү күндө жалпы акылга окшош бир дагы AI жок жана адамдын күчтүү ой жүгүртүүсүнүн когнитивдик кереметтери жок.

Бүгүнкү AIны антропоморфизациялоодон өтө этият болуңуз.

ML/DL эсептөө үлгүсүн далдаштыруунун бир түрү. Кадимки ыкма сиз чечим кабыл алуу тапшырмасы жөнүндө маалыматтарды чогултасыз. Сиз маалыматтарды ML/DL компьютер моделдерине киргизесиз. Бул моделдер математикалык үлгүлөрдү табууга умтулушат. Мындай үлгүлөрдү тапкандан кийин, эгер табылса, AI системасы жаңы маалыматтарга туш болгондо ошол үлгүлөрдү колдонот. Жаңы маалыматтар берилгенден кийин, учурдагы чечимди чыгаруу үчүн "эски" же тарыхый маалыматтарга негизделген үлгүлөр колдонулат.

Менимче, сиз бул кайда бара жатканын биле аласыз. Эгерде чечимдерди кабыл алган адамдар терс көз караштарды камтыса, анда маалыматтар муну тымызын, бирок маанилүү жолдор менен чагылдырат. Machine Learning же Deep Learning эсептөө үлгүсүн дал келтирүү жөн гана тиешелүү түрдө маалыматтарды математикалык тууроого аракет кылат. AI тарабынан жасалган моделдөөнүн жалпы акыл-эстин же башка сезимтал аспектилердин окшоштугу жок.

Андан тышкары, AI иштеп чыгуучулар да эмне болуп жатканын түшүнбөй калышы мүмкүн. ML/DLдеги сырдуу математика азыр жашырылган калпыстыктарды жоюуну кыйындашы мүмкүн. Сиз AI иштеп чыгуучулары потенциалдуу көмүлгөн тенденцияларды сынашат деп үмүттөндүңүз жана күтөсүз, бирок бул көрүнгөндөн алда канча татаал. Салыштырмалуу кеңири тестирлөө менен дагы ML/DL үлгүсүнө дал келген моделдердин ичинде калпыстыктар сакталат деген чоң мүмкүнчүлүк бар.

Сиз кандайдыр бир атактуу же атагы чыккан таштандыны таштандыдан чыгаруу деген макалды колдонсоңуз болот. Эң негизгиси, бул AIнын ичине кирип кеткен көзкараштар катары тымызын түрдө пайда болгон бир тараптуулукка көбүрөөк окшош. AIнын алгоритмдик чечимдерди кабыл алуу (ADM) аксиоматикалык түрдө теңсиздикке толгон.

жакшы эмес.

Бул кошумча негиздер менен биз дагы бир жолу автономдуу системаларга жана куралдандыруу темасына кайрылабыз. Биз буга чейин AI автономдуу системанын компонентине кирерин жана куралдандыруу компонентине кире аларын көрдүк. Бүгүнкү AI сезимтал эмес. Бул кайталап коюуга татыктуу жана мен бул маселелерге кошумча түшүнүк алуу үчүн муну баса белгилейм.

Келгиле, бул кандайча маанилүү экенин көрүү үчүн кээ бир сценарийлерди карап көрөлү. Мен бул темадагы согуш мезгилинен бир азга чыгып кетем жана анын башка көптөгөн социалдык чөйрөлөргө кандайча сиңип жатканын көрсөтөм. Ошого жараша өзүңүздү бекемдеңиз.

Курал менен эч кандай байланышы жок деп айта турган автономдуу унаа сыяктуу AI-негизделген автономдуу система кадимки аймакта өз жолунда баратат. Автономдуу унааны колдонуу үчүн адам келет. адам алдын ала курал менен куралданган. Бул конкреттүү сценарийде талкуулоо үчүн адамдын оюнда кандайдыр бир жагымсыз нерсе бар деп ойлойлу. Адам автономдуу унаага отурат (куралын алып, катылган же жашырылбаган, эки жол менен).

Автономдуу унаа атчынын каалаган жерине барат. Бул учурда, AI бул жүргүнчүнү күн сайын ондогон же жүздөгөн сапарлар үчүн жасагандай эле программалык түрдө бир алып кетүү жеринен белгиленген жерге алып барат.

Эгер бул адам айдоочусу жана адам башкарган унаа болгон болсо, анда адам айдоочу жүргүнчүнүн куралчан экенин түшүнүп, анын жаман ниети бар экенин түшүнүшү мүмкүн. Адамдын айдоочусу унааны башкаруудан баш тартышы мүмкүн. Же адам айдоочу полиция участогуна айдап барышы мүмкүн. Же, балким, адам айдоочу куралчан жүргүнчүнү баш ийдирүүгө аракет кылышы мүмкүн (билдирилген учурлар бар) же жүргүнчүнү куралын колдонуудан баш тарттыруу. Бул абдан татаал жана ар кандай вариациялар болушу мүмкүн. Мындай кыйынчылыкты чечүү үчүн бир гана туура жооп бар деп айтуу кыйын болот. Тилекке каршы, кырдаал курч жана коркунучтуу.

Бул учурда AI мындай мүмкүнчүлүктөрдүн бирине да программаланган болушу күмөн. Кыскача айтканда, куралчан жүргүнчү айдоо сапарынын жүрүшүндө, автономдуу унаанын ичинен кылып, өз куралын колдоно алышы мүмкүн. AI айдоо системасы ары-бери жүрө берет жана автономдуу унаа жүргүнчүнүн белгиленген белгисин көздөй багыт алат (эгер көздөлгөн жер башка жол менен чектен тышкары деп эсептелбеген болсо).

Көпчүлүк заманбап AI айдоо тутумдары чабандын аракеттерине эмес, жолго гана көңүл бурат.

Иш мындан да жаман болушу мүмкүн.

Кимдир бирөө муктаж болгондор үчүн кошумча азык-түлүк алып турган жерге бир топ азык-түлүк ташууну каалайт дейли. Адам автономдуу унаа сурайт жана азык-түлүк салынган баштыктарды унаанын арткы орундугуна салат. Алар сапарга барышпайт жана алар үчүн тамак-аш баштыктарын жеткирүү үчүн жөн гана автономдуу унааны колдонушат.

Абдан жакшы окшойт.

Карапайым адам азык-түлүк баштыктарынын тынч түшүнүгүнө караганда, автономдуу унаага куралдын кандайдыр бир түрүн коюуну тандайт деп ойлойлу. Менимче, сиз эмне болушу мүмкүн экенин биле аласыз. Бул тынчсызданууну мен өзүмдүн колонкаларымда кайра-кайра үндөп, эртерээк чечишибиз керек экенин алдын ала эскертип келем.

Мындай сценарийлерге сунушталган жооптордун бири, балким, бардык автономдуу унаалар камераларын жана башка сенсорлорун потенциалдуу жүргүнчүнүн куралчан же кара ниет ниети бар-жогун аныктоо үчүн колдонууга программаланган болушу мүмкүн. Балким, AI бул үчүн программаланган болушу мүмкүн. Же AI электрондук түрдө жана унчукпай алыскы адам операторуна эскертет, ал андан кийин камералар аркылуу визуалдык жана башка жол менен текшерип, жүргүнчү менен өз ара аракеттениши мүмкүн. Бул курттардын татаал жана потенциалдуу чечилгис банкасынын бир бөлүгү болуп саналат, ошондуктан ал интенсивдүү купуялуулук маселелерин жана башка потенциалдуу этикалык AI көйгөйлөрүн көтөрөт. Менин камтууну караңыз бул жерде шилтеме.

Дагы бир окшош альтернатива болуп, AIде кандайдыр бир камтылган этикалык программалоо бар, ал AIга адатта адам чечим кабыл алуучулар үчүн сакталган этикалык же адеп-ахлактык баа берүү мүмкүнчүлүгүн берүүгө аракет кылат. Мен AI орнотулган эсептөө этикасынын прогностиктеринин ушул түрлөрүн карап чыктым, караңыз бул жерде шилтеме жана бул жерде шилтеме.

Согуш талаасынын сценарийине кайрылып, согуштук аймактын үстүндө өлүмгө алып келген автономдуу курал системасы кыдырып жатканын элестетиңиз. AI автономдуу системаны иштетет. AI борттогу куралдарды иштетет. Биз буга чейин AI душмандык кыймылдарды же жарактуу согушкерлер деп эсептелген адамдын буталарынын башка көрсөткүчтөрүн сканерлөө үчүн программаланган болушу мүмкүн деп ойлогонбуз.

Ушул эле AI адамдын циклдеги адамдын ордуна кандай мааниде иш алып барышы мүмкүн экенин эсептөөчү жактан карап чыгууга умтулган кандайдыр бир этикалык багытталган компонентке ээ болушу керекпи?

Кээ бирөөлөр ооба, муну уланталы дешет. Кээ бирлери үрөйү учуп артка чегинип, бул же мүмкүн эмес, же болбосо адамгерчиликтин ыйыктыгын бузат дешет.

Дагы бир банка курт.

жыйынтыктоо

Бул темага кызыккандар үчүн, талкуулана турган дагы көп нерселер бар.

Мен сизге бир азаптуу табышмактын даамын татып берем.

Биз, адатта, адам согуш маалында эмне үчүн болбосун, акыры жооп берет деп күтөбүз. Эгерде AI автономдуу курал системасын башкарып жатса же куралданган автономдуу системаны башкарып жатса жана бул система согуш талаасында абийирсиз деп эсептелген бир нерсе жасаса, бул үчүн ким же эмне күнөөлүү?

Сиз AI жоопкерчиликке тартылышы керек деп айтышыңыз мүмкүн. Бирок, эгер ошондой болсо, бул эмнени билдирет? Биз азыркы AI юридикалык жактын ишке ашырылышы деп эсептебейбиз, менин түшүндүрмөнү караңыз бул жерде шилтеме. AI учурда эшектин куйругун кадоо жок. Балким, эгер AI качандыр бир күнү сезимтал болуп калса, сиз муну кылууга аракет кылсаңыз болот. Ага чейин, бул бир аз жетүү (плюс, AI кандай жазаларга же кесепеттерге дуушар болот, менин анализимди караңыз бул жерде шилтеме жана бул жерде шилтеме, мисалы).

Эгерде AI жоопкерчиликтүү деп эсептелбесе, анда биз табигый интеллектти ойлоп тапкан адам же адамдар жооп бериши керек деп айта алабыз. Эгер AI жөн гана автономдуу системаны иштетип жатса жана кээ бир адамдар аны куралдандыруу менен коштолсо, муну кыла аласызбы? Сиз AI иштеп чыгуучулардын артынан барасызбы? Же AI колдонгондорбу? Же жөн эле куралдуу актербу?

Сиз менин чын жүрөктөн талкуумда айсбергдин учуна гана тийдим деген ойду түшүнөсүз деп ишенем.

Азырынча, келгиле, бул талкууну жыйынтыктайлы. Джон Лайли киргени эсиңизде болсо керек Эфю: Акылдын анатомиясы 1578-жылы эсте каларлык түрдө сүйүү жана согушта бардыгы адилеттүү экенин айткан.

Ал автономдуу курал системаларынын пайда болушун жана ошондой эле куралданган автономдуу системалардын пайда болушун эске алат беле?

Биз, албетте, муну тез арада акылыбызга коюшубуз керек.

Булак: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- курал-системаларын-жана-шайтанча-куралданган-автономдук-системаларды-эксплуатациялоо/