AI этикасы автономдуу AI тутумдарында бир тараптуу алгоритмдерди чакыруу үчүн Кызыл желек деп аталган AI мыйзамдарын түзүүдөн күмөн санайт.

Кызыл туу женундегу закондор женунде айта кетели.

Кызыл туу женундегу закондор женундегу тушунук акыркы мезгилде кабарларда кецири чагылдырылганын сиздер билесиздер. Теманы чагылдырган баш макалалар көп. Мындай маселелер боюнча кумарлануу жана жалындуу талаш-тартыштар коомдук тынчсыздануу катары эң башкы орунда турат жана азыркы жана тез өнүгүп келе жаткан Кызыл туу куралы жөнүндө мыйзамдарды талап кылат.

Сиз 1800-жылдардын аягында моторлуу транспорт каражаттарына жана бүгүнкү күнүмдүк заманбап унаалардын алдыңкыларына тиешелүү Кызыл желектин башка мыйзамдары менен тааныш эмес болушуңуз мүмкүн деп айткым келет. Ооба, туура, Кызыл туу мыйзамдары тарыхка барып такалат, бирок азыркы учурга салыштырмалуу башка темаларды камтыйт. Алар, адатта, Кызыл желек Жол кыймылы мыйзамдары деп аталат.

Бул азыр кылымдык жана таптакыр иштебей калган мыйзамдар буу менен кыймылдаткычтын ар кандай моторлуу араба же кыймылдаткычы ошол убакта чоң адам унаанын алдынан өтүп, эскертүү максатында кызыл желек көтөрүп жүрүүсүн талап кылат. Идея малды ызы-чуулуу жана ызы-чуулуу карама-каршылыктардан улам кооптонуп, топурактан же анча-мынча асфальтталган жолдордон ылдый түшүп, кимдир-бирөөнүн кызыл желек менен катуу желбиретип, кырсыктын алдын алат деп үмүттөнүшү мүмкүн эле. Эгер сиз кызыккан болсоңуз, темир жолдор жана поезддер рельстерге ажырагыс түрдө байланган транспорт каражаттары болгон жана алардын иш-аракеттерин камтыган башка мыйзамдар бар эле мыйзамдардан алынып салынган деп эсептелген.

Элестеткиле, бүгүнкү күндө биздин коомдук жолдордо ар бир унаа үчүн талап катары кызыл желектерди желбиретип туруу керек.

Мисалы, сиз жашаган көчөдө келе жаткан катардагы айдоочу кызыл желекти желбиретип келе жаткан чоң кишинин катышуусун камсыздап, бара жаткан унаанын алдында параддан өтүшү керек. Бул сиздин көчөдөн өткөн ар бир унаа үчүн орун алышы керек. Мүмкүн, адамдар өтүп бара жаткан айдоочуларды жалдап, алардын алдынан өтүп, белгиленген кол булгалоо аракетин жасай турган досу же тууганы жок кызыл желекче болуп калмак.

Бүгүнкү күндө биз трассага байланыштуу кызыл желектин желбирегенин жол куруу объектилери менен байланыштырабыз. Сиз казылган жолго жакындаганда жумушчулар сиздин көңүлүңүздү буруу үчүн кызыл желек көтөрүп турушат. Бул сизге ылдамдыкты азайтып, сергек болууга чакырат. Сиздин жолуңузга бульдозер кирип кетиши мүмкүн. Алдыда чоң тешик болушу мүмкүн жана аны этияттык менен айланып өтүшүңүз керек болот.

Бирок келгиле, 1800-жылдардагы кызыл желектердин колдонулушуна кайрылалы.

Ишенесизби же жокпу, кызыл желекче алдыда келе жаткан моторлоштурулган машинадан кеминде сегизден бир миль алдыга озуп чыгышы керек эле. Бул бир топ алыс аралык окшойт. Бул ошол күндөрү абдан маанилүү болгон деп ойлошот. Мотордун таң калыштуу үндөрү жана балким, унаанын жөн эле көрүнүшү жаныбарлардын тынчын алуу үчүн жетиштүү болушу мүмкүн. Ошол доордун кээ бир Кызыл желек мыйзамдары да түн ичинде жаркыраган кызыл жарыкты асманда кармап турууну талап кылган, андыктан көзгө көрүнгөн кызыл эскертүү караңгы аралыктан көрүнүп турушу үчүн.

Жалпысынан алганда, биз коом катары кызыл желекти кандайдыр бир сигнал же белги катары байланыштырууга жакынбыз деп ырастоо туура болот деп ойлойм, же жок дегенде биздин динчил көңүл буруубуз керек.

Бул кызыл желек феноменине бир аз бурулушка даяр болуңуз.

Жасалма интеллект (AI) жөнүндө сөз болгондо, биз кызыл желекче жоболорду талап кылышыбыз керек деген талаш-тартыштар бар.

Бул бир аз таң калыштуу жана көпчүлүктүн башын тырмап салган таң калыштуу түшүнүк. Сиз кантип же эмне үчүн мындай деп аталышы керек деп таң калышыңыз мүмкүн Red Flag AI мыйзамдары. Көңүл буруңуз, мен муну Кызыл желектин AI мыйзамдары деп белгилеп, маселени Кызыл желектин жол кыймылы жөнүндөгү мыйзамдарынан (мисалы, 1800-жылдардын аягындагы) айырмалоо үчүн, ошондой эле аларды бүгүнкү күндөгү башка кеңири таралган Кызыл туу курал мыйзамдарынан айырмалоо үчүн белгилеп жатам.

Чындыгында бизге AI маселелерине так жана бир гана багытталган Red Flag AI мыйзамдары керекпи?

Сунушталган ыкманы колдогондор бизге негизсиз калыстыктарды жана дискриминациялык аракеттерди камтыган AIны кыскартууга жардам бере турган мыйзам ченемдери керек деп ырасташат. Азыркы учурда, AI куруу жана жайылтуу жапайы Батыштын бардык жагдайына окшош. Жаман AI менен күрөшүү аракеттери учурда AI этикасынын көрсөтмөлөрүн иштеп чыгууга жана кабыл алууга көз каранды. Менин AI этикасы жана этикалык AI жөнүндө үзгүлтүксүз жана кеңири чагылдыруу үчүн караңыз бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

Жаман AI менен күрөшүүчү мыйзамдар акырындык менен иштелип чыгып, кабыл алынууда, менин камтууумду караңыз бул жерде шилтеме. Айрымдар мыйзам чыгаруучулар жетиштүү ылдамдыкта жүрбөй жатат деп кооптонушууда. Дүйнөдө бейтарап интеллектти өнүктүрүүгө мүмкүндүк берүүчү дарбазалар азыр кеңири ачык болуп жаткандай. Кол сунуп, жаңы мыйзамдар китептерге киргенде, жаман жин бөтөлкөдөн эчак эле чыгып калат дейт.

Анчалык тез эмес, каршы аргументтер кетет. Кооптонуулар, эгерде мыйзамдар өтө тез киргизилсе, биз алтын казды өлтүрөбүз, AI аракеттери куурап калат жана биз жаңы AI тутумдарынын коомдо жогорулаган пайдасын албайбыз. AI иштеп чыгуучулары жана AI колдонууну каалаган фирмалар, эгер AIга байланыштуу византиялык бир катар жаңы мыйзамдар күтүлбөгөн жерден федералдык, штаттык жана жергиликтүү деңгээлде кабыл алынса, AI менен байланышкан эл аралык мыйзамдарды айтпаганда да, чочулашы мүмкүн.

Бул башаламан ишке Red Flag AI мыйзамдарына чакыруу келет.

Кызыл туу AI мыйзамынын негизин түзгөн жапайы жана жүндүү ойлорго байланыштуу эт жана картошкага көбүрөөк токтоло электе, келгиле, абдан маанилүү темалар боюнча бир нече кошумча негиздер түзөлү. Биз AI этикасына жана айрыкча Machine Learning (ML) жана Deep Learning (DL) пайда болушуна кыскача киришибиз керек.

Бүгүнкү күндө AI тармагында, атүгүл AI талаасынан тышкары жерлерде эң катуу үндөрдүн бири этикалык AIнин көбүрөөк окшоштугу үчүн кыйкырыктардан турат деп бүдөмүк билесиз. Келгиле, AI этикасына жана этикалык AIге кайрылуу эмнени билдирерин карап көрөлү. Анын үстүнө, мен Machine Learning жана Deep Learning жөнүндө айтканда эмнени айткым келгенин изилдейбиз.

ЖМКнын көңүлүн бурган AI этикасынын белгилүү бир сегменти же бөлүктөрү терс көз караштарды жана теңсиздикти көрсөткөн AIдан турат. AIнын акыркы доору башталганда, азыр кээ бирөөлөр деп атаган нерсеге энтузиазмдын чоң жарылуу болгонун билесиз. AI For Good. Тилекке каршы, ошол шаркыратма толкундан кийин биз күбө боло баштадык AI For Bad. Мисалы, AI негизиндеги жүздү таануунун ар кандай системалары расалык көз караштарды жана гендердик көз караштарды камтыганы аныкталган, алар жөнүндө мен талкууладым. бул жерде шилтеме.

каршы күрөшүү аракеттери AI For Bad активдүү жүрүп жатат. Кыйкырыктан тышкары укуктук туура эмес иш-аракеттерди ооздуктоого умтулуу, ошондой эле AIнын жамандыгын оңдоо үчүн AI этикасын кабыл алууга олуттуу түрткү бар. Биз AIны өнүктүрүү жана жайылтуу үчүн негизги этикалык AI принциптерин кабыл алып, бекитишибиз керек деген түшүнүк бар. AI For Bad жана ошол эле учурда артыкчылыктууларды жарыялоо жана алдыга жылдыруу AI For Good.

Тиешелүү түшүнүк боюнча, мен AIны AI көйгөйлөрүн чечүүнүн бир бөлүгү катары колдонууга аракет кылып, ушундай ой жүгүртүү менен от менен от менен күрөшүүнүн жактоочусумун. Биз, мисалы, этикалык AI компоненттерин AI тутумуна киргизсек болот, ал AIнын калган бөлүгү кандай иштерди жасап жатканын көзөмөлдөп, реалдуу убакытта дискриминациялоочу аракеттерди байкай алат, менин талкууну караңыз бул жерде шилтеме. Бизде ошондой эле өзүнчө AI системасы болушу мүмкүн, ал AI этикасынын мониторунун бир түрү катары иштейт. AI системасы башка AI этикага жатпаган туңгуюкка баратканда көзөмөлдөө жана аныктоо үчүн көзөмөлчү катары кызмат кылат (мындай мүмкүнчүлүктөр боюнча менин анализимди караңыз: бул жерде шилтеме).

Бир аздан кийин мен сиз менен AI этикасынын негизги принциптерин бөлүшөм. Бул жерде жана бул жерде калкып жаткан көптөгөн тизмелер бар. Сиз азырынча универсалдуу кайрылуунун жана макулдашуунун бирдиктүү тизмеси жок деп айта аласыз. Бул жагымсыз кабар. Жакшы жаңылык, жок эле дегенде, жеткиликтүү AI этикасынын тизмелери бар жана алар абдан окшош. Мунун баары негиздүү конвергенциянын бир түрү аркылуу биз AI этикасынын жалпы жалпылыгына карай жол таап жатканыбызды көрсөтүп турат.

Биринчиден, келгиле, AI жасаган, талаага чыгарган же колдонгон адам үчүн эмне маанилүү экенин көрсөтүү үчүн жалпы этикалык AI осуяттарынын айрымдарын кыскача ачып берели.

Мисалы, Ватикан тарабынан айтылгандай Рим AI этикасына чакырат жана мен тереңирээк карадым бул жерде шилтеме, булар алардын аныкталган алты негизги AI этикасынын принциптери:

  • ачыктык: Негизи, AI системалары түшүнүктүү болушу керек
  • Кошуу: Ар бир адам пайда көрүшү үчүн жана бардык инсандарга өзүн көрсөтүү жана өнүктүрүү үчүн мүмкүн болгон эң жакшы шарттарды сунуштоо үчүн бардык адамдардын муктаждыктары эске алынышы керек.
  • жоопкерчилиги: AI колдонууну иштеп чыккан жана жайылткандар жоопкерчилик жана айкындуулук менен жүрүшү керек
  • Калыс: Адилеттүүлүктү жана адамдык ар-намысты коргоп, бир жактуулукту жаратпаңыз же аракет кылбаңыз
  • ишенимдүүлүк: AI системалары ишенимдүү иштей алышы керек
  • Коопсуздук жана купуялык: AI системалары коопсуз иштеши керек жана колдонуучулардын купуялыгын сыйлашы керек.

АКШнын Коргоо министрлигинин (DoD) билдирүүсүндө Жасалма интеллектти колдонуунун этикалык принциптери жана мен тереңирээк карадым бул жерде шилтеме, булар алардын алты негизги AI этика принциптери:

  • Жооптуу: DoD кызматкерлери AI мүмкүнчүлүктөрүн иштеп чыгуу, жайылтуу жана колдонуу үчүн жоопкерчиликтүү бойдон калууда, тиешелүү деңгээлде ой жүгүртүү жана кам көрүшөт.
  • Адилеттүү: Бөлүм AI мүмкүнчүлүктөрүндө күтүлбөгөн терс көрүнүштөрдү азайтуу үчүн атайылап чараларды көрөт.
  • Изделүүчү: Бөлүмдүн AI мүмкүнчүлүктөрү тиешелүү персонал AI мүмкүнчүлүктөрүнө колдонулуучу технологияларды, иштеп чыгуу процесстерин жана оперативдүү ыкмаларын, анын ичинде ачык-айкын жана аудитордук методологияларды, маалымат булактарын, долбоорлоо процедурасын жана документтерин тийиштүү түшүнүүгө ээ болушу үчүн иштелип чыгат жана жайылтылат.
  • ишенимдүү: Бөлүмдүн AI мүмкүнчүлүктөрү ачык, так аныкталган колдонууга ээ болот жана мындай мүмкүнчүлүктөрдүн коопсуздугу, коопсуздугу жана натыйжалуулугу алардын бүткүл жашоо циклдеринде аныкталган колдонуунун алкагында сыноодон жана кепилдиктен өтүүгө тийиш.
  • Башкарылуучу: Бөлүм күтүлбөгөн кесепеттерди аныктоо жана болтурбоо, ошондой эле күтүлбөгөн жүрүм-турумду көрсөткөн орнотулган системаларды өчүрүү же өчүрүү жөндөмдүүлүгүнө ээ болуу менен, өз милдеттерин аткаруу үчүн AI мүмкүнчүлүктөрүн иштеп чыгат жана инженериялайт.

Мен ошондой эле AI этикасынын принциптеринин ар кандай жамааттык анализдерин талкууладым, анын ичинде көптөгөн улуттук жана эл аралык AI этикасынын жоболорунун маңызын изилдеген жана конденсациялаган изилдөөчүлөр тарабынан иштелип чыккан комплексти камтыган “The Global Landscape of AI Ethics Guidelines” (жарыяланган. ичинде жаратылыш), жана менин камтуум изилдейт бул жерде шилтеме, бул негизги таш тизмесине алып келди:

  • ачыктык
  • Адилеттик & Калыстык
  • Non-Maleficence
  • жоопкерчилик
  • Privacy
  • Пайдасы
  • Эркиндик жана автономия
  • ишеним
  • Туруктуулук
  • Кадыр-барк
  • Жардамдашуу

Түздөн-түз божомолдогонуңуздай, бул принциптердин негизинде жаткан өзгөчөлүктөрдү аныктоого аракет кылуу абдан кыйын болушу мүмкүн. Андан тышкары, бул кеңири принциптерди AI тутумдарын жасоодо колдонуу үчүн толугу менен сезилерлик жана деталдуу нерсеге айландыруу аракети да катаал жаңгак болуп саналат. AI этикасынын осуяттары эмне экендиги жана аларды жалпысынан кантип сактоо керектиги жөнүндө жалпысынан бир аз кол булгалоо оңой, ал эми AI коддоосунда бул жолго жооп берген чыныгы резина болушу керек болгон бир топ татаал жагдай.

AI этикасынын принциптерин AI иштеп чыгуучулары, ошондой эле AI өнүктүрүү аракеттерин башкаргандар, ал тургай, акырында AI тутумдарын иштеткен жана тейлеген адамдар колдонушу керек. AIны иштеп чыгуунун жана колдонуунун бүткүл жашоо циклиндеги бардык кызыкдар тараптар Этикалык AIнын белгиленген нормаларын сактоонун алкагында каралат. Бул маанилүү жагдай, анткени адаттагыдай, "кодерлор гана" же AIди программалагандар AI этикасынын түшүнүктөрүн карманышат. Жогоруда айтылгандай, AI ойлоп табуу жана жайылтуу үчүн айыл керек, ал үчүн бүт айыл AI этикасынын эрежелерин билиши керек.

Келгиле, бүгүнкү AIнын табияты жөнүндө бир бетте экенибизди текшерип көрөлү.

Бүгүнкү күндө сезимтал AI жок. Бизде бул жок. Сезимдүү AI мүмкүн болорун билбейбиз. Эч ким так айта албайт, биз сезгич АИге жетебизби, же сезгич AI кандайдыр бир кереметтүү түрдө өзүнөн-өзү пайда болоорун айта албайт (көбүнчө сингулярлык деп аталат, менин камтууумду караңыз). бул жерде шилтеме).

Мен басым жасап жаткан AI түрү бүгүнкү күндө бизде бар сезилбеген AIдан турат. Эгерде биз жапайы ой жугуртууну кааласак сезимтал AI, бул талкуу түп-тамырынан бери башка багытта кетиши мүмкүн. Сезимдүү AI адамдык сапатка ээ болмок. Сиз сезүүчү AI адамдын когнитивдик эквиваленти экенин эске алышыңыз керек. Андан тышкары, кээ бирөөлөр бизде супер интеллектуалдык AI болушу мүмкүн деп божомолдогондуктан, мындай AI адамдардан акылдуураак болушу мүмкүн (супер-акылдуу AI боюнча менин изилдөөм үчүн, караңыз. камтуу бул жерде).

Келгиле, нерселерди жер бетине түшүрүп, бүгүнкү эсептөөчү сезилбеген AIны карап көрөлү.

Бүгүнкү AI адамдын ой жүгүртүүсү менен бирдей эч кандай модада “ойлоого” жөндөмсүз экенин түшүнүңүз. Alexa же Siri менен баарлашканыңызда, сүйлөшүү мүмкүнчүлүктөрү адамдын мүмкүнчүлүктөрүнө окшош сезилиши мүмкүн, бирок чындыгында ал эсептөөчү жана адамдын таанып-билүү жөндөмү жок. AIнын акыркы доору эсептөө үлгүлөрүн дал келүүнү камсыз кылган Machine Learning (ML) жана Deep Learning (DL) кеңири колдонду. Бул адамга окшош өңүттөгү AI системаларына алып келди. Ошол эле учурда, бүгүнкү күндө жалпы акылга окшош бир дагы AI жок жана адамдын күчтүү ой жүгүртүүсүнүн когнитивдик кереметтери жок.

ML/DL эсептөө үлгүсүн далдаштыруунун бир түрү. Кадимки ыкма сиз чечим кабыл алуу тапшырмасы жөнүндө маалыматтарды чогултасыз. Сиз маалыматтарды ML/DL компьютер моделдерине киргизесиз. Бул моделдер математикалык үлгүлөрдү табууга умтулушат. Мындай үлгүлөрдү тапкандан кийин, эгер табылса, AI системасы жаңы маалыматтарга туш болгондо ошол үлгүлөрдү колдонот. Жаңы маалыматтар берилгенден кийин, учурдагы чечимди чыгаруу үчүн "эски" же тарыхый маалыматтарга негизделген үлгүлөр колдонулат.

Менимче, сиз бул кайда бара жатканын биле аласыз. Эгерде чечимдерди кабыл алган адамдар терс көз караштарды камтыса, анда маалыматтар муну тымызын, бирок маанилүү жолдор менен чагылдырат. Machine Learning же Deep Learning эсептөө үлгүсүн дал келтирүү жөн гана тиешелүү түрдө маалыматтарды математикалык тууроого аракет кылат. AI тарабынан жасалган моделдөөнүн жалпы акыл-эстин же башка сезимтал аспектилердин окшоштугу жок.

Андан тышкары, AI иштеп чыгуучулар да эмне болуп жатканын түшүнбөй калышы мүмкүн. ML/DLдеги сырдуу математика азыр жашырылган калпыстыктарды жоюуну кыйындашы мүмкүн. Сиз AI иштеп чыгуучулары потенциалдуу көмүлгөн тенденцияларды сынашат деп үмүттөндүңүз жана күтөсүз, бирок бул көрүнгөндөн алда канча татаал. Салыштырмалуу кеңири тестирлөө менен дагы ML/DL үлгүсүнө дал келген моделдердин ичинде калпыстыктар сакталат деген чоң мүмкүнчүлүк бар.

Сиз кандайдыр бир атактуу же атагы чыккан таштандыны таштандыдан чыгаруу деген макалды колдонсоңуз болот. Эң негизгиси, бул AIнын ичине кирип кеткен көзкараштар катары тымызын түрдө пайда болгон бир тараптуулукка көбүрөөк окшош. AIнын алгоритмдик чечимдерди кабыл алуу (ADM) аксиоматикалык түрдө теңсиздикке толгон.

жакшы эмес.

Кызыл туу AI мыйзамдарына көңүл буралы.

Негизги концепция, адамдар AI системасы ашыкча калыс же басмырлоочу режимде иштеп жатат деп ишенген сайын кызыл желек көтөрө алышат. Сиз физикалык желекти көтөрбөйсүз, анын ордуна жөн гана кооптонууларыңызды билдирүү үчүн кандайдыр бир электрондук каражаттарды колдонмоксуз. Схема же ыкманын кызыл желек бөлүгү физикалык ишке ашырууга караганда метафора болуп саналат.

Сиз үй кредитине арыз берип жаткандай түр көрсөтүңүз. Насыя алуу үчүн онлайн банкинг кызматын колдонууну тандайсыз. Кээ бир жеке маалыматтарды киргизгенден кийин, сиз насыя алууга татыктуу же жокпу, чечим кабыл алуу үчүн колдонулган AI тутумун бир аз күтөсүз. AI сизге насыя алуудан баш тартканыңызды айтат. Сиз эмне үчүн четке кагылганыңызды түшүндүрүүнү талап кылгандан кийин, тексттик баяндоо сизге AI чечим кабыл алуу алгоритминин бир бөлүгү катары ашыкча объективдүү факторлорду колдонуп жатканын сунуштайт.

AI жөнүндө Кызыл Тууну көтөрүүгө убакыт келди.

Бул кызыл желек так кайда желбиреп турат?

Бул миллион долларлык суроо.

Бир көз карашта, биз адамдарга AI-тиешелүү кызыл желектерди белгилөөгө мүмкүндүк бере турган жалпы улуттук маалымат базасын түзүшүбүз керек. Айрымдар муну федералдык өкмөт жөнгө салышы керек дешет. Федералдык агенттиктер кызыл желектерди текшерүүгө жана жалпы коомчулукка жардамга келүүгө жана кызыл желектин отчеттук санын көбөйткөн "жаман AI" менен күрөшүүгө жооптуу болушат.

Улуттук Кызыл Туу AI мыйзамы Конгресс тарабынан түзүлөт окшойт. Мыйзам AI-тиешелүү кызыл желек деген эмне экенин айтып берет. Мыйзам бул AI грузердик кызыл желектердин кантип көтөрүлөрүн сүрөттөйт. Жана башка. Ошондой эле айрым штаттар өздөрүнүн Red Flag AI мыйзамдарын иштеп чыгууну тандашы мүмкүн. Балким, алар муну улуттук демилгенин ордуна жасашат же өзгөчө алардын өзгөчө абалына жаккан маалыматтарды күчөтүү үчүн жасашат.

Федералдык же өкмөт тарабынан колдоого алынган Red Flag AI программасын сындагандар бул жеке өнөр жай жасай ала турган нерсе жана бизге Чоң бир туугандын биринчи планга чыгышынын кереги жок деп ырасташат. Өнөр жай онлайн репозиторийди түзө алат, анда адамдар AI системалары жөнүндө кызыл желектерди каттай алышат. Тармактын өзүн-өзү көзөмөлдөө аракети бул маселелерди чечүүгө жетиштүү болмок.

Өнөр жай мамилеси боюнча кооптонуу - бул кронизмге окшоп кетет. Фирмалар Red Flag AI маалымат базасына баш ийүүгө даярбы? Көптөгөн фирмалар AI жөнүндө белгиленген кызыл желектерге көңүл бурушпайт. Киргизилген кызыл желектер менен күрөшүү үчүн компанияларды алуу үчүн курч тиштер болмок эмес.

Эй, жеке сектордун жактоочулары үнсүз, бул улуттук Yelp сыяктуу кызматка окшош. Керектөөчүлөр кызыл желектерди карап, AI-багытталган кызыл желектердин бир тобун чогулткан компаниялар менен бизнес кылгысы келеби же жокпу, өздөрү чече алышат. AI жөнүндө көптөгөн кызыл желектерди алган банк көңүл буруп, AI тутумдарын жаңыртуусу керек, логикага ылайык, антпесе керектөөчүлөр фирмадан чума сыяктуу качышат.

Бул бүтүндөй мамиле өкмөт тарабынанбы же өнөр жай тарабынанбы, бул сунушталган Кызыл туу AI мыйзамдарынын постулатынын алдында турган татаал суроолор боюнча айсбергдин чети гана.

Өзүңүздү AI өнүккөн же колдонуп жаткан фирманын ордуна коюңуз. Бул керектөөчүлөр кызыл желектерди көтөрүп чыгышы мүмкүн, бирок бул үчүн эч кандай негиз жок. Эгерде адамдар AI жөнүндө кызыл желекти ээн-эркин жайгаштыра алышса, алар муну каалоо менен жасоого азгырылышы мүмкүн же керектөөчүгө эч кандай жамандык кылбаган фирмадан өч алуу үчүн болушу мүмкүн.

Кыскача айтканда, AI жөнүндө көптөгөн жалган позитивдүү Кызыл желектер болушу мүмкүн.

Дагы бир жагдай - бул кызыл желектердин чоңдугу же чоңдугу. Миллиондогон миллиондогон кызыл желектер оңой эле көтөрүлүшү мүмкүн. Ошол кызыл желектерди ким ээрчийт? Мындай кылуунун баасы кандай болот? Кызыл тууну кийинки аракеттерди ким төлөйт? Жана башкалар.

Эгерде сиз AI жөнүндө кызыл желекти каттаган же кабарлаган адам акы төлөшү керек деп айтсаңыз, анда сиз бүдөмүк жана тымызын чөйрөгө киргенсиз. Байлар гана кызыл желектерди көтөрө алат деген кооптонуу болмок. Бул өз кезегинде жакырлар кызыл желектеги иш-чараларга бирдей катыша албай турганын жана терс AI жөнүндө эскертүү үчүн эч кандай жери жок экенин билдирет.

Азырынча дагы бир кошумча бурулуш, тактап айтканда, AI жөнүндө мындай кызыл желек мыйзамдары же көрсөтмөлөрү алдын ала эскертүү катары эмес, фактыдан кийин болуп жаткандай сезилет.

Кызыл туу жол кыймылынын мыйзамдарына кайрылсак, кызыл желек колдонуунун басымы кырсыктын алдын алуу болгон. Кызыл желекче алдыда келе жаткан машинадан алда канча озуп кетиши керек эле. Унаадан алдыда болуу менен малга эскертүү берилет жана малды кайтаргандар жакында келе турган коркунучтуу булактан улам сактык чараларын көрүшү керектигин билишет.

Эгерде адамдар AI жөнүндө кызыл желек көтөрө алышса, бул алардын укуктарына зыян келтирген же кемсинткен болсо, анда ылакап ат сарайдан чыгып кеткен. Мунун баары аткарыла тургандай сезилет деп үмүттөнөм, башка адамдар эми ошол AI тутумунан этият болушат. Ошол эле учурда, зомбулукка кабылды делген адам буга чейин эле жабыр тарткан.

Кээ бирөөлөр, балким, адамдарга AI жөнүндө кызыл желектерди көтөрүүгө уруксат беришибиз мүмкүн деп айтышат шектүү Алар AI колдонбосо жана AI түздөн-түз таасирин тийгизбесе дагы, бир тараптуу болушу мүмкүн. Ошентип, зыян келтирилгенге чейин кызыл желек желбиретилет.

Ооба, кайталайт, сиз чындап эле AI менен күрөшүүчү кызыл желектерди толугу менен башкарылгыс жана башаламан ишке айлантасыз. Эгерде кимдир бирөө кандайдыр бир себеп менен AI системасы жөнүндө кызыл желек көтөрө алса, ал AI менен эч нерсе кылбаганына карабастан, сиз кызыл желектерге толуп каласыз. Андан да жаманы, буудайды топондон ажырата албайсың. Бүт кызыл желекче мамиле өз салмагынын астында кыйрап, флотсам жана риффрафф бүт кемени чөктүрүүгө мүмкүндүк берүү менен идеянын жакшылыгын жокко чыгарат.

Баш айлантуу жана чаташтыруу.

Бул олуттуу талкуунун дал ушул маалында, сиз бул теманы чагылдыра турган айрым иллюстративдик мисалдарды каалайсыз деп ишенем. Менин жүрөгүмө жакын мисалдардын өзгөчө жана албетте популярдуу топтому бар. Көрдүңүзбү, менин AI боюнча эксперт катары, анын ичинде этикалык жана укуктук кесепеттерге байланыштуу, менден теманын бир аз теориялык табиятын оңой түшүнүү үчүн AI этикасынын дилеммаларын көрсөткөн реалдуу мисалдарды аныктоону суранышат. Бул этикалык AI туңгуюгун ачык көрсөткөн эң таасирдүү аймактардын бири AIга негизделген чыныгы өзүн-өзү башкаруучу унаалардын пайда болушу. Бул тема боюнча кеңири талкуулоо үчүн ыңгайлуу колдонуу учуру же үлгү катары кызмат кылат.

Бул жерде ойлонууга арзырлык бир суроо бар: AI негизделген чыныгы өзүн-өзү айдай турган унаалардын пайда болушу Red Flag AI мыйзамдары жөнүндө эч нерсени жарыктандырабы, эгер ошондой болсо, бул эмнени көрсөтөт?

Мага суроону ачууга бир азга уруксат бериңиз.

Биринчиден, чыныгы өзүн-өзү башкаруучу унаага катышкан адам айдоочу жок экенин белгилей кетүү керек. Чыныгы өзүн-өзү айдай турган унаалар AI айдоо системасы аркылуу айдалат. Рулда айдоочунун кереги жок, унааны адам башкара турган шарт жок. Автономдуу унаалар (АВ) жана өзгөчө өзүн өзү башкарган унаалар тууралуу кеңири жана үзгүлтүксүз чагылдыруу үчүн, караңыз бул жерде шилтеме.

Мен чыныгы өзүн-өзү башкаруучу унааларга кайрылганда эмнени билдирерин дагы тактагым келет.

Өзүн өзү айдай турган автоунаалардын деңгээлин түшүнүү

Тактап айтканда, чыныгы өзүн-өзү башкарган унаалар AI унааны толугу менен өз алдынча айдаган унаалар болуп саналат жана айдоо тапшырмасы учурунда эч кандай адам жардамы жок.

Бул айдоочусу жок унаалар 4-деңгээл жана 5-деңгээл деп эсептелет (менин түшүндүрмөнү караңыз бул шилтемени бул жерде), ал эми адамдын айдоочусу айдоо аракетин биргелешип бөлүшүүнү талап кылган унаа адатта 2 же 3-деңгээлде каралат. Айдоо милдетин биргелешип аткарган унаалар жарым-жартылай автономдуу деп сыпатталат жана адатта ар кандай унааларды камтыйт. ADAS (Advanced Driver-Assistance Systems) деп аталган автоматташтырылган кошумчалар.

5-деңгээлде чыныгы өзүн-өзү башкара турган унаа азырынча жок жана биз буга жетүү мүмкүнбү же жокпу, же ал жакка жетүү үчүн канча убакыт талап кылынарын азырынча билбейбиз.

Ошол эле учурда, 4-деңгээлдеги аракеттер акырындык менен өтө тар жана тандалма коомдук жол сыноолорунан өтүү менен бир аз тартууга аракет кылууда, бирок бул сыноого уруксат берилиши керекпи же жокпу деген талаштар бар (биз бардыгыбыз экспериментте өмүр же өлүү гвинея чочкобузбуз) Биздин трассаларыбызда жана өтүүчү жолдорубузда болуп жаткандыктан, кээ бирлери айтышат, менин камтууумду караңыз бул шилтемени бул жерде).

Жарым автономдуу автоунаалар адамдык драйверди талап кылгандыктан, ал унаалардын түрүн кабыл алуу кадимки унааларды айдоодон айырмаланбайт, андыктан бул темада алар жөнүндө бир аз жаңылык бар (бирок, сиз көргөндөй) бир аздан кийин, кийинки пункттар негизинен колдонулат).

Жарым автономдуу автоунаалар үчүн, акыркы кездерде пайда болгон тынчсыздандыруучу аспект жөнүндө, айрыкча, 2-деңгээлдеги же 3-деңгээлдеги унаанын дөңгөлөгүндө уктап жаткан видеолорун жарыялап жаткан адамдардын айдоочуларына карабастан, коомчулукка алдын-ала эскертүү керек. , айдоочу жарым автономдуу унааны айдап баратып, алардын көңүлүн айдоо милдетинен алыстатат ​​деп ишендирүүдөн оолак болушубуз керек.

Автоматташтыруу 2 же 3 деңгээлге түшүп кетишине карабастан, автоунаа айдоо аракеттери үчүн сиз жооптуу тарапсыз.

Өзүн башкарган унаалар жана Кызыл желек AI мыйзамдары

4 жана 5-деңгээлдеги чыныгы өзүн-өзү айдаган унаалар үчүн айдоочулук милдетке тартылган адам болбойт.

Баардык жүргүнчүлөр жүргүнчүлөр болушат.

AI айдап бара жатат.

Тез арада талкуулоонун бир аспектиси бүгүнкү КТ айдоо тутумуна кирген КТнын сезимтал эместигине алып келет. Башка сөз менен айтканда, жасалма интеллект компьютердик программалоонун жана алгоритмдердин жамааты болуп саналат жана албетте, адамдар ойлогондой ой жүгүртө албайт.

Эмне үчүн бул AIга кошумча басым сезимтал эмес?

Анткени мен КТ айдоо системасынын ролу жөнүндө сөз болгондо, мен КТга адамдык сапаттарды бербейм деп баса белгилегим келет. Бүгүнкү күндө КТны антропоморфизациялоонун туруктуу жана кооптуу тенденциясы бар экендигин унутпаңыз. Түпкүлүгүндө, адамдар бүгүнкүдөй КТнын жок экендигинин талашсыз жана талашсыз фактысына карабастан, бүгүнкү күндө КТга адамдыкындай сезимдерди беришет.

Ушул тактоонун жардамы менен, сиз AI айдоо тутуму кандайдыр бир жол менен айдоонун жактары жөнүндө "билбейт" деп элестете аласыз. Айдоо жана ага байланыштуу бардык нерселер өзүн өзү башкаруучу машинанын аппараттык жана программалык камсыздоосунун бир бөлүгү катары программаланган болушу керек.

Келгиле, ушул темада ойноого келген көптөгөн аспектилерге сүңгүп кирели.

Биринчиден, AI өзүн-өзү айдай турган унаалардын бардыгы бирдей эмес экенин түшүнүү керек. Ар бир унаа өндүрүүчү жана өзүн-өзү айдай турган технологиялык фирма өзүн өзү айдай турган унааларды ойлоп табууга өзүнүн мамилесин көрүп жатат. Ошентип, AI айдоо тутумдары эмне кылаары же кылбашы жөнүндө кеңири билдирүүлөрдү жасоо кыйын.

Мындан тышкары, качан AI айдоо системасы кандайдыр бир нерсени жасабайт деп айткандан кийин, муну кийинчерээк компьютерди ошол нерсени жасоого программалаган программисттер басып кетиши мүмкүн. Кадам сайын AI айдоо системалары акырындык менен өркүндөтүлүп жана кеңейтилип жатат. Бүгүнкү күндө бар болгон чектөө системанын келечектеги итерациясында же версиясында жок болушу мүмкүн.

Бул мен айтып жаткан нерсенин негизинде жетиштүү эскертүүлөрдү берет деп үмүттөнөм.

Келгиле, Red Flag AI мыйзамын колдоно турган сценарийди карап көрөлү.

Сиз AI негизиндеги өзүн өзү башкарган унаага отурасыз жана автономдуу унаа сизди жергиликтүү азык-түлүк дүкөнүңүзгө жеткирүүнү каалайсыз. Салыштырмалуу кыска саякат учурунда AI сизге бир аз туура эместей көрүнгөн жолду тандайт. Эң түз жол менен баруунун ордуна, AI жолдон тышкаркы көчөлөргө багыт алат, бул айдоо убактысынын адаттагыдан жогору болушуна алып келет.

Бул иштер кандай жүрүп жатат?

Өзүн-өзү башкаруучу унааны колдонуу үчүн төлөп жатасыз деп ойлосоңуз, AI жол киренин же баасын көтөрүү үчүн узунураак каттамдарды айдоо үчүн программаланган деп шектениши мүмкүн. Кадимки адам башкарган таксиге отурган ар бир адам метрге көбүрөөк камыр алуу үчүн кандай амалкөйлүк болоорун билет. Албетте, таксиде же эквивалентинде баратканда смартфондорунда GPS бар адамдар менен, керексиз узак маршруттарды тымызын басып бараткан айдоочуну оңой эле кармай аласыз.

Маршрут тандоодо дагы бир тынчсыздануу бар экен, чындап эле сизди кемирген нерсе.

Маршруттук расалык жактардан улам шаардын айрым бөлүктөрүнөн качуу үчүн жасалды дейли. Мындай тандоолорду жасаган адам айдоочуларынын документтештирилген учурлары бар, менин талкууну караңыз бул жерде шилтеме. Балким, AI анын тескери программаланган болушу мүмкүн.

Сиз кызыл желек көтөрүүнү чечти.

Талкуу үчүн, сиздин юрисдикцияңызды камтыган Кызыл желек AI мыйзамы кабыл алынган деп коёлу. Бул жергиликтүү мыйзам, мамлекеттик мыйзам, федералдык же эл аралык мыйзам болушу мүмкүн. Мен Гарварддын Автономдуу Унаа Саясаты Демилгеси (AVPI) менен биргелешип жазган талдоо үчүн, жамааттар өзүн-өзү башкаруучу унааларды колдонууну кабыл алган учурда жергиликтүү лидерликтин маанилүүлүгүнүн жогорулашы жөнүндө, караңыз. бул жерде шилтеме.

Ошентип, сиз онлайн режиминде Red Flag AI базасына өтөсүз. Окуялар базасына сиз өзүн-өзү айдаган унаа сапары тууралуу маалыматты киргизесиз. Бул өзүн-өзү айдаган унаанын маркасы жана модели менен бирге айдоочу жүрүштүн датасы жана убактысын камтыйт. Андан кийин сиз шектүү көрүнгөн навигациялык маршрутка киресиз жана сиз AI бир жактуу же дискриминациялык ниет жана мүмкүнчүлүктөр менен иштелип чыккан деп сунуштап жатасыз же ачык эле ырастап жатасыз.

Бул сценарийде мындан ары эмне болору жөнүндө Кызыл туу AI мыйзамынын башка өзгөчөлүктөрү жөнүндө ой жүгүртүшүбүз керек. Теориялык жактан алганда, кимдир бирөө кызыл желекти карап чыгуу үчүн жобо болмок. Алар, кыязы, автоконструкциялоочудан же өзүн-өзү айдаган технологиялык фирмадан кызыл желекке өз көз карашын түшүндүрүүгө аракет кылышат. Ушундай дагы канча кызыл желекчелер катталды? Бул кызыл желекчелер кандай натыйжаларды берди?

Анан дагы улана бермек.

жыйынтыктоо

Акылсыз, кээ бир скептиктер чакырат.

Бизге Red Flag AI мыйзамдарынын кереги жок, алар катуу аракет кылышат. Мындай нерсени жасоо AI темпи жана прогресси жөнүндө сөз болгондо ишти жакшыртат. Мындай мыйзамдардын баары ээн-эркин болмок. Сиз көйгөйдү чечпей турган көйгөй жаратмаксыз. AI менен күрөшүүнүн башка жолдору бар, алар жаман. Бир жактуу AI менен күрөшүү үчүн сабандарды сокурдук менен кармабаңыз.

Тестирлөө менен биз баарыбыз билебиз, корридачылар кыязы, ачууланган буканын көңүлүн өзүнө буруу үчүн кызыл капчыктарды колдонушат. Кызыл түстү биз бул практика менен эң көп байланыштырган түс болсо да, илимпоздордун букачар мулетанын кызыл түсүн (алар кызылдан сокур) кабыл алышпайт деп айтышканына таң калышыңыз мүмкүн. Популярдуу шоу MythBusters бул маселе боюнча абдан кызыктуу экспертиза жасады. Каптын кыймылы тандалган түскө караганда негизги элемент болуп саналат.

Red Flag AI мыйзамдарынын зарылдыгын четке каккандар үчүн каршы доомат, AI иштеп чыгуучулары жана AIди жайылткан фирмалар бир жактуу же жаман AIден оолак болушуна ынануу үчүн бизге драмалык жана жаңылышпас толкундоо мүнөзүндөгү нерсе керек. Эгерде кызыл желек болбосо, балким, желбиреген капчык же кандайдыр бир эскертүүчү ыкма тийиштүү түрдө каралышы мүмкүн.

Биз жаман AI бар экенин жана дагы бир топ жаман AI биздин тарапка бараарын так билебиз. Өзүбүздү терс AIден коргоонун жолдорун табуу абдан маанилүү. Ошо сыяктуу эле, жаман AI дүйнөгө кирүүсүн токтотуу үчүн тосмолорду орнотуу да бирдей маанилүү.

Эрнест Хемингуэйдин айтымында, корридачылардан башка эч ким өмүр бою жашабайт. Биз адамдар AI жамандыгы же жиндилиги бизге жарыя кылынганына карабастан, өз өмүрүн бардык жол менен жашай алышына ынанышыбыз керек.

Булак: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- autonomous-ai-системасындагы объективдүү алгоритмдер/