AI этикасы AI жаман иш кылганы үчүн жоопкерчиликти камсыз кылуу үчүн күнөөдөн арылтуучу каражаттарды мыйзамдуу түрдө милдеттендирүүнүн артыкчылыктарын талкуулоодо

Ким күнөөлүү?

Бул жөнөкөй суроо сыяктуу сезилиши мүмкүн, бирок легендарлуу Эбботт менен Костеллонун дуэтинин бейсбол командасы жөнүндө атактуу комедиясында "ким" башаламан болушу мүмкүн. Сиз менен бүдөмүк тааныш болушуңуз мүмкүн Ким Биринчи алар бардык убактагы эң туруктуу скиттердин бирине айланган комедиялык көнүмүш (аны укпагандар үчүн спойлер эскертүүсү).

Эбботт Костеллого ким биринчи, эмне экинчи, жана мен билбейм үчүнчү орунда экенин айтат. Акылдуу куулук биринчи подвалдын аты Ким, экинчи подвалдын аты эмне, үчүнчүнүн аты Мен билбейм. Албетте, бул фразалар да өзүнүн шарттуу маанисине ээ жана ошондуктан Эбботтун айткандарын чечмелөөгө аракет кылуу таптакыр таң калыштуу болушу мүмкүн. Чынында эле, Костелло биринчи кезекте ким экени тууралуу зыянсыздай көрүнгөн суроону берет, анын жообу так "ооба" деп айтылат. Бирок бул Костелло үчүн мааниси жок, анткени ал ысым күткөн жана анын ордуна таң калыштуу ооба деп жооп алган.

Жасалма интеллекттин (AI) пайда болушуна келгенде, тиштерди алмаштыруу, AI адашып кеткенде ким же эмне үчүн жоопкерчиликке тартылат деген суроону талап кылат.

Мен мурда AI кылмыштуу аракеттерге алып барганда же жасаганда кылмыш жоопкерчилигин талкууладым. бул жерде шилтеме. Жарандык жоопкерчилик маселеси дагы бар, мисалы, AI сизге туура эмес иш кылганда кимди же эмнени сотко беришиңиз мүмкүн, бул мен бул жерде талкуулай турган тема. Мунун баарында AI этикасынын олуттуу пикирлери бар. Менин AI этикасы жана этикалык AI жөнүндө үзгүлтүксүз жана кеңири чагылдыруу үчүн караңыз бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

AI этикасынын осуяттары бизди сергек болууга түрткү берет. AI технологдору кээде технология менен, айрыкча жогорку технологияны оптималдаштыруу менен алек болушу мүмкүн. Алар сөзсүз түрдө чоң социалдык кесепеттерди эске алышпайт. AI этикасынын ой жүгүртүүсүнө ээ болуу жана аны AI иштеп чыгуу жана жайылтуу үчүн интегралдык түрдө жасоо ылайыктуу AI өндүрүү үчүн абдан маанилүү, анын ичинде AI этикасынын фирмалар тарабынан кандайча кабыл алынаарына баа берүү (балким таң калыштуу же ирониялык).

Жалпысынан AI этикасынын осуяттарын колдонуудан тышкары, бизде AIнын ар кандай колдонулушун жөнгө салуучу мыйзамдар болушу керекпи деген тиешелүү суроо бар. Жаңы мыйзамдар федералдык, штаттык жана жергиликтүү деңгээлдерде AI кантип иштелип чыгышы керектигинин диапазону жана мүнөзүнө тиешелүү. Мындай мыйзамдарды иштеп чыгуу жана кабыл алуу аракети акырындык менен жүрүп жатат. AI этикасы, жок эле дегенде, токтоолук катары кызмат кылат жана кандайдыр бир деңгээлде түздөн-түз ошол жаңы мыйзамдарга киргизилет.

Эсиңизде болсун, кээ бирөөлөр бизге AI камтыган жаңы мыйзамдардын кереги жок жана азыркы мыйзамдарыбыз жетиштүү деп ырасташат. Чынында, алар алдын ала эскертишет, эгерде биз бул AI мыйзамдарынын айрымдарын кабыл алсак, AIдагы жетишкендиктерди кыскартуу менен биз алтын казды өлтүрөбүз, бул чоң социалдык артыкчылыктарды берет.

Учурдагы мыйзамдар коомдо AI системаларынын пайда болушун адекваттуу түрдө чече алабы же жокпу деген кызуу талкуу жүрүп жатат. Юридикалык жоопкерчилик, адатта, зыяндуу жүрүм-турум үчүн ким жооптуу экенин эшектин үстүнө кадап коюуну талап кылат. AI учурда, белгилүү бир адамды же адамдарды кандайдыр бир зыяндуу иш-аракеттерди жасаган AI менен байланыштырган түшүнүксүз жол болушу мүмкүн. AI түзгөн булак же ойлоп табуучу үчүн AI негизинен байкалбай калышы мүмкүн.

Дагы бир жагдай, AIнын тамыры кимдир бирөөдөн изделсе да, адам же адамдар AI пайда кылган жагымсыз натыйжаны негиздүү алдын ала көрө алган жокпу деген суроо туулат. Юридикалык жоопкерчиликти баалоодо адаттагыдай көрүнүктүү фактор болуп саналат.

Сиз жөн гана AIнын артынан барып, AIны жоопкерчиликтүү же келтирилген зыян үчүн жооптуу юридикалык тарап деп атай аласыз деп ойлошуңуз мүмкүн. Жалпысынан алганда, басымдуу юридикалык көз караш AI али юридикалык жактардын деңгээлине жете элек. Ошентип, сиз так айтканда, AI төлөп берүүгө аракет кыла албайсыз жана көшөгө артында рычагдарды иштеткен адамдарды табышыңыз керек болот (AI үчүн юридикалык жак катары менин талдоом үчүн, караңыз. бул жерде шилтеме).

Бул потенциалдуу юридикалык баткактардын бардыгына кыска мөөнөттүү же балким узак мөөнөттүү жол менен мүмкүн болгон чара катары жайылган идея кирет. Идея, балким, AI тарабынан жабыр тарткандарга каржылык жардам көрсөтүү үчүн атайын компенсациялык фонд түзүү керек. Эгерде сиз башка жол менен AI сизге компенсация төлөй албасаңыз жана сиз жоопко тартылышы керек болгон адамдарды таба албасаңыз, кийинки эң жакшы вариант AI тарабынан жабыр тарткандарга жардам көрсөтүүгө багытталган компенсациялык фондду колдонуу болушу мүмкүн.

Мындай фонд ойлондурган илимий эмгекте айтылгандай, камсыздандыруунун бир түрүнө окшош болот: «Бул негизи белгисиздиктен камсыздандыруу механизми болот: Жоопкерчиликти талап кылган учурларда тез арада компенсация төлөө үчүн так жана ачык алкак. зыян келтирүүчү жүрүм-турумдун күтүлбөгөн мүнөзүнө, зыяндын (түрүнө) же ашыкча чыгымдарга жана/же процедуранын татаалдыгынан улам белгисиз же ийгиликке жетүүнүн перспективасы жок” (Оливия Эрдели жана Габор Эрделинин макаласы, “AI жоопкерчилиги баш катырмасы” Жана фонддун негизинде иш алып баруу», Жасалма интеллект изилдөө журналы, 2021).

Компенсациялык фонд AI Кепилдик Схемасынын (AIGS) бир бөлүгү болуп калат жана юридикалык жоопкерчилик жөнүндө колдонуудагы мыйзамдарга жеңил-желпи өзгөртүүлөр менен коштолот. Колдонуудагы укуктук режимдерге демонстративдик бир катар өзгөртүүлөр киргизилсе, жеңил тийүү, кыязы, мыйзамдуу жана коомдук тынчсызданууну талап кылбайт жана кабыл алуу оңой болмок. Изилдөөчүлөрдүн айтымында: "Бул биздин ишенимибизди чагылдырат - мындай тез чечүүчү чечимдин жагымдуулугуна карабастан - өзгөрбөгөн колдонуудагы жоопкерчилик эрежелерин AI же а протекционисттик негизде Кандай болбосун, жоопкерчиликти орнотуу максатында катуу жоопкерчиликке кайрылуу үч себеп боюнча туура жооп эмес: Биринчиден, бул эрежелер ар кандай жагдайларга ылайыкташтырылганын жана демек, AI үчүн ылайыксыз болушу мүмкүн экенин эске албай, алар башкаруунун кылдат тең салмакталган максаттарына карама-каршы келет. юридикалык жоопкерчилик системасы. Экинчиден, алар жазалоочу ыкманы колдонуу менен AI инновациясына бөгөт коюшат. Үчүнчүдөн, катуу жоопкерчиликке негизсиз кайрылуу алдын ала көрүүгө мүмкүн болгон жана күнөөлүү көйгөйлөрдү жоюунун ордуна догматикалык карама-каршылык менен гана айланып өтөт» (жогоруда келтирилген кагаз боюнча).

Мындай AI компенсациялык каражаттардын пайдасына аргументтер төмөнкүлөрдү камтыйт:

  • AI келтирген зыяндар менен күрөшүү үчүн узакка созулган жана кымбат баалуу сот процесстеринин зарылдыгын азайтат
  • Адамдарды AI колдоно аларына жана зыян келтирсе, компенсация ала аларына ынандырат
  • AI инноваторлоруна туш болгон юридикалык белгисиздикти жеңилдетүү менен AI инновациясын кубаттайт
  • Колдонуудагы мыйзамдарга массалык өзгөртүүлөрдү киргизүүгө караганда алда канча тезирээк колдонууга коюлушу мүмкүн
  • Ишенимдүү жана оңой жеткиликтүү болгон салыштырмалуу так каражатты сунуштайт
  • башка

Ошол эле учурда, AI компенсациялык каражаттардын мамилесине каршы чыккандар мындай дешет:

  • Келгиле, AI жасоочуларга ашыкча көнүл буралы жана аларга жоопкерчиликтен баш тартууга мүмкүнчүлүк берели
  • AI жасоочуларга коопсуздукту жана тийиштүү башкарууну талап кылбаган AI жасоого түрткү берет
  • Адамдарды AI зыяны тууралуу жалган билдирүүгө түртүшү мүмкүн, ошондо алар каражатты колдоно алышат
  • AI жетиштүү түрдө башкаруу үчүн мыйзамдарыбызды кайра карап чыгуунун чыныгы зарылдыгын четке кагып, жокко чыгарат
  • Каражаттарды туура эмес пайдаланган бюрократиялык коркунучтуу түшкө айланып кетиши мүмкүн
  • башка

Көрүнүп тургандай, бул такыр талаштуу түшүнүктүн жактоочулары да, каршылаштары да бар.

Кыскача AI компенсациялык фондун зыян келтирүүчү AI жөнүндө өсүп жаткан кооптонууларга потенциалдуу мамиле катары жокко чыгаруу кыйынга турат. Сунушталган чечим да слем-данк эмес.

Бир көз карашта, AI жасоочулар AI иштеп чыгууда жана жайылтууда алардын күч-аракетинин бир бөлүгү катары каражатка акча салышы керек. Бул алардын AI дүйнөгө чыгаруу мүмкүнчүлүгүнө ээ болуу үчүн талап кылынган төлөм же салыктын бир түрү катары чечмелениши мүмкүн. Бирок бул кошумча чыгым бүгүнкү AIнын чектерин түртүүгө аракет кылып жаткан стартаптардын аракеттерин басаңдатабы? Ал эми AI жасоочулар өз акысын же салыкты төлөшүнө ынануу кандайча каралат?

Көптөгөн суроолор туулат жана аларды чечүү керек:

  • AI компенсациялык фонду кайсы өлкөлөрдө ишке ашса болот?
  • Өз ара байланышкан AI компенсациялык фонддорунун глобалдык окшоштугу түзүлүшү мүмкүнбү?
  • Мындай каражаттар менен байланышкан деталдуу жана иштей турган механизмдер кандай болмок?
  • AI компенсациялык каражаттары кандайча каржыланат (мамлекеттик, жеке, кайрымдуулук)?
  • Бул күнөөсүз камсыздандыруу негизи болобу же башка ыкма колдонулабы?
  • Ж.б.

Буга чейин AI компенсациялык каражаттар идеясын камтыган чөйрө автономдуу унаалар жана өзүн өзү башкарган унаалар сыяктуу автономдуу системалардан турат. Өзүн-өзү башкаруучу унаалар жана AI автономдуу тутумдары жөнүндө менин камтуум үчүн караңыз бул жерде шилтеме.

Бул AI негизиндеги өзүн-өзү башкара турган унаалар үчүн бул кандайча иштеши жөнүндө эскиз.

Автоунаа велосипедченди сүзүп кетти дейли. Велосипедчи жабыркады. Велосипедчи автономдуу унааны өндүрүүчүгө куугунтуктоо менен юридикалык жактан коргоону издеши мүмкүн. Же алар AI айдоо системасын жасаган өзүн-өзү айдай турган технологиялык фирманы көздөшү мүмкүн. Эгер өзүн-өзү башкара турган унаа парк катары иштетилсе, анда дагы бир мыйзамдуу жол парк операторун издөө болот. AIны сотко берүүгө аракет кылуу азыркы учурда мүмкүн эмес, анткени AIнын юридикалык жак экендиги али аныктала элек.

Ошол тараптардын бирине каршы мыйзамдуу чараларды көрүүнүн ордуна, дагы бир жолу ылайыктуу AI компенсациялык фондуна арыз же доо арыз берүү болот. Фонд дооматты кароону камтыган процесстерди расмийлештирип, андан кийин доогерге компенсациялык төлөмдөр берилиши мүмкүн болсо, эмнени аныктамак. Фонд тарабынан туура эмес түрдө четке кагылды же фонд тарабынан жетишсиз компенсация төлөндү деп эсептеген доогерлерге жардам берүүчү даттануу процесси болушу мүмкүн.

Теориялык жактан алганда, AI компенсациялык фонду келтирилген зыяндын ордун толтуруунун тезирээк жолу болмок. Сиз сот процесси канчалык оор болорун элестете аласыз, ал аркылуу соттолуп жаткан фирмалар ишти аягына чыгарууга аракет кылышы мүмкүн.

Адвокаттар AI компенсациялык фонду башка тараптарга, мисалы, AI жасоочуларга велосипедченди сүзүп кеткен коомдук жолдордо өзүн-өзү башкарган унаасын коё бергендиги үчүн кандайдыр бир так жазадан качууга мүмкүнчүлүк бере аларын баса белгилеши мүмкүн. Бул фирмалар дагы эмнени “байкабай” кылышы мүмкүн? Алардын башына салбырап турган мыйзамдуу кылычтын кыялы болбосо, биз күн сайын коркунуч туудурган жөндөмдүүлүктөргө толгон AI менен беттеше алабыз.

Аргументтер айланып баратат.

жыйынтыктоо

AI этикасы бизге AIнын этикалык жана укуктук кесепеттерин ар дайым эске алышыбыз керектигин эскертет. AI компенсациялык каражаттардын бул учурда, AI зыян тарткандарды компенсациялоо үчүн камсыздандырууга окшогон каражаттардын пулу жөнүндө сунушталган түшүнүк жагымдуу көрүнөт. Каражаттар ошол жерде күтүп тургандай сезилет, аларды колдонууга жана мүмкүн болушунча тез арада компенсация берүүгө даяр.

Бул азыраак жана азыраак коопсуздукту башкарууга ээ болгон AI жасоого жол ача алабы деген талаш-тартыштар коркунучтуу жана өтө реалдуу тынчсызданууну жаратат. Биз, балким, бир аз жүрүп жаткан отко май куюунун кереги жок чыгар.

Кандайдыр бир жол менен биз AI жаратуучуларды тийиштүү этикалык AI ойлоп табууга жана ошол эле учурда AI компенсациялык фонддорун түзө алабызбы?

Кээ бирөөлөр ооба, биз алабыз дешет. Колдонуудагы мыйзамдарды AI компенсациялык фонддоруна шайкеш келтирүү менен, AI тарабынан зыян тарткандар өздөрүнүн адилет компенсациясын издөө үчүн эки жолго ээ болушу мүмкүн.

Ким биринчи?

Ооба, бул (баарыбыздагыдай эле) биз AI компенсациялык каражаттардын потенциалдуу колдонулушу жөнүндө ойлонушубуз керек жана учурдагы мыйзамдарды бир аз болсо да өзгөртүшүбүз керек, бул жакшы AI менен күрөшүүгө жардам берет. жаман AI.

Бул маанилүү ойдо эч кандай баш аламандык жок.

Булак: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legalally-mandating-atonement-funds-to-ensure-ai- жоопкерчилик/