Укуктук ой жүгүртүүнү AIга киргизүү адамдык баалуулуктарга акылдуу түрдө жетиши мүмкүн дейт AI этикасы жана AI мыйзамы

Бүгүнкү тилкеде мен AI менен байланышкан бир-биринен айырмаланган көптөгөн темаларды бир сонун токулган кездемеге бириктирем.

Даярсыңбы?

Кандайдыр бир маанилүү тапшырманы аткарууда сизге жардам берген AI менен иштеген колдонмону колдонуп жатканыңызды элестетиңиз. Балким, бул каржылык маселе же ден-соолукка байланыштуу болушу мүмкүн. Маңызы, сиз туура нерсени жасоо жана болжолдуу коопсуз жана ишенимдүү түрдө аткаруу үчүн AIга көз каранды экениңизде.

AI этикага туура келбеген аймакка кирип кетти дейли.

Сиз AI ушундай кылып жатканын түшүнбөшүңүз мүмкүн.

Мисалы, AI расса же гендер сыяктуу жашыруун басмырлоочу факторлорго таянышы мүмкүн, бирок сизде туура эмес колдонууну аныктоо үчүн эч кандай мүмкүнчүлүк жок болушу мүмкүн. Мына, сиз жалгыз эле, AI аркылуу таяктын кыска учуна ээ болуп жатасыз, ал башынан эле көйгөйлүү жол менен иштелип чыккан же кыйыр жана чек арадагы этикалык коркунучка дуушар болгон (мен бул жөнүндө көбүрөөк айтып берем) бул бир заматта).

Этикага туура келбеген жолду тандаган AI жөнүндө эмне кылса болот же эмне кылса болот?

Мындай тымызын аракеттерди жасабашы үчүн, AIны алдын ала курууга аракет кылуудан тышкары, мен буга чейин дагы бир нерсени кыстарууга кызыгуу өсүп жатканын деталдаштым. AI этикасын текшерүү Жапайы Батыштын өнүгүп келе жаткан сазына кошулган AI системалары базарга ыргытылат. Идея AI менен туташтырылган колдонмонун этикалык өлчөмдөрдүн чегинен чыгып кетишине жол бербөө үчүн, текшерүү жана балансты жүргүзүү үчүн кошумча AI колдонсок болот. Бул кошумча AI максаттуу AI колдонмосунан тышкары болушу мүмкүн же AIга түздөн-түз орнотулган же имплантацияланган компонент болушу мүмкүн, аны биз эки жолу текшергибиз келет.

Мен буга чейин айткандай, карагыла бул жерде шилтеме: "Жакында пайда болгон тенденция AI тутумунун калган бөлүгү алдын ала белгиленген этикалык чектерден чыга баштаганда, AIга этикалык тосмолорду куруу аракетинен турат. Кандайдыр бир мааниде, максат этикалык жактан бузулуп калбаш үчүн AIнын өзүн колдонуу. Биз AI өзүн айыктырууну көздөп жатабыз деп айта алсаңыз болот" (Лэнс Элиот, "Этикага туура келбеген AIны көзөмөлдөгөн жана жаман AIны иш-аракеттен токтотууга аракет кылган этикалык AI жасоо", Forbes, 28-март, 2022).

Сиз ошондой эле менин китебим боюнча тиешелүү кызыктарды таба аласыз AI камкорчу боттору, кээде камкорчу периштелер деп аталат, ал AI ичинде орнотулган кош текшергичтердин заманбап AI техникалык негиздерин камтыйт, караңыз бул жерде шилтеме.

Жыйынтыктап айтканда, сиздин беконуңуз бактыга жараша, сиз колдонуп жаткан AI колдонмосуна иштелип чыккан жана имплантацияланган AI кош текшерүүчү этикалык өлчөөчү элементтин жардамы менен сакталып калышы мүмкүн. Бирок бул AI сизди толугу менен катуулап, зыяндуу жерге кирбеши үчүн камкорчу үчүн жетиштүүбү?

Көрдүңүзбү, AI колдонмосу кыязы иштей алат легалсыз актылар.

Этикалык же этикага туура келбеген жүрүм-турум деп эсептеген нерселерибиздин боз чөйрөсүнө кирген AI болушу бир нерсе. Ушундай эле тынчсыздандырган жүрүм-турум жана начарлап бара жаткан тынчсыздануу AIга алып келет, ал акуланы жөн эле секирип, мыйзамсыз иш-аракеттердин начар караңгылыгына түшөт.

Мыйзамсыз AI жаман. Мыйзамсыз AIнын кароосуз калышына жол берүү жаман. Кээ бир юрист окумуштуулар AIнын пайда болушу жана кеңири жайылуусу акырындык менен биздин окшоштугубузду коркунучтуу түрдө бузат деп ачык кооптонушат. мыйзамдын үстөмдүгү, менин анализимди караңыз бул жерде шилтеме.

Бир аз күтө туруңуз, балким сиз айтып жаткандырсыз.

Сиз AI иштеп чыгуучулары деп ойлошуңуз мүмкүн эч качан алардын AI мыйзамга каршы чыгуу үчүн программалоо. Элестетпес. Муну каардуу кара ниет адамдар гана жасамак (айтмакчы, AIны жаман максаттарда атайылап ойлоп таап, колдонуп жаткандар бар экенин, кылмышкерлердин жана башкалардын AIны кара ниет иш-аракеттер үчүн колдонууну каалагандардын кызыгуусу өсүүдө).

Кечиресиз, бирок бардык жаман эмес AI иштеп чыгуучулары алардын AI толугу менен мыйзамга баш ийишин катуу текшерет деп ойлошубуз керек. Бул AI өзүн-өзү жөнгө салып, мыйзамсыз иш-аракеттерге кирип кетиши мүмкүн. Албетте, ошондой эле AI иштеп чыгуучулары AI мыйзамсыз иш-аракет кылышын каалашат же алар AI жасап жатканда мыйзамдуу актыларга каршы эмне мыйзамсыз экенин билишпейт (ооба, бул толук мүмкүн, тактап айтканда, бардык технологиялык AI командасы алардын AIнын мыйзамдуу шылуундары жөнүндө билбесе болот, бул актоого болбойт, бирок коркунучтуу жыштык менен болот).

Бул жөнүндө эмне кылсак болот?

Дагы бир жолу, AI сырткы дарбазасынын темирдей бекем жана мыйзамдуу экенине кепилдик берүүдөн тышкары, буу алуу үчүн кошумча ыкма AI колдонмосунун калган бөлүгүн мыйзамдуу түрдө эки жолу текшерген AI компонентин киргизүү же имплантациялоону камтыйт. Унчукпай отуруп, бул кошумча AI AIнын калганын байкап, AI алдамчы болуп кетеби же жок дегенде мыйзамдуу же ченемдик чектөөлөрдүн чегинен өтүп кетеби же жокпу, аныктоо үчүн аракет кылып жатат.

Эми бизде AI кош текшерүүнүн эки түрү бар, алар AI колдонмосуна киргизилиши мүмкүн:

  • AI этикасынын кош текшерүүчүсү: Реалдуу убакытта бул компонент же AI кошумчасы AI көрсөткөн этикалык жана этикага жатпаган жүрүм-турум үчүн AIнын калган бөлүгүн баалайт.
  • AI Юридикалык кош текшерүүчү: Реалдуу убакытта, бул компонент же AI кошумчасы AIнын калган бөлүгүн мыйзамдуу негизги таштардын чегинде калуу жана AI тарабынан пайда болгон мыйзамсыз иш-аракеттерди кармоо үчүн баалайт.

Тактоо үчүн, бул салыштырмалуу жаңы концепциялар жана бүгүнкү күндө сиз колдонуп жаткан AI ушул шарттардын биринде болушу мүмкүн:

  • Эч кандай кош текшергичтери жок AI
  • AI этикасынын кош текшерүүчүсү камтылган, бирок башка кош текшерүүчү жок AI
  • AI Legal кош текшерүүчүсү камтылган, бирок башка кош текшерүүчү жок AI
  • AI этикасынын кош текшерүүчүсү жана AI юридикалык кош текшерүүчүсү бар AI
  • башка

AI этикасынын кош текшерүүчүсү менен AI мыйзамдык кош текшерүүчүсү AI ​​колдонмосунда бир тууган агасы жана эжеси катары жанаша иштешинин бир топ татаал аспектилери бар. Бул дуализмдин бир түрү, аны координациялоо сиз ойлогондон да кыйын (менин оюмча, биз баарыбыз бир туугандар менен тыгыз байланышта боло аларын билебиз, бирок алар да мезгил-мезгили менен диккендер сыяктуу күрөшүп, катуу каршылык көрсөтүшөт. көрүүлөр).

Мен бул оор түрүн көпкө талкууладым дуализм: "Коомдук жакшылык үчүн AIде көңүл бурулбаган дуализм пайда болууда, ал өнүккөн AI тутумдарында жасалма моралдык агенттиктин ролун да, жасалма укуктук ой жүгүртүүнү да камтыбагандыктан. AI изилдөөчүлөрүнүн жана AI иштеп чыгуучуларынын аракеттери AI системасы талаада иштеп жаткан учурда моралдык чечимдерди кабыл алуу үчүн жасалма моралдык агенттерди кантип жасоого жана киргизүүгө басым жасашкан, бирок ошондой эле жасалма укуктук ой жүгүртүү мүмкүнчүлүктөрүн колдонууга көңүл бурган эмес. , бул күчтүү моралдык жана юридикалык натыйжалар үчүн бирдей зарыл” (Лэнс Элиот, “The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good”, Гарвард университетинин CRCS жылдык конференциясы 2020, Гарвард изилдөө жана эсептөө коомунун борбору)

Эгерде сиз AI этикасынын кош текшерүүчүсү менен AI юридикалык кош текшергичинин ортосунда эмне үчүн чыңалуу болушу мүмкүн экенин билгиңиз келсе, анда сиз акыл-эсти ийкемдүү кылган концептуалдык татыктуулуктун бул көрүнүктүү цитатасын таба аласыз: “Мыйзам кандайдыр бир конкреттүү аракеттерге жол бериши мүмкүн, ал иш адеп-ахлаксыз болсо да; жана мыйзам адеп-ахлактык жактан жол берилсе да, адеп-ахлактык жактан талап кылынса да, аракетке тыюу салышы мүмкүн» (Шелли Каган, Адеп-ахлак чектери, 1998).

Келгиле, көңүлүбүздү бир аз башка жакка буралы жана бул кош текшергичтер дагы бир тыкыр текшерилген AI темасына кандайча кирип кеткенин көрөлү. Жооптуу AI же адамдык баалуулуктар менен AIнин шайкештигин макулдашылган кароо.

Жалпы түшүнүк биз туура жана керектүү адамдык баалуулуктарды карманган AI каалайбыз. Айрымдар муну деп аташат Жооптуу AI. Башкалар да ошентип талкуулашат Жоопкерчиликтүү AI, Ишенимдүү AI, жана AI Alignment, булардын бардыгы бир эле негизги принципти козгойт. Бул маанилүү маселелер боюнча менин талкуум үчүн караңыз бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

Кантип AI адамдык баалуулуктарга шайкеш келтире алабыз?

Мурда сунушталгандай, биз AI иштеп чыгуучулары Жооптуу AI кармануусуна ээ болгон AIди иштеп чыгууну билишет деп үмүттөнөбүз. Тилекке каршы, алар мурда айтылган себептерге ылайык, андай болушу мүмкүн эмес. Мындан тышкары, алар буга аракет кылышы мүмкүн, бирок ошентсе да, AI этикалык жүрүм-турумдун көрүнүктүү чөйрөсүнөн тышкары, же, балким, мыйзамсыз сууларга өзүн-өзү жөнгө салуу менен аяктайт.

Макул, анда биз бул тобокелдиктерди жана таасирлерди жоюунун каражаты катары ыңгайлуу данди кош текшергичтерибизди карап чыгышыбыз керек. Жакшы иштелип чыккан AI этикасынын кош текшерүүчүсүн колдонуу AIны адамдык баалуулуктарга шайкеш келтирүүгө материалдык жардам берет. Ошо сыяктуу эле, жакшы иштелип чыккан AI Legal кош текшерүүчүсүн колдонуу AIны адамдык баалуулуктарга шайкеш келтирүүгө олуттуу жардам берет.

Ошентип, Жооптуу AI, Ишенимдүү AI, Жооптуу AI, AI Alignment ж. AI Юридикалык кош текшергич, алар кыналган AI боюнча кош текшерүү катары талыкпай иштей турган.

Бул жердеги талкууда мен AIга киргизилиши мүмкүн болгон AI Юридикалык кош текшергичтеринин табияты жана конструкциялары жөнүндө бир аз көбүрөөк маалымат бергим келет. Бул үчүн, сиз менен жалпы тема боюнча кошумча маалымат менен бөлүшүү пайдалуу болушу мүмкүн AI & Мыйзам.

AI менен мыйзамдын бири-бири менен кантип аралашып кеткени жөнүндө эч кандай мааниси жок изилдөө үчүн, менин талкуумду караңыз бул жерде шилтеме. Менин кыраакы көз карашымда AI & Мыйзам бириктирүү менен, мен AI менен мыйзамды өз ара байланыштыруунун эки негизги жолунун бул түз концепциясын берем:

  • (1) AI үчүн колдонулуучу мыйзам: Биздин коомдо Жасалма интеллектти жөнгө салуу же башкаруу үчүн колдонулган мыйзамдарды иштеп чыгуу, кабыл алуу жана ишке ашыруу
  • (2) AI-колдонулган мыйзам: Жасалма интеллект технологиясы иштелип чыккан жана мыйзамда колдонулган, анын ичинде AI негизиндеги Юридикалык негиздеме (AILR) адвокаттык тапшырмаларды автономдуу же жарым-жартылай автономдуу аткаруу үчүн LegalTech жогорку технологиялык колдонмолоруна киргизилген

Биринчи саналып өткөн көз караш азыркы жана жаңы мыйзамдар AIди кантип башкарарын карап чыгуудан турат. Экинчи саналып өткөн перспектива AIны мыйзамга колдонууга байланыштуу.

Бул акыркы категория, адатта, юристтер колдонгон ар кандай онлайн инструменттерде AI негизиндеги Юридикалык ой жүгүртүүнү (AILR) колдонууну камтыйт. Мисалы, AI жаңы келишимдерди түзүү үчүн пайдалуу боло турган келишимдик тилди аныктоо аркылуу адвокаттарга жардам берген Контракттын Өмүр циклин башкаруу (CLM) пакетинин бир бөлүгү болушу мүмкүн же катачылыктарга же мыйзамдык боштуктарга жол берген мыйзамдуу тилдүү келишимдерди аныктай алат. (Менин “мыйзамдын жыттары” деп аталган нерсеге көз карашым үчүн, аны AI байкай алат, караңыз бул жерде шилтеме).

Биз сөзсүз түрдө AI жалпы коомчулуктун колдонуусу үчүн жеткиликтүү болгон мыйзамга колдонулат жана адвокаттын айлампасында болушун талап кылбайт. Учурда, ар кандай чектөөлөрдүн натыйжасында, анын ичинде UPL (Уруксатсыз Практика), AI негизиндеги юридикалык кеңеш берүү колдонмолорун жеткиликтүү кылуу татаал жана талаштуу маселе. бул жерде шилтеме.

Мен AI жана Мыйзам жөнүндө бул киришүүнү мыйзамда колдонулган AIнын дагы бир инструменталдуу колдонуусу AI Legal кош текшерүүчүлөрүн түзүү болорун белгилей кетүү үчүн келтирдим.

Ооба, AIны мыйзамга колдонууга катышкан ошол эле технологиялык эрдик, AIди орнотулган же имплантацияланган AI Укуктук кош текшерүүчү катары кызмат кылуу үчүн колдонуу менен кош милдет катары кызмат кыла алат. AI Юридикалык кош текшерүүчү - бул юридикалык жактарды билиши керек болгон компонент. Калган AI колдонмосу ар кандай иш-аракеттерди аткарып жатканда, AI Legal кош текшерүүчүсү AI ​​колдонмосу муну мыйзамдуу жана мыйзамдуу чектөөлөр ичинде аткарып жатабы же жокпу, текшерет.

AI Legal кош текшерүүчү компоненти мыйзам жөнүндө билүүгө болгон нерселердин бардыгын толук камтышы керек эмес. Жалпысынан AI колдонмосунун мүнөзүнө жана AIнин максатына жана иш-аракеттерине жараша, AI Legal кош текшерүүчүсү камтылган юридикалык экспертиза жагынан бир топ тар болушу мүмкүн.

Юридикалык домендеги AI автономия деңгээли (LoA) деп аталган бир катар автономдуу мүмкүнчүлүктөр боюнча кандайча диапазонун көрсөтүү үчүн пайдалуу негизди аныктадым. Обзор үчүн менин караңыз Forbes 21-жылдын 2022-ноябрындагы "Юристтер AI жана Мыйзам жөнүндө эмне үчүн билиши керектиги жөнүндө эч нерсеге жарабаган ар тараптуу далилдүү иш" бул жерде шилтеме, жана толук техникалык сүрөттөө үчүн менин терең изилдөө макаламды караңыз MIT Computational Law Journal 7-жылдын 2021-декабрындагы, караңыз бул жерде шилтеме.

Алкак юридикалык аракеттерде колдонулган AIнин беш деңгээлин түшүндүрөт:

  • 0-деңгээл: AI негизиндеги юридикалык иш үчүн автоматташтырылган жок
  • 1-деңгээл: AI негизделген юридикалык иш үчүн жөнөкөй жардам автоматташтыруу
  • 2-деңгээл: AI негизделген юридикалык иш үчүн өркүндөтүлгөн жардам автоматташтырылган
  • 3-деңгээл: AI негизиндеги юридикалык иш үчүн жарым автономдуу автоматташтыруу
  • 4-деңгээл: AI негизиндеги юридикалык иш үчүн автономдуу домен
  • 5-деңгээл: AI негизиндеги юридикалык иш үчүн толук автономдуу

Мен бул жерде аларды кыскача сүрөттөп берем.

0 деңгээли автоматташтырылбаган деңгээл деп эсептелет. Юридикалык ой жүгүртүү жана юридикалык милдеттер кол ыкмалар менен жүзөгө ашырылат жана негизинен кагаз негизделген ыкмалар аркылуу ишке ашат.

1-деңгээл AI юридикалык ой жүгүртүү үчүн жөнөкөй жардам автоматташтыруудан турат. Бул категорияга мисалдар күнүмдүк компьютердик текстти иштетүүнү, күнүмдүк компьютердик электрондук таблицаларды колдонууну, электрондук түрдө сакталган жана алынган онлайн-укуктук документтердин жеткиликтүүлүгүн жана башкаларды камтыйт.

2-деңгээл AI юридикалык ой жүгүртүүсү үчүн өркүндөтүлгөн жардамды автоматташтыруудан турат. Бул категориянын мисалдарына суроо стилиндеги рудиментардык Табигый тилди иштетүүнү (NLP), Machine Learningдин (ML) жөнөкөйлөштүрүлгөн элементтерин, юридикалык иштерди болжолдоо үчүн статистикалык талдоо куралдарын жана башкалар кирет.

3-деңгээл AI юридикалык ой жүгүртүүсү үчүн жарым автономдуу автоматташтыруудан турат. Бул категориянын мисалдарына юридикалык ой жүгүртүү үчүн алдыңкы билимге негизделген системаларды (KBS) колдонуу, юридикалык ой жүгүртүү үчүн Machine Learning жана Deep Learning (ML/DL) колдонуу, өркүндөтүлгөн NLP ж.б. кирет.

4-деңгээл AI укуктук ой жүгүртүүсү үчүн домендик автономдуу компьютердик системалардан турат. Бул деңгээл өзүн-өзү башкаруучу унаалар үчүн колдонулган, бирок юридикалык доменге колдонулгандай Операциялык Дизайн Домендери (ODDs) концептуалдык түшүнүгүн кайра колдонот. Юридикалык домендер функционалдык чөйрөлөр боюнча классификацияланышы мүмкүн, мисалы, үй-бүлөлүк укук, кыймылсыз мүлк укугу, банкроттук жөнүндө мыйзам, экологиялык укук, салык укугу, ж.б.

5-деңгээл AI юридикалык ой жүгүртүү үчүн толук автономдуу компьютердик системалардан турат. Кандайдыр бир мааниде, 5-деңгээл бардык мүмкүн болгон юридикалык домендерди камтыган жагынан 4-деңгээлдин жогорку жыйындысы болуп саналат. Сураныч, бул өтө чоң буйрук экенин түшүнүңүз.

Сиз бул Автономия Деңгээлдерин өзүн өзү башкарган унааларды жана автономдуу унааларды талкуулоодо окшош колдонуулар менен бирдей элестете аласыз (ошондой эле расмий SAE стандартынын негизинде, менин камтууну караңыз: бул жерде шилтеме). Бизде SAE 5-деңгээлиндеги өзүн өзү башкарган унаалар азырынча жок. Биз SAE 4-деңгээлиндеги өзүн-өзү башкара турган унааларга жакындап жатабыз. Көбүнчө кадимки унаалар SAE 2-деңгээлинде, ал эми кээ бир жаңы унаалар SAE 3-деңгээлинде турат.

Юридикалык доменде бизде азырынча 5-деңгээл AILR жок. Биз кээ бир 4-деңгээлге токтолуп жатабыз, бирок өтө тар ODDs. 3-деңгээл жарык көрө баштады, ал эми бүгүнкү күндө AILRдин негизги таянычы биринчи кезекте 2-деңгээлде.

Мыйзамга колдонулган AI жөнүндө акыркы изилдөө макаласы деп аталган типтештирүүнү сунуш кылды Мыйзам маалымат кодекси. Изилдөөчү мындай дейт: «Башкы максаттардын бири Мыйзам маалымат кодекси күн тартиби AI мыйзамдын рухуна баш ийүүгө үйрөтүү болуп саналат” (Джон Дж. Ней, “Мыйзам маалыматтык кодекс: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology жана интеллектуалдык менчик, 20-том, алдыда). кээ бир маанилүү пикирлер бар Мыйзам маалымат кодекси мантра алып келет жана мен сизге ошол негизги таш осуяттарынын бир нечеси менен таанышам.

Темага кирүүдөн мурун, мен адегенде AI жана өзгөчө AI этикасы жана AI мыйзамы жөнүндө маанилүү пайдубал түзгүм келет, муну менен талкуу контексттик жактан акылга сыярлык болот.

Этикалык AI жана ошондой эле AI мыйзамы жөнүндө маалымдуулуктун өсүшү

AIнын акыркы доору башында эле каралып келген AI For Good, демек, биз AIды адамзаттын жакшылыгы үчүн колдоно алабыз. таманында AI For Good биз да чөмүлүп жатканыбызды түшүндүм AI For Bad. Бул дискриминациялоочу болуп иштелип чыккан же өзүн-өзү өзгөрткөн AI кирет жана ашыкча калыстыктарды камтыган эсептөө тандоолорун жасайт. Кээде AI ушундай жол менен курулса, башка учурларда ал ошол жагымсыз аймакка бурулат.

Мен бүгүнкү AI табияты жөнүндө биз бир бетте экенибизге толук ишенгим келет.

Бүгүнкү күндө сезимтал AI жок. Бизде бул жок. Сезимдүү AI мүмкүн болорун билбейбиз. Эч ким так айта албайт, биз сезгич АИге жетебизби, же сезгич AI кандайдыр бир кереметтүү түрдө өзүнөн-өзү пайда болоорун айта албайт (көбүнчө сингулярлык деп аталат, менин камтууумду караңыз). бул жерде шилтеме).

Мен көңүл буруп жаткан AI түрү бүгүнкү күндө бизде бар сезилбеген AIдан турат. Эгерде биз аң-сезимдүү интеллектуалдык интеллект жөнүндө ой жүгүртүүнү кааласак, анда бул талкуу түп-тамырынан бери башка багытта кетиши мүмкүн. Сезимдүү AI адамдык сапатка ээ болмок. Сиз сезимтал AI адамдын когнитивдик эквиваленти экенин эске алышыңыз керек. Андан тышкары, кээ бирөөлөр бизде супер интеллектуалдык AI болушу мүмкүн деп божомолдогондуктан, мындай AI адамдарга караганда акылдуураак болушу мүмкүн (супер-акылдуу AI боюнча менин изилдөөм үчүн, караңыз. камтуу бул жерде).

Мен нерселерди жер бетине түшүрүп, бүгүнкү күндөгү эсептөөчү сезилбеген AIны карап көрүүнү сунуштайт элем.

Бүгүнкү AI адамдын ой жүгүртүүсү менен бирдей эч кандай модада “ойлоого” жөндөмсүз экенин түшүнүңүз. Alexa же Siri менен баарлашканыңызда, сүйлөшүү мүмкүнчүлүктөрү адамдын мүмкүнчүлүктөрүнө окшош сезилиши мүмкүн, бирок чындыгында ал эсептөөчү жана адамдын таанып-билүү жөндөмү жок. AIнын акыркы доору эсептөө үлгүлөрүн дал келүүнү камсыз кылган Machine Learning (ML) жана Deep Learning (DL) кеңири колдонду. Бул адамга окшош өңүттөгү AI системаларына алып келди. Ошол эле учурда, бүгүнкү күндө жалпы акылга окшош бир дагы AI жок жана адамдын күчтүү ой жүгүртүүсүнүн когнитивдик кереметтери жок.

Бүгүнкү AIны антропоморфизациялоодон өтө этият болуңуз.

ML/DL эсептөө үлгүсүн далдаштыруунун бир түрү. Кадимки ыкма сиз чечим кабыл алуу тапшырмасы жөнүндө маалыматтарды чогултасыз. Сиз маалыматтарды ML/DL компьютер моделдерине киргизесиз. Бул моделдер математикалык үлгүлөрдү табууга умтулушат. Мындай үлгүлөрдү тапкандан кийин, эгер табылса, AI системасы жаңы маалыматтарга туш болгондо ошол үлгүлөрдү колдонот. Жаңы маалыматтар берилгенден кийин, учурдагы чечимди чыгаруу үчүн "эски" же тарыхый маалыматтарга негизделген үлгүлөр колдонулат.

Менимче, сиз бул кайда бара жатканын биле аласыз. Эгерде чечимдерди кабыл алган адамдар терс көз караштарды камтыса, анда маалыматтар муну тымызын, бирок маанилүү жолдор менен чагылдырат. Machine Learning же Deep Learning эсептөө үлгүсүн дал келтирүү жөн гана тиешелүү түрдө маалыматтарды математикалык тууроого аракет кылат. AI тарабынан жасалган моделдөөнүн жалпы акыл-эстин же башка сезимтал аспектилердин окшоштугу жок.

Андан тышкары, AI иштеп чыгуучулар да эмне болуп жатканын түшүнбөй калышы мүмкүн. ML/DLдеги сырдуу математика азыр жашырылган көз караштарды ачууну кыйындашы мүмкүн. Сиз AI иштеп чыгуучулары көмүлгөн тенденцияларды сынашат деп үмүттөндүңүз жана күтөсүз, бирок бул көрүнгөндөн алда канча татаал. Салыштырмалуу кеңири тестирлөө менен дагы ML/DL үлгүсүнө дал келүүчү моделдердин ичинде бир тараптуулуктар сакталат деген чоң мүмкүнчүлүк бар.

Сиз кандайдыр бир атактуу же атагы чыккан таштандыны таштандыдан чыгаруу деген макалды колдонсоңуз болот. Эң негизгиси, бул AIнын ичине кирип кеткен көзкараштар катары тымызын түрдө пайда болгон бир тараптуулукка көбүрөөк окшош. AIнын алгоритмдик чечимдерди кабыл алуу (ADM) аксиоматикалык түрдө теңсиздикке толгон.

жакшы эмес.

Мунун баары AI этикасынын олуттуу кесепеттерине ээ жана AIди мыйзамдаштыруу аракетине келгенде алынган сабактарга (бардык сабактар ​​боло электе) ыңгайлуу терезени сунуштайт.

Жалпысынан AI этикасынын осуяттарын колдонуудан тышкары, бизде AIнын ар кандай колдонулушун жөнгө салуучу мыйзамдар болушу керекпи деген тиешелүү суроо бар. Жаңы мыйзамдар федералдык, штаттык жана жергиликтүү деңгээлдерде AI кантип иштелип чыгышы керектигинин диапазону жана мүнөзүнө тиешелүү. Мындай мыйзамдарды иштеп чыгуу жана кабыл алуу аракети акырындык менен жүрүп жатат. AI этикасы, жок эле дегенде, токтоолук катары кызмат кылат жана кандайдыр бир деңгээлде түздөн-түз ошол жаңы мыйзамдарга киргизилет.

Эсиңизде болсун, кээ бирөөлөр бизге AI камтыган жаңы мыйзамдардын кереги жок жана азыркы мыйзамдарыбыз жетиштүү деп ырасташат. Алар алдын ала эскертишет, эгерде биз бул AI мыйзамдарынын айрымдарын кабыл алсак, биз чоң коомдук артыкчылыктарды берген AIдагы жетишкендиктерди кыскартуу менен алтын казды өлтүрөбүз.

Мурунку тилкелерде мен AIны жөнгө салган мыйзамдарды иштеп чыгуу жана кабыл алуу боюнча ар кандай улуттук жана эл аралык аракеттерди карадым, караңыз бул жерде шилтеме, мисалы. Мен ошондой эле ар түрдүү элдер аныктаган жана кабыл алган AI этикасынын ар кандай принциптерин жана көрсөтмөлөрүн, анын ичинде Бириккен Улуттар Уюмунун аракетин, мисалы, ЮНЕСКОнун AI этикасынын 200гө жакын өлкө кабыл алган топтомун, караңыз. бул жерде шилтеме.

Бул жерде мен мурда кылдат изилдеп чыккан AI системаларына тиешелүү этикалык AI критерийлеринин же мүнөздөмөлөрүнүн пайдалуу негизги тизмеси:

  • ачыктык
  • Адилеттик & Калыстык
  • Non-Maleficence
  • жоопкерчилик
  • Privacy
  • Пайдасы
  • Эркиндик жана автономия
  • ишеним
  • Туруктуулук
  • Кадыр-барк
  • Жардамдашуу

Бул AI этикасынын принциптерин AI иштеп чыгуучулары, ошондой эле AI өнүктүрүү аракеттерин башкаргандар, ал тургай, AI тутумдарын талдап жана тейлөөчү принциптер менен колдонушу керек.

AI өнүктүрүүнүн жана колдонуунун бүткүл жашоо циклиндеги бардык кызыкдар тараптар Этикалык AIнын белгиленген нормаларын сактоонун алкагында каралат. Бул маанилүү жагдай, анткени адаттагыдай, "кодерлер гана" же AIди программалагандар AI этикасынын түшүнүктөрүн карманышат. Бул жерде мурда баса белгиленгендей, AI иштеп чыгуу жана жайылтуу үчүн айыл керек, ал үчүн бүт айыл AI этикасынын осуяттарын билиши жана аларга баш ийиши керек.

Мен да жакында карадым AI Билл укуктары Бул Илим жана технология саясаты боюнча кеңсесинин (OSTP) бир жылдык аракетинин натыйжасы болгон "AI Биллинин Укуктары үчүн План: Америка калкы үчүн автоматташтырылган системаларды иштетүү" деп аталган АКШ өкмөтүнүн расмий документинин расмий аталышы. ). OSTP улуттук маанидеги ар кандай технологиялык, илимий жана инженердик аспектилер боюнча Американын Президентине жана АКШнын Аткаруу Аппаратына кеңеш берүү үчүн кызмат кылган федералдык уюм. Бул жагынан алганда, бул AI укуктары жөнүндө Билл АКШнын учурдагы Ак үйү тарабынан жактырылган жана жактырылган документ деп айта аласыз.

AI Укуктары Биллинде беш негизги категория бар:

  • Коопсуз жана натыйжалуу системалар
  • Алгоритмдик дискриминациядан коргоо
  • маалымат купуялуулук
  • Эскертүү жана түшүндүрмө
  • Адамдын альтернативалары, карап чыгуу жана кайра кайтаруу

Мен ошол осуяттарды кылдаттык менен карап чыктым, карагыла бул жерде шилтеме.

Эми мен ушул окшош AI этикасы жана AI мыйзамы темаларына пайдалуу негиз салгандан кийин, биз AI Укуктук кош текшерүүчүлөрүнүн негизги темасына өтүүгө даярбыз. Мыйзам маалымат кодекси.

Адамдык баалуулуктарды тегиздөө үчүн AIга киргизилген AI юридикалык кош текшерүүчүлөр

Мен кээде кайрылам AI юридикалык кош текшерүүчүлөр AI-LDC аббревиатурасы аркылуу. Бул аббревиатураны билбегендер үчүн визуалдык жактан бир аз кыйынчылык жаратат. Ошентип, мен бул талкууда бул өзгөчө аббревиатураны колдонбойм, бирок аны сизге эскертүү катары айткым келди.

AI Legal кош текшергичтеринин айрым татаалдыктарын ачуу үчүн, келгиле, бул негизги пункттарды карап көрөлү:

  • AI адамдык баалуулуктарды тегиздөө механизми катары AI Legal кош текшерүүчүлөрүн колдонуу
  • Кеңири AI тиешелүүлүгүнө жараша күчтүү AI Legal кош текшерүүчүлөрүн талап кылат
  • AI Юридикалык кош текшерүүчүлөр мыйзамды кабыл алышат жана айрыкча мыйзам чыгарышпайт (болжол менен)
  • AI Мыйзамдын ченемдер менен эрежелердин укуктук ишке ашырылышы ортосундагы назик баланс
  • AI мыйзамга баш ийүүгө келгенде пудингдин далилин талап кылуу

Мейкиндиктин чектелүүсүнөн улам, мен ушул беш пунктту азыр эле айтып берем, бирок менин тилкемде бул тез өнүгүп жаткан жана алдыга жылып жаткан маселелер боюнча кошумча жана бирдей көңүл бура турган ойлорду камтыган мындан аркы чагылдырууга сергек болуңуз.

Азыр коопсуздук куруңузду тагыңыз жана дем берүүчү саякатка даярданыңыз.

  • AI адамдык баалуулуктарды тегиздөө механизми катары AI Legal кош текшерүүчүлөрүн колдонуу

AI менен адамдык баалуулуктардын ортосунда гармониялуу шайкеш келүүгө аракет кылуунун көптөгөн жолдору бар.

Мурда айтылгандай, биз AI этикасынын осуяттарын иштеп чыгып, жарыялай алабыз жана AI иштеп чыгуучуларын жана AI иштеп жаткандарды ошол негизги таштарга карманууга аракет кыла алабыз. Тилекке каршы, мунун өзү эле эч нерсеге алып келбейт. Сизде сөзсүз түрдө кабарды албай турган кээ бир иштеп чыгуучулар бар. Сизде Этикалык AI менен мактанган жана бир аз жумшак-казакка жазылган принциптерди айланып өтүүгө аракет кылган кээ бир айлакерлер бар. Жана башка.

AI этикасын камтыган "жумшак мыйзам" ыкмаларын колдонуу AI жараткан же колдонгондордун баарына чоң сигнал жөнөтө турган мыйзамдарды жана эрежелерди кабыл алуу сыяктуу "катуу мыйзам" жолдору менен дээрлик айкалыштырылышы керек. Эгер сиз AIны акылдуу колдонбосоңуз, мыйзамдын узун колу сизге жардам бериши мүмкүн. Түрмөнүн эшигинин тарсылдаган үнү катуу көңүл бурушу мүмкүн.

Бир чоң көйгөй, кээде сарайдын эшиги жылкыларды сыртка чыгарып жиберет. Тартылган AI потенциалдуу түрдө ар кандай мыйзамсыз актыларды жаратышы мүмкүн жана муну жөн эле кармалмайынча, ошондой эле мыйзамсыз аракеттердин агымын токтотууга аракет кылганга чейин жасай берет. Мунун баары убакытты талап кылышы мүмкүн. Ошол эле учурда, адамдар тигил же бул модада зыян тартып жатышат.

Бул чабуулга AI Legal кош текшерүүчү кирет.

AI колдонмосунда болуу менен, AI Legal кош текшерүүчүсү AI ​​мыйзамды бузуп жатканда дароо аныктай алат. AI Legal кош текшерүүчүсү AIны өз жолунда токтотушу мүмкүн. Же болбосо, бул компонент адамдарды мыйзамсыз иш-аракеттери жөнүндө эскертип, көзөмөлчүлөрдү тез арада оңдоо иштерине түртүшү мүмкүн. Ошондой эле AI терс аракеттерин кодификациялоо максатында аудитордук жолдун көрүнүктүү көрүнүшүн камсыз кылуучу компонент түзө ала турган формалдаштырылган журналдар бар.

Биздин мыйзамдар көп агенттик конгломерациянын бир түрү деп айтылат, ошондуктан мыйзамдар сөзсүз түрдө коом туура жана туура эмес коомдук жүрүм-турумга карама-каршы келген көз караштардын балансын түзүүгө аракет кылган нерселердин аралашмасы болуп саналат. Биздин мыйзамдарга негизделген AI Укуктук кош текшерүүчүсү, демек, бул аралашманы камтыйт.

Белгилей кетчү нерсе, бул жөн гана так укуктук эрежелердин тизмесин программалоо эмес. Мыйзамдар ийкемдүү болуп, микроскопиялык эрежелердин эң мүнөтүн көрсөтүүнүн ордуна, жалпы стандарттарга умтулушат. Татаалдыктар көп.

Мурда белгиленген илимий эмгекке кайрылып, бул ойлорду AI Alignment изденүүсүнө карата кандай кароого болот: “Мыйзам, көп агенттик тегиздөөнүн прикладдык философиясы бул критерийлерге уникалдуу түрдө жооп берет. Тегиздөө - бул көйгөй, анткени биз кыла албайбыз ex ante жакшы AI жүрүм-турумун толугу менен жана далилдүү багыттаган эрежелерди белгилеңиз. Ошо сыяктуу эле, юридикалык келишимдин тараптары өз мамилелеринин ар бир күтүлбөгөн жагдайын алдын ала көрө алышпайт жана мыйзам чыгаруучулар алардын мыйзамдары колдонула турган конкреттүү жагдайларды алдын ала айта алышпайт. Ошондуктан мыйзамдардын көбү стандарттардын жыйындысы болуп саналат» (ошол эле жерде).

Мыйзамды AI Юридикалык кош текшерүүчүгө киргизүү сиз ойлогондон алда канча кыйыныраак.

AI өнүккөн сайын, биз ушундай жетишкендиктерди ошого жараша колдонушубуз керек. Казга жакшы болгон нерсе гандерге да жакшы болот экен. Мыйзамга ылайык, AI тармагында прогресске жетишип жаткандар AI боюнча конвертти түртүп, акыры AI прогрессине толук кандуу жаңы жетишкендиктерди жаратып жатышат.

  • Кеңири AI тиешелүүлүгүнө жараша күчтүү AI Legal кош текшерүүчүлөрүн талап кылат

Бул темага мышык-чычкан гамбити туш келет.

Мүмкүнчүлүктөр, AI андан ары өнүккөн сайын, AIнин юридикалык кош текшерүүчү компоненти маселелерди чечүү кыйыныраак жана кыйыныраак болуп калат. Мисалы, кылдаттык менен текшерилип жаткан AI колдонмосунда AI жасап жаткан мыйзамсыз аракеттерди жашыруу үчүн жаңыдан ойлоп табылган супер тымызын жолдор болушу мүмкүн. AI астыртын жолду тандабаса да, AIнын жалпы татаалдыгы AI Legal кош текшерүүчү баалоого умтулуу үчүн коркунучтуу тоскоолдук болушу мүмкүн.

Бул өзгөчө мааниге ээ болуп калат.

AI иштеп чыгуучусу же AI колдонгон фирма AIга негизделген колдонмого киргизилген AI Legal кош текшерүүчүсү бар деп жарыялады дейли. Voila, алар азыр башка тынчсыздануулардан колдорун жуушту окшойт. AI Legal кош текшерүүчүсү бардыгына кам көрөт.

Андай эмес.

AI Legal кош текшерүүчүсү тартылган AI колдонмосунун мүнөзү үчүн жетишсиз болушу мүмкүн. AI Legal кош текшерүүчүсү эскирип калышы мүмкүн, балким AI колдонмосуна тиешелүү акыркы мыйзамдар менен жаңыртылбайт. Эмне үчүн AI Юридикалык кош текшергичтин болушу күмүш ок болуп калбашы үчүн көптөгөн себептерди алдын ала айтууга болот.

Мурда келтирилген изилдөөлөрдүн бул түшүнүктөрүн карап көрөлү: "AI үчүн заманбап жетишкендиктер менен биз юридикалык түшүнүү жөндөмдүүлүгүнүн демонстрацияланган жогорку тилкелерин кое алабыз. Эгерде иштеп чыгуучу алардын тутумунун тапшырмалар боюнча өркүндөтүлгөн мүмкүнчүлүктөрү бар деп ырастаса, алар убакыт, прецедент жана юрисдикция боюнча мыйзамдардын жана ченемдик укуктук актылардын баталарын кароодо дээрлик эч кандай кыйынчылыкка дуушар болбогон AIнын тиешелүү өнүккөн укуктук түшүнүгүн жана укуктук, ой жүгүртүү жөндөмүн көрсөтүшү керек. ” (ошол эле жерде).

  • AI Юридикалык кош текшерүүчүлөр мыйзамды кабыл алышат жана айрыкча мыйзам чыгарышпайт (болжол менен)

Мен ишенем, силердин кээ бириңер бул AI Legal кош текшергичтерине ээ болуу идеясына нааразы.

Көбүнчө айтылып жаткан кооптонуу - бул, сыягы, AI биздин мыйзамдарды биз үчүн чечүүгө мүмкүнчүлүк берет окшойт. Жакшы кудай, сиз ойлогон чыгарсыз, кандайдыр бир автоматташтыруу адамзатты басып кетет. Бул кыналган AI Юридикалык кош текшерүүчүлөр биздин мыйзамдардын демейки падышалары болуп калышат. Алар эмне кылбасын, мыйзам кандай болсо, ошондой болот.

Адамдарды AI башкарат.

Жана бул AI Legal кош текшергичтери бизди ошол жакка алып баруучу тайгалак.

Каршы аргумент мындай кептер кутум теорияларынын материалы болуп саналат. Сиз укмуштуудай постулдап жатасыз жана өзүңүздү кыжырдантып жатасыз. Чындыгында, бул AI Юридикалык кош текшергичтери сезимтал эмес, алар планетаны басып алгысы келбейт жана алардын экзистенциалдык тобокелдиги жөнүндө кыжырдануу ачыктан-ачык жана өтө эле ашыкча айтылган.

Жалпысынан алганда, тынч жана жүйөлүү позицияда болуу менен, биз AI Юридикалык кош текшергичтери мыйзамды туура чагылдыруу үчүн кызмат кылаарын эстен чыгарбашыбыз керек, алар долбоор боюнча эмес, же кокусунан кандайдыр бир жол менен демейки чөйрөгө дефолтко барышпайт. мыйзам. Сезим экстраполяцияларын четке кагып, биз, албетте, AI Legal кош текшерүүчүсү берилген мыйзамдын чыныгы табиятын туура эмес көрсөтүүгө алып келиши мүмкүн деген реалдуу жана актуалдуу кооптонуу бар экенине кошула алабыз.

Өз кезегинде, сиз ошол өзгөчө "туура эмес берилген" мыйзам түпкүлүгүндө жаңыланып жатат деп ырастасаңыз болот, анткени ал мындан ары иш жүзүндөгү мыйзамда каралган нерсени так билдирбейт. Бул кандайча кылдат, бирок ачык-айкын кароо экенин ачык көрө аласыз деп ишенем. Качан болбосун, AI Юридикалык кош текшерүүчү виртуалдык негизде жаңы мыйзамдарды AI компоненти мыйзамды AIде алгач айтылган же камтылгандай чечмелөө аркылуу "галлюцинациялоо" мүмкүнбү же айта алабызбы (менин камтуум үчүн AI деп аталган парестезиясы, кара бул жерде шилтеме).

Бул боюнча кам көрүү катуу жүргүзүлүшү керек.

Бул тема боюнча, жогоруда аталган илимий изилдөө бул ыйык чекти кесип өтпөөгө умтулуу жагынан ушул параллелдүү ойду сунуштайт: “Биз AI мыйзам чыгаруу, юридикалык прецедент коюу же мыйзамды ишке ашыруу үчүн легитимдүүлүккө ээ болушун көздөбөйбүз. Чынында, бул биздин мамилебизди бузат (жана биз муну алдын алуу үчүн олуттуу күч-аракет жумшашыбыз керек). Тескерисинче, Укуктук маалымат кодексинин эң амбициялуу максаты - бул эсептөөчү коддоо жана колдонуудагы укуктук концепциялардын жана стандарттардын жалпылануу мүмкүнчүлүгүн тастыкталган AI көрсөткүчтөрүнө киргизүү” (ошол эле жерде).

  • AI Мыйзамдын ченемдер менен эрежелердин укуктук ишке ашырылышы ортосундагы назик баланс

Мыйзамдар баш аламан.

Китептер жөнүндөгү мыйзамдын дээрлик бардыгы үчүн, мыйзамда иш жүзүндө эмне каралганы жөнүндө көптөгөн чечмелөөлөр болушу мүмкүн. AI тармагынын тили менен айтканда, биз мыйзамдарды семантикалык жактан түшүнүксүз деп атайбыз. Мына ушундан улам AI иштеп чыгуу мыйзамга ылайыктуу түрдө абдан кызыктуу жана ошол эле учурда ыңгайсыздыкты жаратат. Каржылык багытталган AI колдонмолору үчүн сиз көрүшү мүмкүн болгон так сандардан айырмаланып, биздин мыйзамдарыбызды AIга киргизүү каалоосу семантикалык бүдөмүк цунами менен күрөшүүнү талап кылат.

Менин фондумдун AI укуктук негиздеринин (AILR) китебинде мен мыйзамдарды чектелген эрежелердин жыйындысына гана кодификациялоо аракеттери бизди юридикалык чөйрөдө каалагандай алыска жеткирбегенин талкуулайм (караңыз). бул жерде шилтеме). Бүгүнкү күндөгү AILR эрежелерди колдонуу менен мыйзам чагылдырган жалпы стандарттар деп аталышы мүмкүн болгон интеграцияны камтышы керек.

Бул маанилүү тең салмактуулукту төмөнкүчө чагылдырууга болот: «Практикада көпчүлүк мыйзам жоболору таза эреже менен таза стандарттын ортосундагы спектрде жайгашкан жана укуктук теория «эрежелик» менен «стандарттуулуктун» туура айкалышын баалоого жардам берет. AI системаларынын максаттарын аныктоодо” (ошол эле жерде).

  • AI мыйзамга баш ийүүгө келгенде пудингдин далилин талап кылуу

Бир нерсеге ээ болуу менен бир нерсени каалап кетүү башкача.

Бул акылмандык AI юридикалык кош текшерүүчүлөргө ээ болгубуз келсе да, алардын иштешине жана туура иштешине ынандыруу керек деп сунуш кылганда пайда болот. Бул дагы бир катаал жана оор тоскоолдук экенин белгилей кетүү керек. Мен буга чейин AI текшерүү жана валидациясындагы акыркы жетишкендиктерди жана кыйынчылыктарды карадым, караңыз бул жерде шилтеме.

Изилдөө макаласында белгиленгендей: “Азаматтарды жоюу үчүн, AI моделдери барган сайын күчөгөн агенттик кубаттуулуктарга, мисалы, негизги жолдордо толук автономдуу унааларга орнотулганга чейин, жайылтуучу тарап системанын адамдык максаттарды, саясаттарды жана мыйзам стандарттарын түшүнүшүн көрсөтүшү керек. Валидация процедурасы AIнын юридикалык түшүнүктөрдүн “маанисин” “түшүнүүсүн” көрсөтө алат” (ошол эле жерде).

жыйынтыктоо

Мен сизди AI Legal кош текшергичтерин куруу жана жайылтуу боюнча ушул асыл изденүүгө кошулууну ойлонушуңузга чакырам. Биз бул жакшы умтулууга көбүрөөк көңүл бурууга жана ресурстарга муктажбыз.

Бул ошондой эле, жогоруда айтылгандай, адвокаттарга жардам берүү үчүн колдонула турган жана жалпы коомчулук тарабынан түздөн-түз колдонулушу мүмкүн болгон AI укуктук негиздемеге (AILR) жетишүү үчүн кош милдетти камсыз кылат. Чынында эле, айрымдар сот адилеттигине жетүүнүн толук сезимине (A2J) жетүүнүн бирден-бир жашоого жарамдуу каражаты укуктук мүмкүнчүлүктөрдү камтыган жана бардыгы үчүн жеткиликтүү болгон AI жасоо аркылуу болот деп катуу айтышат.

Азырынча бир тез акыркы пункт.

Талкуу ушул убакка чейин AI Legal кош текшерүүчү AIга орнотулат же имплантацияланат деп баса белгиледи. Бул, чынында эле, бул өнүгүп келе жаткан чөйрөнү изилдеп жаткандардын негизги багыты.

Бул жерде ойлонууга арзырлык бир суроо бар.

Ойлонуп калпагыңызды кийиңиз.

Эмне үчүн бардык программаларда AI Legal кош текшергичтерин колдонбойсуз?

Негизги нерсе, AIде AI Legal кош текшерүүчүлөрүн колдонуунун ордуна, балким, биз көз карашыбызды кеңейтишибиз керек. Программанын бардык түрлөрү мыйзамдуу түрдө адашып кетиши мүмкүн. AI адамдардын күнүмдүк жашоосуна таасирин тийгизген ичеги-карын чечимдерди кабыл алуу сыяктуу, адатта, AI колдонуу ыкмаларына байланыштуу арстандын көңүлүн өзүнө бурду. Ошондой эле көптөгөн AI эмес системалар бар экенине ишенсеңиз болот.

Чындыгында, биз эч кандай программалык камсыздоону мыйзамдан качуу же болтурбоо үчүн бекер жүрүүгө жол бербешибиз керек.

Эске салсак, буга чейин мен AI менен мыйзамды айкалыштыруунун эки категориясын айтканмын. Биз бул жерде мыйзамга ылайык AI колдонууга басым жасадык. Монетанын экинчи тарабында AI үчүн мыйзамдын колдонулушу. AI Legal кош текшерүүчүлөрүн колдонууну талап кылган мыйзамдарды чыгардык дейли.

Бул адегенде AI тутумдары менен чектелиши мүмкүн, айрыкча өзгөчө коркунучтуу деп бааланган. Бара-бара, ошол эле AI укуктук кош текшерүү талабы AI эмес программалык камсыздоого да жайылтылат. Дагы бир жолу, бекер жүрүү жок.

Сиз жогоруда айтылган сөздү айтып жатканыңызда, мен жыйынтыктоочу тизер катары нерселерди жакшыртам. Эгерде биз AI Юридикалык кош текшергичтерин талап кылгыбыз келсе, AI этикасынын кош текшерүүчүлөрү жөнүндө да ошондой кылышыбыз мүмкүн. AI Legal кош текшерүүчүсүн колдонуу окуянын жарымы гана, жана биз AI этикасынын маселелерин да унутуп же унута албайбыз.

Сүйүктүү цитаталарымдын бири менен бул кызуу талкууну аяктайм. Америка Кошмо Штаттарынын башкы судьясы болгон атактуу юрист Эрл Уоррендин акылман сөзү боюнча: «Цивилизациялуу жашоодо мыйзам этика деңизинде калкып жүрөт».

Биздин коопсуздугубузга коркунуч туудурган AI эмес системалардан башыбызды агып келе жаткан оор деңиздерден сактап калгыбыз келсе, AI Legal кош текшергичтерин жана AI этикасынын кош текшергичтерин катуу колдонсок жакшы болмок. .

Алар адамзаттын өмүрүнүн жилети болушу мүмкүн.

Source: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- жана-ai-law/