Адамдарга жалган маалымат менен жардам берүү үчүн AI этикасы жана AI менен шартталган психологиялык эмдөө

Дезинформациянын жана туура эмес маалыматтардын массалык ашыкчалыгына каршы эмне кылабыз?

Мунун баары күн өткөн сайын начарлап баратат.

Балким, жасалма интеллект (AI) бизге жардамга келиши мүмкүн. Ооба, туура, биз жалган маалымат жана туура эмес маалымат менен болгон тынымсыз цунами менен күрөшүү үчүн AIнын пайдалуу ыкмаларын колдоно алабыз. Биз ушундай кылууга аракет кылганыбыз акылдуулукка жатат. Потенциалдуу чечимдин ар бир жолу изденүүгө татыктуу көрүнөт.

Бир чети, мен дароо моюнга алгым келет жана AI, албетте, баратат. дагы көйгөйдүн бир бөлүгү болуңуз. Адамдар жасалма информацияны жана туура эмес маалыматты чыгаруу үчүн AIны оңой колдоно аларында эч кандай шек жок. Мындан тышкары, AI тымызын түрдө жалган маалымат жана туура эмес маалымат укмуштуудай негиздүү болуп көрүнүү үчүн колдонулушу мүмкүн. AI дасторконго алып келген нерсесинин капалуу жүзү. Биз бул талкуунун аягында бул терс табышмакка кайтып келебиз.

Азырынча келгиле, смайликтерибизди кийип, AI кандайча дезинформацияны жана туура эмес маалыматты өзүнүн күчтүү тизесине алып келээрин изилдеп көрөлү. Мунун баары AI этикасынын маанилүү элементтерине кирет деген маанилүү жагдай болуп калат. Менин AI этикасы жана этикалык AI жөнүндө камтууларым үзгүлтүксүз жана кеңири, анын ичинде бул жерде шилтеме жана бул жерде шилтеме, Бир нечесин гана атаңыз.

Дезинформацияга жана туура эмес маалыматка каршы согушта AI өзгөчө жардамчы союздашы боло ала турган негизги жолдорду карап көрүңүз:

  • Иште токтоп: AI дезинформацияны жана туура эмес маалыматты ачыкка чыгара электе аныктоо жана акциздик кылууга аракет кылуу үчүн колдонулушу мүмкүн
  • Көрүлгөнгө чейин чыпкалоо: AI дезинформацияны жана туура эмес маалыматты чыпкалоо үчүн колдонулушу мүмкүн, андыктан сиз аны көрүп тынчсызданбайсыз
  • Сизди иммунитетке даярдаңыз: AI сиздин даярдыгыңызды жана жалган маалымат жана туура эмес маалымат менен күрөшүүгө жөндөмдүүлүгүңүздү бекемдөө үчүн колдонулушу мүмкүн (бир аз формалдуу түрдө психологиялык эмдөө түрү катары белгилүү)
  • башка

Биринчи саналып өткөн чекит, мазмун дүйнөгө киргенге чейин, мүмкүн болушунча эртерээк жалган маалыматты жана туура эмес маалыматты токтотууга аракет кылууну билдирет.

Бул өтө көйгөйлүү мамиле. Кээ бирөөлөр бул Чоң бир туугандын сөз эркиндигин басуу аракети болушу мүмкүн деп катуу талашат. Бул AI канчага бара алмак? Бул адамдардын өз оюн эркин билдирүүсүнө тоскоол боло алабы? Бул укмуштуудай AI тайгак эңкейишине айланышы мүмкүн жана акыры жамандыктын эң жаман түнү болуп, эң жакшы ниет менен бейкүнөө башталган.

Сүрөттү алганыңызга ишенем.

Экинчи пункт бир аз орточо болуп саналат жана биз үчүн мазмунду чыпкалоо үчүн AI колдоно аларыбызды сунуштайт.

Сизде ар кандай жаңылыктардан жана башка булактардан келген бардык маалымат каналдарыңызды сканерлей турган AI чыпкасы боту болушу мүмкүн. AI сиздин жеке критерийлериңизге туура келген дезинформацияны же туура эмес маалыматты кармоого ылайыкташтырылган. Ошентип, мындай сценарийде бул Big Brother цензурасы эмес. Сиз интеллектти көзөмөлдөйсүз жана ал сиздин атыңыздан келген маалымат кутусун кантип чыпкалап жатканын көзөмөлдөйсүз.

Абдан жакшы угулат.

Бирок көңүл бура турган тынчсыздануулар бар.

Мисалы, биз буга чейин эле көз караштарыбызда абдан поляризацияланганбыз жана AI колдонуу бул поляризацияны тереңирээк жана караңгыраак кылышы мүмкүн. 24×7 тынымсыз иштеген бул жылмакай AI менен сиз эч качан мүмкүн дезинформация жана туура эмес маалымат катары классификацияланган бир аз маалыматты көрүүнүн кереги жок экенин элестетиңиз. Сиздин поляризацияланган көз карашыңыз азыр дээрлик сакталып калат. Күнү бою жана сиз көңүлүңүздү күтүп жаткан маалыматты карап көргүңүз келген сайын, ал ар дайым алдын ала тандалып алынат жана дезинформация жана дезинформация деп аталган нерселерге көз чаптырууга эч кандай мүмкүнчүлүк жок.

Дезинформация жана туура эмес маалымат болушу мүмкүн деп айтам деп аталган анткени чындыгында дезинформация жана туура эмес маалымат эмнеден турганы боюнча чоң талаш-тартыштар бар. Кээ бир эксперттер дезинформация деген эмне, туура эмес маалымат эмне экенин аныктоо үчүн абсолюттук негиз бар деп ырасташат. Туура да, туура эмес да бар. Бир нерсе дезинформация же туура эмес маалымат деп жаңылбастан бардыгын эсептесе болот.

Баары эле нерсени ушунчалык так деп эсептей бербейт.

Макал-лакаптар бири-бирине карама-каршы келген дихотомиялык карама-каршылыкты жаңылыштык деп айтышат. Бир адамдын жалган маалыматы башка адамга жалган маалымат катары каралышы мүмкүн эмес. Ошондой эле туура эмес маалымат жөнүндө. Дезинформация жана туура эмес маалымат табияты жана масштабы боюнча диапазонунда турат. Бардык маалыматты бир топко классификациялоого аракет кылуу кол булгалоодон алда канча кыйын.

Негизгиси, AIди чыпкалоо механизми катары колдонуунун экинчи пунктунун өз ара пайдалуу жактары бар. AI барган сайын бул колдонууга коюлат деген суроо аз. Ошол эле учурда, биз мындай AI алдыга алып келе турган кыйынчылыктарды эстен чыгарбашыбыз керек. Дезинформация жана туура эмес маалымат үчүн фильтр катары AI кандайдыр бир күмүш ок же слем-данк эмес.

Бул бизди үчүнчү пунктка, тактап айтканда, адамдарды жалган маалымат жана туура эмес маалымат менен күрөшүүдө жакшыраак кылуу үчүн AI колдонуу мүмкүнчүлүгүнө алып барат.

Бул контекстте AI колдонуунун үчүнчү жолу жөнүндө көп уккандырсыз. Ал эми гана пайда боло баштады. Сиз азыр чоңоюп, акырындык менен пайдаланууга бериле турган нерсенин эң алдыңкы чегиндесиз. Сураныч, бул популярдуулук кеңейген сайын, бул ылайыктуу ыкма болобу деген талаш-тартыштар да өтө көрүнүктүү болоорун билиңиз.

Маселенин бир бөлүгү, AI кээ бирлер кемсинткен мааниде колдонулган нерсе үчүн колдонулат адамдар менен акыл оюндарын ойноо.

Бул коркунучтуу көрүнөт.

Бул дагы бизди AI этикасынын чөйрөсүнө алып барат.

Мунун баары бүгүнкү күндөгү AI жана айрыкча Machine Learning жана Deep Learning технологиясын технологиянын бир түрү катары колдонуу жана анын кантип колдонулуп жаткандыгы жөнүндө олуттуу тынчсызданууларга байланыштуу. Көрдүңүзбү, ML/DLтин колдонулушу бар, алар AI жалпы коомчулук тарабынан антропоморфизацияланышын камтыган, ML/DL сезимтал AI же ага жакын (ал эмес) деп ишенип же тандап алган. Кошумчалай кетсек, ML/DL керексиз же такыр туура эмес же этика же юридикалык көз караштар боюнча мыйзамсыз болгон эсептөө үлгүсүнүн дал келүү аспектилерин камтышы мүмкүн.

Адегенде AI жөнүндө айтып жатып эмнени айткым келгенин түшүндүрүп, ошондой эле Machine Learning жана Deep Learning жөнүндө кыскача маалымат берүү пайдалуу болушу мүмкүн. Жасалма интеллект эмнени билдирери боюнча чоң баш аламандык бар. Мен ошондой эле AI этикасынын осуяттары менен тааныштыргым келет, алар бул дискурстун калган бөлүгүнө өзгөчө ажырагыс болот.

AI жөнүндө жазууну билдирүү

Келгиле, бүгүнкү АИнин табияты жөнүндө бир бетте экенибизди текшерели.

Бүгүнкү күндө сезимтал AI жок.

Бизде бул жок.

Сезимдүү AI мүмкүн болобу, жокпу билбейбиз. Эч ким так айта албайт, биз сезгич АИге жетебизби, же сезгич AI кандайдыр бир кереметтүү түрдө өзүнөн-өзү пайда болуп, эсептөөчү когнитивдик супернова түрүндө пайда болобу (көбүнчө Singularity деп аталат, менин камтууларымды караңыз. бул жерде шилтеме).

Бүгүнкү AI адамдын ой жүгүртүүсү менен бирдей эч кандай модада “ойлоого” жөндөмсүз экенин түшүнүңүз. Alexa же Siri менен баарлашканыңызда, сүйлөшүү мүмкүнчүлүктөрү адамдын мүмкүнчүлүктөрүнө окшош сезилиши мүмкүн, бирок чындыгында ал эсептөөчү жана адамдын таанып-билүү жөндөмү жок. AIнын акыркы доору эсептөө үлгүлөрүн дал келүүнү колдогон Machine Learning жана Deep Learning программаларын кеңири колдонду. Бул адамдык ыкшоолук көрүнүшү бар AI системаларына алып келди. Ошол эле учурда, бүгүнкү күндө жалпы акылга окшош бир дагы AI жок жана адамдын күчтүү ой жүгүртүүсүнүн когнитивдик кереметтери жок.

Маселенин бир бөлүгү - бул биздин компьютерлерди жана өзгөчө AIны антропоморфизациялоо тенденциясы. Компьютер системасы же AI биз адамдын жүрүм-туруму менен байланыштыргандай иш кылгандай сезилгенде, системага адамдык сапаттарды ыйгаруу үчүн дээрлик басымдуу каалоо пайда болот. Бул акыл-эстүүлүккө жетүү мүмкүнчүлүгүнө эң чыдамдуу скептиктерди да кармай турган кадимки психикалык тузак.

Кандайдыр бир деңгээлде, ошондуктан AI этикасы жана этикалык AI абдан маанилүү тема болуп саналат.

AI этикасынын осуяттары бизди сергек болууга түрткү берет. AI технологдору кээде технология менен, айрыкча жогорку технологияны оптималдаштыруу менен алек болушу мүмкүн. Алар сөзсүз түрдө чоң социалдык кесепеттерди эске алышпайт. AI этикасынын ой жүгүртүүсүнө ээ болуу жана аны AI өнүктүрүү жана жайылтуу үчүн интегралдык түрдө жасоо ылайыктуу AIди өндүрүү үчүн, анын ичинде AI этикасынын фирмалар тарабынан кандайча кабыл алынышын баалоо үчүн абдан маанилүү.

Жалпысынан AI этикасынын осуяттарын колдонуудан тышкары, бизде AIнын ар кандай колдонулушун жөнгө салуучу мыйзамдар болушу керекпи деген тиешелүү суроо бар. Жаңы мыйзамдар федералдык, штаттык жана жергиликтүү деңгээлдерде AI кантип иштелип чыгышы керектигинин диапазону жана мүнөзүнө тиешелүү. Мындай мыйзамдарды иштеп чыгуу жана кабыл алуу аракети акырындык менен жүрүп жатат. AI этикасы, жок эле дегенде, токтоолук катары кызмат кылат жана кандайдыр бир деңгээлде түздөн-түз ошол жаңы мыйзамдарга киргизилет.

Эсиңизде болсун, кээ бирөөлөр бизге AI камтыган жаңы мыйзамдардын кереги жок жана азыркы мыйзамдарыбыз жетиштүү деп ырасташат. Алар алдын ала эскертишет, эгерде биз бул AI мыйзамдарынын айрымдарын кабыл алсак, биз чоң коомдук артыкчылыктарды берген AIдагы жетишкендиктерди кыскартуу менен алтын казды өлтүрөбүз. Мисалы, менин камтууну караңыз бул жерде шилтеме.

Мурунку тилкелерде мен AIны жөнгө салган мыйзамдарды иштеп чыгуу жана кабыл алуу боюнча ар кандай улуттук жана эл аралык аракеттерди карадым, караңыз бул жерде шилтеме, мисалы. Мен ошондой эле ар түрдүү элдер аныктаган жана кабыл алган AI этикасынын ар кандай принциптерин жана көрсөтмөлөрүн, анын ичинде Бириккен Улуттар Уюмунун аракетин, мисалы, ЮНЕСКОнун AI этикасынын 200гө жакын өлкө кабыл алган топтомун, караңыз. бул жерде шилтеме.

Бул жерде мен мурда кылдат изилдеп чыккан AI системаларына тиешелүү этикалык AI критерийлеринин же мүнөздөмөлөрүнүн пайдалуу негизги тизмеси:

  • ачыктык
  • Адилеттик & Калыстык
  • Non-Maleficence
  • жоопкерчилик
  • Privacy
  • Пайдасы
  • Эркиндик жана автономия
  • ишеним
  • Туруктуулук
  • Кадыр-барк
  • Жардамдашуу

Бул AI этикасынын принциптерин AI иштеп чыгуучулары, ошондой эле AI өнүктүрүү аракеттерин башкаргандар, атүгүл AI тутумдарын талдап жана тейлөөчү принциптер менен колдонушу керек. Өнүктүрүүнүн жана колдонуунун бүткүл AI жашоо циклиндеги бардык кызыкдар тараптар Этикалык AIнын белгиленген нормаларын сактоонун алкагында каралат. Бул маанилүү жагдай, анткени адаттагыдай, "кодерлор гана" же AIди программалагандар AI этикасынын түшүнүктөрүн карманышат. Бул жерде мурда баса белгиленгендей, AI иштеп чыгуу жана жайылтуу үчүн айыл керек жана ал үчүн бүт айыл AI этикасынын осуяттарын билиши керек.

Келгиле, нерселерди жерге түшүрүп, бүгүнкү күндөгү эсептөөчү сезилбеген AIга көңүл буралы.

ML/DL эсептөө үлгүсүн далдаштыруунун бир түрү. Кадимки ыкма сиз чечим кабыл алуу тапшырмасы жөнүндө маалыматтарды чогултасыз. Сиз маалыматтарды ML/DL компьютер моделдерине киргизесиз. Бул моделдер математикалык үлгүлөрдү табууга умтулушат. Мындай үлгүлөрдү тапкандан кийин, эгер табылса, AI системасы жаңы маалыматтарга туш болгондо ошол үлгүлөрдү колдонот. Жаңы маалыматтар берилгенден кийин, учурдагы чечимди чыгаруу үчүн "эски" же тарыхый маалыматтарга негизделген үлгүлөр колдонулат.

Менимче, сиз бул кайда бара жатканын биле аласыз. Эгерде чечимдерди кабыл алган адамдар терс көз караштарды камтыса, анда маалыматтар муну тымызын, бирок маанилүү жолдор менен чагылдырат. Machine Learning же Deep Learning эсептөө үлгүсүн дал келтирүү жөн гана тиешелүү түрдө маалыматтарды математикалык тууроого аракет кылат. AI тарабынан жасалган моделдөөнүн жалпы акыл-эстин же башка сезимтал аспектилердин окшоштугу жок.

Андан тышкары, AI иштеп чыгуучулар да эмне болуп жатканын түшүнбөй калышы мүмкүн. ML/DLдеги сырдуу математика азыр жашырылган калпыстыктарды жоюуну кыйындашы мүмкүн. Сиз AI иштеп чыгуучулары потенциалдуу көмүлгөн тенденцияларды сынашат деп үмүттөндүңүз жана күтөсүз, бирок бул көрүнгөндөн алда канча татаал. Салыштырмалуу кеңири тестирлөө менен дагы ML/DL үлгүсүнө дал келген моделдердин ичинде калпыстыктар сакталат деген чоң мүмкүнчүлүк бар.

Сиз кандайдыр бир атактуу же атагы чыккан таштандыны таштандыдан чыгаруу деген макалды колдонсоңуз болот. Эң негизгиси, бул AIнын ичине кирип кеткен көзкараштар катары тымызын түрдө пайда болгон бир тараптуулукка көбүрөөк окшош. AIнын алгоритмдик чечимдерди кабыл алуу (ADM) аксиоматикалык түрдө теңсиздикке толгон.

жакшы эмес.

Мен азыр AI ролун дезинформация жана туура эмес маалымат менен күрөшүүгө байланыштуу психологиялык эмдөөнүн каражаты катары жетиштүү талкуулоо үчүн этапты койдум деп эсептейм.

Адамдардын акылына кирүү

Келгиле, дезинформациянын жана дезинформациянын негизинде жаткан негиздер же негиздер менен баштайлы.

Негизинен, туура эмес маалымат жалган же адаштыруучу маалыматты билдирет.

Дезинформация болжол менен бирдей, бирок кошумча элементтен турат максат. Биз, адатта, маалыматты жалган маалымат катары түшүнөбүз арналган туура эмес маалымат берүү.

Мен сага азыр түнкү саат 10 деп айтсам болот, бул туура эмес, анткени убакыт чындап түн жарымы. Саат 10ду сага божомол катары айтсам жана алдаганга аракет кылбасам, адатта мен сага туура эмес маалымат бердим деп айтмакпыз. Мен туура эмес маалымат бердим. Балким мен жалкоо болгондурмун же чындап эле саат 10 деп ишенгендирмин. Башка жагынан алып караганда, эгер мен атайылап саат 10 экени жана убакыттын түн жарымы экенин билем деп алдагым келгендиктен 10 саатты айткан болсом, анда бул жалган маалыматтын бир түрү деп айтууга болот. .

Жалпысынан маалыматтын бир көрүнүктүү аспектиси, адатта, биз маалыматтын айланасында жайыла алабыз, демек, маалымат бир аз кеңири таралышы мүмкүн. Кеңири мааниде маалымат чындап эле суудай агып кетиши мүмкүн.

Мен сага айтам түнкү саат 10. Сизде азыр ошол өзгөчө маалымат бар. Сиз түнкү саат 10 болду деп жакын жердеги бир топко кыйкыра аласыз. Азыр аларда да ушундай маалымат бар. Мүмкүн ошол адамдардын айрымдары чөнтөк телефондорун алып, башка адамдарга чалып, саат 10 болуп калганын айтышат. Жалпысынан алганда, маалымат таркатылышы же бөлүшүлүшү мүмкүн жана кээде ушунчалык тез, ал эми башка учурларда өтө жай аткарылат.

Кандайдыр бир мааниде, сиз маалымат вируска айланып кетиши мүмкүн деп ырастасаңыз болот.

Маалыматтын вируска айланган бул кубулушун сүрөттөөгө жардам берген сиз көрбөгөн же колдонбогон ойлоп табылган сөз же терминология бар. инфодемиялык. Бул сөз маалыматтын аралашмасы жана эпидемия болуп саналат. Жалпысынан алганда, инфодемия туура эмес маалыматтын же дезинформациянын жайылышын камтыган жагдайлар менен байланышкан. Түшүнүк, жалган же адаштыруучу маалымат вирустук, каалабаган, оорунун же оорулардын каалабаган жайылышына окшош болушу мүмкүн.

Саат түнкү саат 10 болгон мисалда бул көрүнгөн чындык жакын жердеги адамдардын тобуна тараган маалымат болчу. Алар өз кезегинде бул фактыны башкаларга таратышты. Эгерде саат 10 жасалма болсо, анда бул дезинформация же туура эмес маалымат башка көптөгөн адамдарга тараган. Алар маалымат туура эмес же балким жалган маалымат экенин билишпейт.

Мен бул аныктамалар жана негиздер акылга сыярлык жана сиз ушул убакка чейин бортундасыз деп ишенем.

Жакшы, уланталы.

Мен сени абдан кызыктырган жана ошондой эле тынчсызданууну жараткан нерсеге бир аз тымызын алып келдим. Негизгиси, эмне оорулар вирустук кылат жана эмне туура эмес маалымат же жалган маалымат вирустук кылат ортосунда негиздүү негиздүү параллелдер бар.

Бул айтылган параллелдер менен баары эле макул боло бербейт. Ошентсе да, алар кызыктуу жана кароого татыктуу.

Мага кененирээк айтып берүүгө уруксат этиңиз.

Көрдүңүзбү, биз адамдан жуккан ооруларга жана жайылган ооруларга шилтеме жасоонун ыңгайлуу аналогиясын колдонууга аракет кылсак болот, муну менен туура эмес маалыматтын жана дезинформациянын таралышы менен окшош мүмкүнчүлүктү салыштырууга болот. Оорулардын жайылышын токтотууга аракет кылуу үчүн, биз оорунун мүмкүн болуучу жайылышын эрте аныктоого жана жаңы пайда болгон оорунун булагын камтыганга умтула алабыз. Жайылып жаткан оору менен күрөшүүнүн дагы бир ыкмасы - масканы же коргоочу шаймандарды кийүүнү этияттык менен колдонуудан сактануу. Үчүнчү ыкма бул ооруга байланыштуу иммунитетиңизди бекемдөө үчүн эмдөөлөрдү алуудан турат.

Оорулар менен күрөшүүдө ошол эле ыкмаларды туура эмес маалымат жана дезинформация менен күрөшүүгө ачык эле салыштырса болот деп биз азыр толук чөйрөгө келдик. Мен мурда айтылгандай, жалган маалымат жана туура эмес маалымат менен күрөшүү үчүн Жасалма интеллектти колдонууга окшош аракеттер жүрүп жатат, атап айтканда (мурда айтылгандай):

  • Иште токтоп: AI дезинформацияны жана туура эмес маалыматты ачыкка чыгара электе аныктоо жана акциздик кылууга аракет кылуу үчүн колдонулушу мүмкүн
  • Көрүлгөнгө чейин чыпкалоо: AI дезинформацияны жана туура эмес маалыматты чыпкалоо үчүн колдонулушу мүмкүн, андыктан сиз аны көрүп тынчсызданбайсыз
  • Сизди иммунитетке даярдаңыз: AI сиздин даярдыгыңызды жана жалган маалымат жана туура эмес маалымат менен күрөшүүгө жөндөмдүүлүгүңүздү бекемдөө үчүн колдонулушу мүмкүн (бир аз формалдуу түрдө психологиялык эмдөө түрү катары белгилүү)
  • башка

Үчүнчү аспект бул жерде абдан кызыктуу болот.

Мына келишим.

Биз билебиз, оору көбүнчө ооруга чалдыгат адам денеси. Туура эмес маалымат жана дезинформация кандайча пайда болгонун салыштыруу менен, биз туура эмес маалыматка сокку урууну сунуштай алабыз. адамдын акылы. Ооба, балким, сиз акылыңызга агып келген дезинформацияга же туура эмес маалыматка туш болушуңуз мүмкүн. Дезинформация же туура эмес маалымат сиздин ой жүгүртүүңүздү бузуп же ууландырышы мүмкүн.

Адамдын денеси эмдөөдөн өтүшүп, ооруларга кабылууга даярдана алат. Адамдын акыл-эси үчүн биз да ошондой кыла алабызбы деген чоң суроо туулат. Дезинформация же туура эмес маалымат сиздин оюңузга келгенде, сиз ага даяр экениңизди жана ошого жараша эмдөөгө аракет кылып, акылды эмдөө мүмкүнбү?

деп аталган изилдөө тармагы психологиялык эмдөө Акыл чындыгында туура эмес маалыматты же дезинформацияны башкарууга даяр деген мааниде эмделиши мүмкүн деп эсептейт.

Психологиялык эмдөө жана кээде кылып жаткан нерсеге байланыштуу акыркы изилдөөдө бул сүрөттөлүштү карап көрөлү prebunking:

  • «Дезинформацияны жокко чыгаруу да көйгөйлүү, анткени туура эмес маалыматты оңдоо дайыма эле анын кесепеттерин толугу менен жокко чыгара бербейт, бул көрүнүш үзгүлтүксүз таасир этүүчү эффект катары белгилүү. Тиешелүү түрдө, жалган маалыматтан айырмаланып, пребункинг жаңылыштыктын күтүлгөн таасирине каршы туруктуулукту алдын ала куруунун каражаты катары белгилүү болду. Бул ыкма көбүнчө эмдөө теориясына негизделген. Инокуляция теориясы медициналык эмдөө аналогиясын карманып, керексиз ынандыруу аракеттерине психологиялык каршылыкты түзүүгө болот деп эсептейт, медициналык эмдөөлөр патогендерге физиологиялык туруштук берет» (илимий жетишкендиктери, 24-август, 2022-жыл, “Психологиялык эмдөө социалдык медиадагы туура эмес маалыматка каршы туруктуулукту жакшыртат” авторлоштор Джон Рузенбек, Сандер ван дер Линден, Бет Голдберг, Стив Ратже жана Стефан Левандовский).

Түнкү саат 10до болгон мисалыма кайрылсак, мен мурда айткан элем дейли, кээде айтылган убакыт чыныгы убакыт эмес. Мындан ары сизде талап кылынган убактан сак болуу үчүн эмдөөнүн бир түрү бар. Бул эмдөө сизди дезинформация же туура эмес маалымат болуп саналган убакыттар менен байланышууга даярдады.

Эгер мен сизге бир нече жыл мурун айтылган убакыттар реалдуу убакыттар эмес деп алдын ала эскерткен болсом, анда сиз көп убакыт мурун болгон эскертүү жөнүндө ойлонбой калышыңыз мүмкүн. Ошентип, мурунку эмдөө (айталы) эскирди. Менин сизге эмдөөм күчөшү керек болушу мүмкүн.

Ошондой эле эмдөө зарыл болгон учурда аны колдонуу үчүн жетиштүү конкреттүү эмес болушу мүмкүн. Эгер мен бир нече жыл мурун сизге айтылган убакыттар менен чыныгы убакыттар жөнүндө эскерткен болсом, бул өтө кенен болушу мүмкүн. Саат 10до айтылган учурда эмдөө иштебей калышы мүмкүн. Бул жагынан алганда, балким, менин эмдөөм, саат 10 деп айтылган убакыт колдонулганда этият болушуңуз керек болчу. Албетте, ооруларга каршы эмдөөлөр бир аз окшош, кээде белгилүү ооруларга өзгөчө мүнөздүү, ал эми башка учурларда кеңири спектр.

Колумбия университетинен Уильям МакГуйр тарабынан 1961-жылы жасалган психологиялык эмдөө боюнча көп айтылган изилдөө изилдөө көбүнчө бул изилдөө тармагында классикалык деп эсептелет. Сизди ал ошол кезде айткан негизги ойлорду кызыктырышы мүмкүн:

  • «Мындай жалпыланган иммунизация эки механизмдин биринен келип чыгышы мүмкүн. Алдын ала таасир эткен адам ал ар дайым кабыл алган "труизмдер" чындап эле аялуу экенин түшүнүп, шок болушу мүмкүн, ошентип аны өз ишенимин коргоону өнүктүрүүгө түртөт, натыйжада ал күчтүү каршы аргументтерге туруштук берет. Же болбосо, алдын ала экспозицияга байланыштуу четке кагуулар ишенимге каршы кийин келтирилген бардык каршы аргументтерди анча таасирдүү кылып көрсөтүшү мүмкүн” (Уильям МакГуайр, “Resistance to Persuasion Conferred by Active and Passive Prior Refutation Of The Same And Alternative Counterarguments and Journal of Abnormal”. Социалдык психология, 1961).

Сиз эмдөө менен эмдөөнүн окшоштугун туура эмес маалымат жана дезинформация чөйрөсүнө пайдалуу жана ылайыктуу салыштыруу деп эсептейсизби?

Кээ бирлери кылат, кээ бири жок.

Бул талкуунун максаттары үчүн, бул негиздүү жана ылайыктуу экенин кабыл алыңыз.

Биз кантип аракет кылып, адамдардын аң-сезимин эмдөө же эмдөө керек?

Адамдардын акыл-эсин жарыктандыра турган китептерди окушубуз керек. Биз аларга бул тууралуу айта алабыз, же видеолорду көрүшүн же аудио кассеталарды угушубуз мүмкүн. Жана башкалар.

Жана биз да ушундай кылуу үчүн AI колдонушубуз мүмкүн.

AI системасы сиздин эмдөөчүңүз болушу үчүн иштелип чыгышы мүмкүн. Интернетке кире баштаганыңызда, мисалы, Интернетти карап, AI негизделген колдонмо сизди онлайн саякатыңызга даярдашы мүмкүн. AI сизди атайылап жалган бир нерсени көрүп жатканыңызды түшүнүүгө мүмкүндүк берген кичинекей дезинформация менен камсыз кылышы мүмкүн.

AI менен азыктанган бул дезинформацияга кабылгандан кийин, сиздин акылыңыз азыр Интернетте жапайы кездешүүчү дезинформация же туура эмес маалымат менен күрөшүүгө даярданып жатат. Сиздин акылыңыз даяр. Voila, сиз Интернетте блогду көрүп жатасыз, анда Марста келген келгин жандыктар жерде мурунтан эле бул жерде жана көзгө көрүнгөн жерде жашынып жүргөнү айтылган фактыларды сунуштайт, бирок бул дезинформация же жалган маалымат алдын ала эмдөөдөн улам сиздин акылыңыз тарабынан оңой эле четке кагылат (жакшы, анда дагы бир жолу, балким, бул чындык жана алар бул жерде!).

Эмнеси болсо да, сиз азыр AI адамдарды дезинформацияга же туура эмес маалыматка каршы эмдөөгө же иммунизациялоого кандайча жардам берерин түшүнө аласыз деп үмүттөнөм.

Ар кандай AI колдонмолору иштелип чыгууда, алар дезинформация же туура эмес маалымат инкулятору катары аткарышат. AI кенен жана эмдөөнүн жалпы көрүнүшүн камсыз кылган эмдөөнү камсыз кылууга умтулушу мүмкүн. AI эмдөөнүн конкреттүү формалары үчүн да иштелип чыгышы мүмкүн. Андан тышкары, AI сиздин өзгөчө муктаждыктарыңызга же кызыкчылыктарыңызга ылайыкташтырылган жекелештирилген негизде иштей алат. Бул мейкиндиктеги өркүндөтүлгөн AI ошондой эле иммунизация деп аталган кадрларды түзүп, көрсөтүүдө сиздин толеранттуулук деңгээлиңизди, психикалык сиңирүү ылдамдыгын, кармап калуу жөндөмдүүлүгүн жана башка факторлорду аныктоого аракет кылат.

Абдан ыңгайлуу көрүнөт.

AI коркунучтуу акыл оюндарынын оюнчусу катары

Ушундай жол менен колдонулган AI бир караганда абдан ыңгайлуу көрүнөт (эй, мен муну бир секунд мурун айтканмын).

Тынчсыздандырган, балким, коркунучтуу болгон көптөгөн терс жактары жана көйгөйлөрү бар.

Мен өзүмдүн колонкаларымда AIнын кош колдонуу мүмкүнчүлүктөрүн көп талкуулайм, мисалы карагыла бул жерде шилтеме. AI адамзат үчүн маанилүү салым боло алат. Тилекке каршы, AI да көптөгөн коркунучтарга жана бактысыз тузактарга дуушар болот.

AI инкультатор катары учурда, келгиле, AI этикасына байланыштуу ушул демонстративдик маселелерди карап көрөлү:

  • Адамдардын терс реакциялары
  • Адамдардын жооп бербеген реакциялары
  • AI туура эмес багыттоо
  • AI максаттуу эмес
  • AI кибер бузуу
  • башка

Биз ошол тынчсызданууларга кыскача токтолобуз.

Адамдардын терс реакциялары

AI негизиндеги эмдөөнүн мындай түрүн алган адам терс реакцияга ээ же терс таасир жаратат дейли.

Адам иммунизацияны туура эмес түшүнүп, күтүлбөгөн жерден алар алган маалыматты кабыл албай калышы мүмкүн. Алар бардык маалыматты жаап салат. AI кандайдыр бир жол менен аларды ымыркайды ваннанын суусу менен ыргытып жиберүүгө түрттү (эски сөз, балким, пенсияга чыгууга татыктуу). Жалаң дезинформация жана туура эмес маалымат менен күрөшүүгө аракет кылбастан, адам бардык маалымат дайыма жалган деп чечим кабыл алуу менен жооп кайтарды.

Менимче, биз адамдардын мындай чектен чыгышын каалабайбыз.

AI өрчүтө турган көптөгөн терс реакциялар бар. Бул жарым-жартылай AI кантип эмдөөгө аракет кылганына байланыштуу, бирок биз маселенин бир бөлүгүн эмдөө алган адамдын бутуна коюшубуз керек. Алар жапайы же таң калыштуу түрдө реакция кылышы мүмкүн, бирок ошол эле AI эмдөөсүн алган башкалар андай кылбаган.

Дагы бир жолу, сиз муну ооруларга каршы эмдөөнүн аналогиясына салыштырсаңыз болот.

Кыскача айтканда, мындай AI аракеттери колдонулганда, терс таасирлерди азайтуу үчүн жоопкерчиликтүү жолдор менен аткарылышы маанилүү. Терс реакция болгон-болбогондугун аныктоо үчүн AIнын кийинки аспектиси да болушу керек. Эгерде аныкталган терс реакциялар болсо, AI адамга терс жооп кайтарууга аракет кылып, жардам берүү жана жоопту жеңүүгө же жеңилдетүүгө аракет кылуу үчүн иштелип чыгышы керек.

Адамдардын жооп бербеген реакциялары

Дагы бир мүмкүнчүлүк, AI менен азыктанган эмдөө кабыл алуучу адамга эч кандай таасир этпейт.

Адам туура эмес маалыматка же жалган маалыматка байланыштуу AI негизинде эмдөө алат. Көпчүлүк адамдар "аны алып" жана иммунизацияланса, такыр реакция кылбай турган адамдар болушу мүмкүн. Алар эмдөөдөн эч нерсе үйрөнүшпөйт. Алар жасалма информациянын же жалган маалыматтын бардык же айрым түрлөрүнө каршы иммунизациялоо аракетине AI аракетине жооп бербейт.

Дагы бир жолу, бул ооруларга каршы эмдөө менен салыштырууга болот.

AI мындай жагдай менен күрөшүү үчүн иштелип чыгышы керек.

AI жаңылыштык

Элестеткиле, AI адамдарды X темасы деп айта турган белгилүү бир темага иммунизациялоону үмүттөнөт, бирок анын ордуна Y темасы камтылган экен. AI туура эмес максат коюп жатат.

Бул эки тараптуу көйгөй. Биринчиден, X темасы AI инокуляторунун болжолдуу жана күтүлгөн максаты катары камтылган эмес. Экинчиден, Y темасы камтылган, бирок биз адамдардын бул тема боюнча эмдөөдөн өтүшүн каалабагандырбыз.

Ой.

Суроолор көп. Мунун алдын алса болот беле? Эгер андай болуп калса, биз Y эмдөө темасын жокко чыгара алабызбы? Биз X эмдөө темасын чагылдырууга аракет кылсак болобу же AI башында туура эмес максат койгондуктан адам азыраак кабыл алабы же кабыл албайбы?

Көптөгөн көйгөйлүү тынчсыздануулар пайда болот.

AI максатсыз

AI Z темасы боюнча эмдөөнү камсыз кылат. Эмдөө алган адамдардын реакциясы минималдуу же дээрлик жокко эсе окшойт. Эмдөө кармоо үчүн жетишсиз болгон.

Сиз бул оңой эле чечилет деп айтууга азгырылышы мүмкүн. Болгону эмдөөнү кайталоо керек. Балким Ооба балким жок.

AI эмдөө ушунчалык чектелген мааниге ээ болушу мүмкүн, эгер сизде адамдар аны жүз жолу баштаса дагы, натыйжа дагы деле маргиналдуу натыйжа болуп калат. Жөн эле кайталабастан, эмдөөнү күчөтүшүңүз керек болушу мүмкүн.

Ошол эле учурда, AI менен азыктандырган эмдөөнү күчөтүү аракети жасалып жатканын элестетиңиз, бирок бул чектен чыгып кетет. Көбөйтүлгөн версия гипер-реакцияларды жаратат. Ооба, биз жамандан да жаман болуп калдык.

AI кибер бузуу

AI адамдарга жалган маалыматтан жана туура эмес маалыматтан сактанууга жардам берүү үчүн кеңири колдонулуп жатканын элестетиңиз.

Адамдардын жалпы ишеними бар. Алар AI аларга дезинформация жана туура эмес маалымат деп аталган нерсеге көзүн ача турган үзүндүлөрдү сунуштай турганын билишет жана күтүшөт.

Баары жакшы жана жакшы окшойт.

Жамандык кылган адам кандайдыр бир жол менен AIда кибер бузуу жасай алат. Алар AIга кандайдыр бир каалаган дезинформацияны күч менен киргизишет, алар адамдар дезинформация эмес деп ойлошу керек. AI чыныгы дезинформацияны чыныгы маалымат катары көрсөтүү үчүн уюштурулган. Ошондой эле, чыныгы маалымат жалган маалымат катары көрсөтүлөт.

Адамдар толугу менен шылдыңдап жатышат. Аларды AI дезинформациялоодо. Анын үстүнө, алар AIга көз каранды болуп калгандыктан жана AI туура иш кылып жатканына ишенгендиктен, алар бул бузулган AI үчүн илгич, сызык жана чөгүп калышат. Ойлонбостон.

Дезинформациянын канчалык тез жайылып кетишин эске алсак, кара ниет адам AIнын бул түрүнүн бар экендиги алардын тымызын калптарын дүйнө жүзү боюнча жайылтуунун эң оңой жана эң тез жолу экенине ыраазы болушу мүмкүн. Таң калыштуусу, албетте, ооруну жайылтуу үчүн AI инокуляторун колдонду.

жыйынтыктоо

AI биз менен акыл оюндарын ойношу керекпи?

Дезинформация жана туура эмес маалыматты эмдөө үчүн AI коркунучтуу троян аты болушу мүмкүнбү?

Сиз мындай коркунучтуу түш жөнүндө тынчсыздануу үчүн олуттуу далил келтире аласыз.

Башкалар мындай мүмкүнчүлүктү шылдыңдашат. Адамдар AI аларды алдаганга аракет кылганда билиш үчүн жетиштүү акылдуу. Мындай дриблингге адамдар түшпөйт. Мындай AI менен акмактар ​​гана өздөрүн адаштырышат. Бул адаттагыдай жооп кайтаруу жана каршы аргументтер.

Адамдарга жана адамдын табиятына толугу менен суктангандай көрүнгүм келбей, мен жөн гана адамдар аларды адаштырган AIга түшүшү мүмкүн деген көптөгөн көрсөткүчтөрдү сунуштайт элем.

Мунун баарынын үстүнөн, балким, андан да чоң маселе бар.

AIны ким түзөт жана AI алгоритмдик түрдө жалган маалымат жана туура эмес маалымат деп эсептелген нерсени кантип чечет?

Бүгүн дүйнөдө жалпысынан дезинформация жана туура эмес маалымат деген эмне жөнүндө бүтүндөй өрт өчүрүү жүрүп жатат. Кээ бирөөлөр фактылар фактылар деп ырасташат, ошондуктан туура маалымат менен туура эмес маалымат кандай экендиги жөнүндө эч качан баш аламандык болушу мүмкүн эмес. Шайтан кээде майда-чүйдөсүнө чейин болсо да, бул сөзсүз түрдө.

Азырынча акыркы эскертүү. Авраам Линкольн: «Силер бардык адамдарды кээ бир убакта жана кээ бир адамдарды дайыма алдай аласыңар, бирок элдин баарын ар дайым алдай албайсыңар» деп айткан.

Адамдарды жалган маалыматтан жана туура эмес маалыматтан эмдөөгө жардам берүү үчүн колдонулган AI бардык адамдарды дайыма эле алдап кетпеши үчүн маанилүү курал болобу? Же көбүрөөк элди алдоо үчүн колдонулушу мүмкүнбү?

Убакыт көрсөтөт.

Жана бул, албетте, эч кандай дезинформация же туура эмес маалымат.

Source: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/