AI Хайптын ыйлаган карышкыр учуру пайдасыз

Мен адамзаттын акыры сценарийлерин изилдеген адам болсом да, 6 айлык AI мораторийин сунуштаган "эксперттик кат" же AI коркунучу пандемия жана өзөктүк тобокелдиктин деңгээлинде деген акыркы билдирүүлөр тең ашыкча деп эсептейм. AIны жабуу керек деген андан да жапайы пикир жоопкерчиликсиздик. Ар кандай тынчсыздануу биз туш болгон тобокелдиктерге пропорционалдуу болушу керек. Азыркы учурда, биз AI коркунучу жок.

Учурдагы AI коомду басып алууга жөндөмдүү эмес. Алардын сезимдери жок жана адам жашоосундагыдай коргоого татыктуу эмес. Алар суперакылдуу эмес жана эч кандай жалпы жагынан адамдардан ашпайт. Чынында, алар такыр ойлонушпайт. Азыркы учурда, эгерде көп маалыматтар менен камсыз болсо, AI эсептөө жана болжолдоо сыяктуу конкреттүү тапшырмаларды аткарууда абдан жакшы. Бул кооптуу эмес, бул системалардын дизайны боюнча өзгөчөлүктөр. AIлардын убадасына ракты чечүү, өнөр жай өндүрүшүн өзгөртүү, келечектеги сценарийлерди моделдөө жана экологиялык көйгөйлөрдү башкаруу кирет. Ушуну менен бирге, азыркы AIларды ресурстарды пайдалануу, ачык-айкындуулук, бир тараптуулук, киберкоопсуздук жана анын келечектеги жумуштуулукка тийгизген таасири үчүн сынга алууга мыйзамдуу негиздер бар.

Интеллектуалдык интеллекттер эсептөө жагынан кымбат – бул алар жетишсиз, фоссилдик энергиянын чоң чыгымын билдирет. Бул дароо чечилиши керек. Бирок бул экзистенциалдык маселе эмес, бул ресурстарды сарамжалдуу пайдалануу маселеси. Чоң жана натыйжасыз маалымат моделдерине таянган AIлардын академия же өкмөт тарабынан байкоо жана иликтөө үчүн өтө кымбат болуп жатканы реалдуу маселе. Бирок аны тез арада оңдоого болот. Элиталык академиялык институттардын же өкмөттөрдүн консорциумдары чогулуп, суперкомпьютинг үчүн жасагандай эсептөө ресурстарын бөлүшө алышат.

Large Language Models (LLM) – бул чоң көлөмдөгү маалыматтардан табигый тилдеги тексттерди түзө алган AI моделдери. Бир маселе, бул тексттер башка адамдардын чынчыл интеллектуалдык салымдарынан түздөн-түз алынган. Алар чындыгында уурдалган. Айрыкча, генеративдик AI керектөөчү жана уюмдук маалыматтарды, ошондой эле автордук укукту одоно бузган чыгармачыл мазмунду бириктирет. Бул олуттуу, бирок экзистенциалдык эмес, андан тышкары, Евробиримдик, Голливуддун лоббисттери жана "чоң бештик" китеп басып чыгаруучулар буга чейин эле иш козгоп жатышат. Бул AI'тин ылдамдыгын жайлатат деп күтүңүз. Учурдагы темп менен, AI жакшы машыгуу маалыматтары сезимге жакындаганга чейин эле түгөнүп калат.

Салыктарды эсептөөдө, онлайн каналдарыбызды тандоодо же адамдарды түрмөгө отургузууда колдонулган алгоритмдер ачык-айкындуулуктун жетишсиздигине ээ. Бирок, бул көп жылдардан бери болуп келген жана AIнын акыркы жетишкендиктери менен эч кандай байланышы жок. AI тенденциясы ката эмес, өзгөчөлүк болуп саналат. Стереотиптөө, чындыгында, мындай моделдер иштей турган негизги ыкма. Болбосо, бейкалыс адамдар, эксперттер же жокпу, машина ой жүгүртүүнүн өтпөс катмарларында жашырылган. Биз суроо беришибиз керек болгон нерсе, алар жараткан системанын мүмкүнчүлүктөрү эмес, мындай системаларды иштеп чыккан иштеп чыгуучулардын акылмандыгы. Системалар аны курган же иштеткендердин акылмандыгынан же ниетинен жакшыраак болот.

AI окутуу маалыматтары ошол маалыматтар чогултулган коомдогу бир жактуулукту чагылдырат. Жаман машыгуу маалыматтарын кайра колдонуу - бул AI моделдерин булгаган тынчсыздандырган практика. Учурдагы AI мамилеси натыйжага тез жетүү үчүн бир тараптуулукту күчөтөт. Бул, албетте, биз каалаган нерсеге карама-каршы келет. Биз эмне кылгыбыз келет - адам катасын коргоо үчүн технологияны колдонуу. Машинанын катасы жөнүндө тынчсыздануу адамдын акылын ысырапкорчулук менен пайдалануу болуп саналат.

"Нейрондук тармак" метафорасына карабастан, учурдагы AI эч кандай элестетүү жагынан мээге окшошпойт. Азыркы AI системалары адамдар сыяктуу окшоштуктар менен ой жүгүртө албайт. Бул жакшы. Биз чындыгында зелоттар жактаган жана туураганга аракет кылып жаткан AI тегиздөөсүн каалабашыбыз мүмкүн. Машиналар адамдардан айырмаланып турушу керек. Мына ошентип биз бири-бирибиздин күчтүү жактарыбызды арттыра алабыз. Жана кантип биз машиналарды өзүнчө жана өзүнчө сактай алабыз. Машиналар тегиздөө үчүн эч кандай кызыкчылыктарга ээ болбошу керек.

AI барган сайын кылмышкерлер жана душман мамлекеттер үчүн актив катары киберкоопсуздуктун олуттуу коркунучун билдирет. Бирок киберкоопсуздук бул көйгөйдү чечүү үчүн жакшы жабдылган көптөгөн эксперттерге ээ жетилген тармак. Киберкоопсуздук коркунучунан улам AIны жабууга эч кандай себеп жок.

AIнын айынан жумуштуулуктун үзгүлтүккө учурашы көп жылдар бою саясат маселеси болуп келген, адегенде роботтор, азыр программалык камсыздоого негизделген AI системалары. Бул өкмөттөр аны менен күрөшүүгө даяр болот дегенди билдирет. MIT Work of the Future изилдөөсү роботтордун айынан жумушсуздукка байланыштуу тынчсыздануу ашыкча айтылган. Адамдар ар дайым иштөөнүн жолдорун табышкан жана келечекте да табат. Өндүрүш AI аркылуу өзгөрөбү? Бул азыртадан эле болуп жатат, бирок бир кыйла көзөмөлдөнгөн модада.

Мезгил-мезгили менен AI учурдагы функционалдуулук же келечектеги масштаб жөнүндө ашыкча убадалардан жапа чегип келет. Биринчи AI кыштары 1974–1980-жылдары АКШ өкмөтү каржылоону тартып алгандан кийин башталган. Экинчиси 1987–1993-жылдары болгон, анткени чыгымдар көбөйүп, AI өзүнүн бийик убадаларын аткара алган жок.

Жаңы парадигмалардын келишин күтүп, 2025–2030-жылдар аралыгында, биз үчүнчү AI кышкысына киришибиз мүмкүн. Жок дегенде ысык AI жайына салыштырмалуу бизге убада кылынган. Себеби, жогоруда айтылган себептердин бардыгына карабастан, чоң тил моделдери максималдуу пайдалуулугуна жетишүү алдында турат жана акыр-аягында алда канча ачык-айкын болгон эсептөөчү алда канча көрктүү ыкмалар менен алмаштырылышы керек болот.

Мындай талапкерлердин бири гипер өлчөмдүү эсептөөлөр болуп саналат, ал машиналарды эффективдүүрөөк ойлонууга жардам берет, анткени алар машиналарга семантикалык түшүнүктү, реалдуу дүйнөдөгү маалыматтын маанисин жана контекстти иштетүү мүмкүнчүлүгүн берет. Учурда AI системалары сөздөр менен сөз айкаштарынын ортосундагы байланышты түшүнбөйт, алар жөн гана божомолдоодо жакшы. Бул жетишсиз. Бизге акырында AI керек болот, анткени ой жүгүртүү мейкиндикти кабылдоо менен байланышкан. Бул, албетте, абдан физикалык оюн болгон өндүрүштө. Бизге ошондой эле адамдын эс тутумунун өзгөчөлүктөрүнө жөндөмдүү AI керек болот, мисалы, кээ бир маалыматты алдын ала пландоо жана башка маалыматтын негизинде артыкчылык берүү. Унутуу – бул адамдар абстракттуу ой жүгүртүү, эскирген уюштуруучулук практикадан өтүү, чечимдерди кабыл алуу жана учурда калуу үчүн колдонгон курал жана бул жөн эле кемчилик эмес. Азырынча бир дагы машина муну жакшы аткара албайт.

Бул арада биз жөнгө салышыбыз керек, бирок бул экинчи эмес. Жана, биз жөнгө салганда, биз аны жакшыраак кылабыз. AIнын туура эмес жөнгө салынышы кырдаалды ого бетер начарлатышы мүмкүн. Регуляторлорду бул чакырыктан ойготуу пайдалуу болушу мүмкүн, бирок мен жөнгө салуучулардын азыркы мууну муну жакшы ишке ашыруу үчүн зарыл болгон чоң өзгөрүүлөргө даяр экенине ишенбейм. Бул күчтүү компанияларды (балким, тизмедеги бардык компанияларды) кыскартууну, башкарууда AI колдонууну чектөөнү талап кылат жана азыркы учурда керектөө рынокторунун иштөө ыкмасына эбегейсиз өзгөрүүлөрдү алып келет. Негизи биз коомду кайра түзүшүбүз керек. Бул биз күткөндөн бир нече ондогон жылдар эрте өсүүгө алып келет. AI курчап турган ачыктык маселеси, албетте, алардын байланышы жок деп эмес, бардыгын тынчсыздандырган башкаруу өзгөрмөлөрүнө караганда алда канча оор болушу мүмкүн.

Мындан тышкары, AI эталонуна жеткен сайын биз бирдей тынчсыздана албайбыз. Биз энергиябызды каскаддуу тобокелдиктин чындап чоң учурлары үчүн сакташыбыз керек. Алар келишет, калыстык үчүн биз даяр эмеспиз. Менин болжолдонгон келечектеги сценарийлерим (2075-жылдагы жок болуу сценарийлерин караңыз) бүтүндөй өлкөлөрдү бир нече ай бою өз процесстеринен четтетип турган массалык маалымат бузууларды камтыйт. Мен ошондой эле кылмыштуу топтор же мамлекеттик актерлор жардам берген AI жөнүндө тынчсызданам. Баарынан да мени AI, нанотехнология, синтетикалык биология жана кванттык технологиянын айкалыштары тынчсыздандырат - белгисиз жөндөмдүүлүктөгү көзгө көрүнбөгөн квази-органикалык интеллекттин жанында, балким, бир нече ондогон жылдардан кийин, дүйнө климаттын каскаддуу таасири менен жалмап турганда болот. өзгөртүү.

Азыркы AI моделдери азырынча адамзатка коркунуч туудургандай жакшы иштебейт. Аларды өчүрүүнү ойлонуш үчүн, бизге жакшыраак AI керек. Андан дагы бизге акылдуу иштеп чыгуучулар, көбүрөөк сезимтал жарандар жана жакшыраак маалыматтуу саясат түзүүчүлөр керек. Бизге ошондой эле AIны КАНТИП жөнгө салуу боюнча концепция керек. Бирок бул эч нерсе жайлатпастан жасалышы мүмкүн. Бул бардыгы үчүн билим берүүчү саякат болот. GPT 4 (2023) жөнүндөгү мораторий каты - бул карышкырдын кыйкырык учуру жана адамзат жакынкы ондогон жылдардагы каскаддык тобокелдиктерге анча окшош эмес. 2023-жылы AI коркунучун пандемия коркунучунун жана өзөктүк коркунучтун деңгээлине коюу эртелик кылат. Биз ал жакка жетебизби? Балким. Бирок карышкырдын ыйлаганынын кесепети бар. Ал чыныгы коркунучтар жөнүндө келе жаткан талаш-тартыштардан кычкылтекти соруп алат.

Булак: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/