Жасалма интеллект (AI) боюнча ондогон эксперттер, анын ичинде OpenAI, Google DeepMind жана Anthropic компанияларынын башкы директорлору жакында AI Коопсуздук борбору (CAIS) тарабынан жарыяланган ачык билдирүүгө кол коюшту.
Биз жөн гана билдирүү жасадык:
"AIдан жок болуу коркунучун азайтуу пандемия жана өзөктүк согуш сыяктуу башка коомдук масштабдагы тобокелдиктер менен бирге глобалдык артыкчылык болушу керек."
Кол койгондордун арасында Хинтон, Бенджио, Альтман, Хассабис, Сонг ж.б. бар.https://t.co/N9f6hs4bpa
(1 / 6)
— Дэн Хендрикс (@DanHendrycks) 30 мүмкүн, 2023
Билдирүүдө бир сүйлөм бар:
"AIдан жок болуу коркунучун азайтуу пандемия жана өзөктүк согуш сыяктуу башка коомдук масштабдагы тобокелдиктер менен бирге глобалдык артыкчылык болушу керек."
Документке кол койгондордун арасында жасалма интеллекттин көрүнүктүү ишмерлеринин чыныгы “ким кимиси” бар, анын ичинде AIнын “Өкүл атасы” Джеффри Хинтон; Калифорния университети, Берклидеги Стюарт Рассел; жана Массачусетс технологиялык институтунун өкүлү Лекс Фридман. Музыкант Гримс дагы "башка көрүнүктүү инсандар" категориясына кирген кол коюучу.
байланыштуу: Музыкант Гримс AI жараткан музыка менен "50% гонорарды бөлүүгө" даяр
Бул билдирүү сыртынан зыянсыз болуп көрүнсө да, AI коомчулугунда негизги билдирүү бир аз талаштуу.
Эксперттердин көбөйүп бараткан саны азыркы технологиялар адамдын түрүнө экзистенциалдык коркунуч туудурган AI системасынын пайда болушуна же өнүгүшүнө алып келиши мүмкүн деп эсептешет.
Бирок, алардын көз караштарына таптакыр карама-каршы пикирлери бар эксперттердин контингенти каршы чыгат. Мисалы, мета-башчы AI илимпоз Янн ЛеКун, AI башкарылбай калат деп сөзсүз эле ишенбейт деп көп жолу белгилеген.
Супер адамдык AI экзистенциалдык тобокелдиктердин тизмесинин башында эмес.
Көбүнчө, анткени ал азырынча жок.Бизде ит деңгээлиндеги AI үчүн негизги дизайн (адам деңгээлинде мындай турсун), аны кантип коопсуз кылууну талкуулоо эрте. https://t.co/ClkZxfofV9
— Янн Лекун (@ylecun) 30 мүмкүн, 2023
Ага жана Google Brainдин тең негиздөөчүсү жана Baidu компаниясынын мурдагы башкы окумуштуусу Эндрю Нг сыяктуу "жок болуу" риторикасына макул болбогондор үчүн AI көйгөй эмес, бул жооп.
Аргументтин экинчи тарабында, Хинтон жана Conjecture компаниясынын башкы директору Коннор Лихи сыяктуу эксперттер адамдык деңгээлдеги AI сөзсүз жана азыр иш-аракет кылууга убакыт келди деп эсептешет.
Бардык ири AI лабораторияларынын жетекчилери бул катка кол коюшту жана AGIден жок болуу коркунучун ачык моюнга алышты.
Алдыга укмуштуудай кадам, Дэнди муну бириктирген укмуштуудай эмгеги үчүн куттуктайбыз жана ар бир кол коюучуга жакшы келечек үчүн өз салымын кошкону үчүн рахмат! https://t.co/KDkqWvdJcH
— Коннор Лихи (@NPCollapse) 30 мүмкүн, 2023
Бирок билдирүүгө кол койгондор кандай аракеттерди талап кылып жатканы белгисиз. Дээрлик ар бир ири AI компаниясынын башкы директорлору жана/же AI жетекчилери, ошондой эле ар кайсы академиянын атактуу илимпоздору кол койгондордун арасында, бул кооптуу системалардын өнүгүшүн токтотуу ниети эмес экенин айкын көрсөтүп турат.
Ушул айдын башында, OpenAI CEO Сэм Альтман, жогоруда аталган билдирүүгө кол койгондордун бири, Конгресстин алдында AI жөнгө салуу боюнча талкуулоо үчүн Сенатта угуу учурунда биринчи жолу чыкты. Анын көрсөтмөлөрү анын көпчүлүк бөлүгүн депутаттарды өз тармагын жөнгө салууга үндөгөндөн кийин гезиттерге чыгарды.
Альтмандын Worldcoin долбоору, криптовалютаны жана инсандыкты айкалыштырган долбоор, ошондой эле жакында эле C сериясынын каржылоосунда 115 миллион доллар чогулткандан кийин массалык маалымат каражаттарына чыгып, үч турдан кийин анын жалпы каржылоосун 240 миллион долларга жеткирди.
Булак: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war