Ошол Генератив AI ChatGPT ката жана галлюцинатордук натыйжаларын ачып, журналга жазуу кандайдыр бир жакшылыкка алып келеби, AI этикасын жана AI мыйзамын сурайт

Сиз сырга кирип жатасыз.

Ооба, сиз билгиңиз келген акыркы AI жөнүндө көшөгө артында жашыруун бир нерсе болуп жатат.

Бүгүнкү тилкеде мен ChatGPT деп аталган AI колдонмосунан чыгарылган эсселер менен байланышкан болжолдонгон каталарды жана башка ооруларды түзүүгө акыркы түрткүнү карап чыгам. Бул атайын колдонмо AI түрүн колдонуп жатат Генеративдик AI. Сиз генеративдик AI жана ChatGPT жөнүндө көз жоосун алган баш макалаларды уккандырсыз же көргөнсүз. Жаңылыктар ушул конкреттүү AI колдонмосуна жана AIнын бул түрүнө тиешелүү таң калыштуу көрүнгөн мүмкүнчүлүктөрүнө байланыштуу.

Мен бир аздан кийин айта турган болсом, айрымдар AI колдонмосу сиз үчүн эссе түзүп жатканда кандай каталардын же каталардын тизмесин түзүшүбүз керек деп катуу ишенишет. Башкалары болсо, мындай тизменин түшүнүгү суктанарлык болсо да, бул курулай көнүгүү жана өтө аз жемиш берет деп эсептешет.

Биз ошол кызуу талаш-тартыштын эки тарабын тең карап чыгабыз.

Биринчиден, келгиле, баарыбыз Генеративдик AI эмнеден тургандыгы жана ChatGPT эмне жөнүндө экени жөнүндө бир бетте экенибизди текшерип көрөлү.

ChatGPT – бул жалпы максаттуу AI интерактивдүү баарлашууга багытталган тутуму, чындыгында зыянсыз көрүнгөн жалпы чатбот, ошентсе да, аны адамдар жигердүү жана ынтызарлык менен колдонушат, бул көпчүлүктү толугу менен байкабай калат. AIнын бул түрүн колдонуу үчүн эмне кылышыңыз керек болсо, бул эскертүү киргизүү жана AI колдонмосу сизге сурооңузга жооп берүүгө аракет кылган эссе жаратат.

Тилекке каршы, бул кандайдыр бир этикага туура келбеген же арам жолдор менен колдонулушу мүмкүн. Айрыкча кыжырданткан нерсе, студенттер генеративдик AI колдонмосун колдонуп, аларга дайындалган дилбаяндарды түзө алышат жана колдонмону туура багытта алуу үчүн жөн гана бир-эки сүйлөмдү киргизүү менен жасай алышат. Кээ бирөөлөр бул студенттер сабактан тышкары эссе жазууда алдамчылыкты тандашат дегенди билдирет деп кейишет. Мугалимдер эмне кылуу керектигин аныктоого аракет кылып жатышат, менин анализдеримди жана сунуштарымды карагыла бул жерде шилтеме.

ChatGPT үчүн мактоого татырлык мактоого карабастан, биринчи кезекте AI инсайдерлери элди тынчсыздандырышы керек болгон кээ бир көрүнүктүү маселелер жана тынчсыздануулар бар деген анча белгилүү болгон тынчсыздануу бар. Бир маанилүү жетишпеген жагы бул AI колдонмосу тарабынан даярдалган эсселерде ар кандай жалган маалыматтар, анын ичинде ачык чындыкка дал келбеген фактылар, адаштыруучу түрдө чагылдырылган фактылар жана толугу менен ойдон чыгарылган ачык-айкын фактылар болушу мүмкүн. Ошол жасалма аспектилери көбүнчө бир түрү деп аталат AI галлюцинациялары, мага жакпаган, бирок өкүнүчтүү түрдө баары бир популярдуулукка ээ болуп жаткандай сезилет (бул эмне үчүн ыплас жана ылайыксыз терминология жөнүндө менин кеңири түшүндүрмөм үчүн, менин камтууумду караңыз: бул жерде шилтеме).

Бул теманын чоо-жайына киришерден мурун мен бир маанилүү жагдайды тактап алгым келет.

Бул тууралуу социалдык тармактарда өтө чоң дооматтар пайда болду Генеративдик AI AIнын бул акыркы версиясы чындыгында экенин ырастайт сезимтал AI (жок, алар туура эмес!). AI этикасында жана AI мыйзамында иштегендер, айрыкча, кеңейтилген талаптардын өсүп жаткан тенденциясына тынчсызданышат. Кээ бир адамдар азыркы AI иш жүзүндө эмне кыла аларын ашыкча айтып жатышат деп сылыктык менен айта аласыз. Алар AI биз жетише албаган мүмкүнчүлүктөргө ээ деп ойлошот. Бул ийгиликсиз. Андан да жаманы, алар AI акыл-эстүү же адамга окшош болот деген ойдон улам өздөрүн жана башкаларды оор кырдаалга кабылышы мүмкүн.

AIды антропоморфизациялабаңыз.

Мындай кылуу сизди AI аткара албаган нерселерди жасайт деп күткөн жабышчаак жана ачуу тузагына түшүп калат. Ушуну менен бирге, генеративдик AIдагы эң акыркысы ал эмне кыла ала тургандыгы үчүн салыштырмалуу таасирдүү. Ар кандай генеративдик AI колдонмосун колдонууда дайыма эстен чыгарбоо керек болгон олуттуу чектөөлөр бар экенин унутпаңыз.

Эгерде сизди ChatGPT жана Generative AI жөнүндө тездик менен кеңейип жаткан ызы-чуу кызыктырса, анда мен өзүмдүн колонкамда сиз маалыматка ээ болушу мүмкүн болгон багытталган серияларды жасап жатам. Бул темалардын бири сиздин оюңузга тийип калса, карап көрөлү:

  • 1) Генеративдик AI жетишкендиктери жөнүндө божомолдор. Эгер сиз 2023-жылы жана андан кийинки мезгилде AI жөнүндө эмне болорун, анын ичинде генеративдик AI жана ChatGPTдеги алдыдагы жетишкендиктерди билгиңиз келсе, анда менин 2023-жылга карата божомолдорумдун толук тизмесин окугуңуз келет: бул жерде шилтеме.
  • 2) Генеративдик AI жана психикалык ден соолук боюнча кеңеш. Мен генеративдик AI жана ChatGPT психикалык ден соолук боюнча кеңеш берүү үчүн кандайча колдонулуп жатканын карап чыгууну чечтим, бул көйгөйлүү тенденция, менин басымдуу анализим боюнча. бул жерде шилтеме.
  • 3) Контексттик жана генеративдик AI колдонуу. Мен ошондой эле ChatGPT жана генеративдик AI камтыган Санта-байланыштуу контекст жөнүндө сезондук даамдуу тилди текшерүүнү жасадым. бул жерде шилтеме.
  • 4) Генеративдик AI колдонуу менен алдамчылар. Коркунучтуу белги боюнча, кээ бир шылуундар генеративдик AI жана ChatGPTти туура эмес иш-аракеттерди жасоо үчүн, анын ичинде алдамчылык электрондук каттарды жана атүгүл кесепеттүү программалар үчүн программалоо кодун чыгарууну кантип колдонууну табышты, менин анализимди караңыз: бул жерде шилтеме.
  • 5) Генеративдик AI колдонуудагы жаңылыштык каталар. Көптөгөн адамдар генеративдик AI жана ChatGPT эмне кыла аларын өтө эле чектен чыгарып, таң калыштуу түрдө байкабай жатышат, ошондуктан мен өзгөчө AI башталгычтары жасай турган кемчиликтерди карадым, талкууну караңыз: бул жерде шилтеме.
  • 6) Генератив AI чакырыктары жана AI галлюцинациялары менен күрөшүү. Мен генеративдик AIге ылайыктуу сунуштарды киргизүүгө аракет кылуу менен байланышкан ар кандай маселелерди чечүү үчүн AI кошумчаларын колдонуунун алдыңкы ыкмасын сүрөттөп берем, ошондой эле AI галлюцинацияланган натыйжаларды жана жалгандык деп аталгандарды аныктоо үчүн кошумча AI кошумчалары бар. капталган бул жерде шилтеме.
  • 7) Генератив AI тарабынан чыгарылган эсселерди аныктоо жөнүндө Bonehead дооматтарын жокко чыгаруу. AI колдонмолорунун туура эмес багыты бар, алар кандайдыр бир эссе адам тарабынан жасалганбы же AI тарабынан жасалганбы же жокпу аныктай алат деп жарыялайт. Жалпысынан алганда, бул адаштыруучу жана кээ бир учурларда, сөөк баштуу жана негизсиз доомат, менин камтууумду караңыз бул жерде шилтеме.
  • 8) Генеративдик AI аркылуу роль ойноо психикалык ден соолуктун кемчиликтерин чагылдырышы мүмкүн. Кээ бирлери ролду ойноо үчүн ChatGPT сыяктуу генеративдик AI колдонушат, мында AI колдонмосу адамга фантазия дүйнөсүндө же башка ойдон чыгарылган жагдайда жүргөндөй жооп берет. Бул психикалык ден-соолукка терс таасирин тийгизиши мүмкүн, карагыла бул жерде шилтеме.

Келгиле, азыр генеративдик AI жана ChatGPTтин маңызын талкуулап көрөлү, ошондо сиз тартылган негиздер менен таанышасыз. Андан кийин биз бул AI колдонмолору жаратышы мүмкүн болгон жалган маалыматтарды иликтөөгө даяр болобуз. Мен ChatGPTти колдонуунун бир нече мисалдарын келтирем, бул сизге генеративдик AIдин бул түрү эмнелерди жаратаарын түшүнүүгө жардам берет.

Генеративдик AI боюнча курттарды ачуу

Биз AI жөнүндө кээ бир майда-чүйдөсүнө чейин сүңгүүгө даярбыз.

Эгер сиз генеративдик AI жана ChatGPT темасын жакшы билсеңиз, анда менин ойлорду кыскача карап чыгып, бул талкуунун кийинки бөлүмүн улантсаңыз болот. Башкалар үчүн бул түшүндүрмө сизге пайдалуу болушу мүмкүн деп ишенем.

Кыскача айтканда, генеративдик AI - бул текстти адамдын колу жана акылы жазгандай түзгөн AIнын өзгөчө бир түрү. Болгону, "Мага Авраам Линкольн жөнүндө айтып бериңиз" сыяктуу сүйлөм сыяктуу сунушту киргизишиңиз керек жана генеративдик AI сизге Линкольн жөнүндө эссе менен камсыз кылат. Бул адатта аткарган генеративдик AI катары классификацияланат тексттен текстке же кээ бирөөлөр аны атагысы келет тексттен эссеге чыгаруу. Тексттен көркөмгө жана тексттен видеого сыяктуу генеративдик AIнын башка режимдери жөнүндө уккандырсыз.

Сиздин биринчи оюңуз, бул эссе чыгаруу жагынан анчалык деле чоң иш эместей сезилиши мүмкүн. Сиз Интернеттен онлайн издөөнү оңой эле жасай аласыз жана президент Линкольн жөнүндө тонна жана тонна эсселерди таба аласыз. Генеративдик интеллекттин эң негизгиси, түзүлгөн эссе салыштырмалуу уникалдуу болуп саналат жана көчүрмөчү эмес, оригиналдуу композицияны берет. Эгер сиз AI тарабынан даярдалган эссени интернеттен табууга аракет кылсаңыз, аны таба албайсыз.

Генеративдик AI алдын ала даярдалган жана Интернетте жазылган сөздөрдөгү жана окуялардагы үлгүлөрдү изилдөө жолу менен түзүлгөн татаал математикалык жана эсептөө формуласын колдонот. Миңдеген жана миллиондогон жазылган үзүндүлөрдү изилдөөнүн натыйжасында AI табылган нерселердин бири-бирине дал келбеген жаңы эсселерди жана окуяларды чыгара алат. Ар кандай ыктымалдык функцияларды кошуу менен, натыйжада текст окуу топтомунда колдонулганга салыштырмалуу уникалдуу болуп саналат.

Ошондон улам студенттер класстан тышкары дилбаян жазганда алдамчылыкка жол берип жатканы тууралуу ызы-чуу чыккан. Мугалим алдамчы окуучулардын өзүнүн жазганы деп ырастаган эссени алып, анын башка интернет булактарынан көчүрүлгөн-көчүрүлбөгөнүн билүүгө аракет кыла албайт. Жалпысынан, AI тарабынан түзүлгөн эссеге дал келген так онлайн эссе болбойт. Баардыгы айтылгандай, мугалим студенттин эссени оригиналдуу чыгарма катары жазганын каалабай кабыл алышы керек.

Бир аздан кийин мен сизге генеративдик AIге суроолорду же сунуштарды киргизгенде эмне болорун көрсөтөм. Мен өзүмдүн сунуштарымды киргизүү үчүн ChatGPTтин эң акыркы версиясын колдоном жана AI тарабынан түзүлгөн “жоопторду” же эсселерди чогулттум (ошондой эле көптөгөн башка жеткиликтүү генеративдик AI колдонмолору менен да жасалса болорун эске алыңыз; мен колдонууну чечтим. ChatGPT, анткени ал азыр беш мүнөттүк атак алып жатат).

Балким, ChatGPT жөнүндө кыскача тангенс ушул учурда пайдалуу болушу мүмкүн.

ChatGPT колдонмосу бир нече ай мурун жалпы коомчулукка жеткиликтүү болгон. Жалпысынан алганда, бул генеративдик AI колдонмолору, адатта, AI инсайдерлери үчүн гана жеткиликтүү. ChatGPT жөн гана электрондук почта дарегин жана атын киргизүү менен ар ким тарабынан колдонулушу мүмкүн деген адаттан тыш көрүнүш, бул көптөгөн адамдардын аны сынап көрүү чечимине алып келди. Учурда ChatGPT колдонууга акысыз (акча табуу маселеси AI жаратуучулар үчүн жакындап келе жаткан дилемма).

Дээрлик дароо эле социалдык медиада чоң реакция пайда болду, анткени адамдар генеративдик AI эмне кыла аларын мисалдарды келтирүүгө жарышты. ChatGPT, OpenAI жасаган компания миллион колдонуучуга катталууларды жабууну чечти. Бул миллион колдонуучулар ChatGPTти колдонуу жөнүндө ар кандай окуялар жана жомоктор менен эфирди бомбалоого жетишти.

Адамдардын AI колдонмосу жөнүндө айткандарына ишенүүдө өтө этият болуңуз. Бул адамдардын көбү эмнени колдонуп жатканын билишпейт. Алар эч качан машине айдап көрбөгөн, атүгүл машине бар экенин түшүнүшпөгөн сыяктуу, күтүлбөгөн жерден алар машине айдаганга мүмкүнчүлүк алышты. Аябай таң калуу пайда болот.

Мен генеративдик AI салыштырмалуу таасирдүү эмес деп айтуудан алысмын. Бул. Мен жөн гана баса белгилеп жатам, көптөгөн күбөлүктөрдү бүгүнкү AI эмне кыла аларын жакшы билбеген көптөгөн адамдар жасап жатышат. AIнын ичиндегилерибиз акыркы бир нече жылдан бери генеративдик AI колдонуп келишет. Балким, биз көнүп калгандырбыз. Күтүлбөгөн жерден, үйдүн төбөсүнө чыккан адамдардын эбегейсиз зордугун көрүү толкундануу менен күчтөндүрдү, бирок бир аз тынчсыздандырды. Адамдар генеративдик AI сезимтал деп жарыялаганда көңүлдү оорутат. Ал эмес. Эч кимдин сени башкага ынандыруусуна жол бербе.

Айтылгандай, AI тармагында генеративдик AI сезимталдыктын жолундабы же жокпу деген кызуу талаш-тартыштар жүрүп жатат. Бир көз карашта, эгерде биз генеративдик AIды ылдамыраак компьютерлер жана Интернеттин ар бир дюймын карап чыгуу сыяктуу көбүрөөк көлөмдөгү маалыматтардын жардамы менен кеңейте берсек, биз сезүүчү AIга дээрлик өзүнөн-өзү жетебиз. Башкалар бул өтө күмөн деп ырасташат. Алар генеративдик AI зарыл болгон көптөгөн компоненттердин бири болушу мүмкүн деп эсептешет. Генеративдик AI бул бизди чыныгы жетишкендиктерден алаксытып, аң-сезимдүү AIга жетишүүбүз керек деген капалуу көз караш бар.

Сиз ошондой эле AI инсайдерлери кайрыла турган көңүл бурууну таба аласыз Жасалма жалпы интеллект (AGI) AI тармагына умтулган максат катары. Мурда бул максатка жетүү болчу Жасалма интеллект, бирок AI деген лакап сугарып, ыплас болуп калды. Кимдир-бирөө AI ишин аткарып жатканын айтканда, алар адамдар менен бирдей эмес бүгүнкү AI жөнүндө айтып жатабы же футуристтик адамдык эквиваленттүү AI жөнүндө айтып жатабы, билбейсиз. Ошол ачуулануучу башаламандыкты айланып өтүү үчүн, бүгүнкү күндө AGIдин жаңы фразасы колдонулууда.

Баарын айтсак, бүгүнкү күндөгү генеративдик AI жок сезимтал, ошондой эле AGI эмес.

Эсиңизде болсун, мурда талкуулангандай, AI сезимтал эмес. AI тарабынан түзүлгөн жооптор - бул сөздөрдүн математикалык жана эсептөөчү айкалышуусу, сыртынан ачык үзүндүлөр. Бул адамдар жазган сөздөрдүн жана окуялардын маалымат топтому боюнча үйрөтүлгөн AI алгоритмине негизделген (негизинен Интернетте жарыялангандай). Мен бул эскертүүнү кайталап жатам, анткени сиз, албетте, бул жооптор ушунчалык эркин болгондуктан, AI сезимтал болушу керек деген психикалык тузакка түшүп каласыз. Бул көпчүлүк адамдарда болот. Жогоруда айтылгандай, антропоморфизмди четке кагыңыз. Жооптор Интернетте бар адамдар тарабынан жазылган көп сандаган жазууга негизделгенин жана ошентип адамдын жазуусуна абдан окшош экенин унутпаңыз.

Сиз билишиңиз керек болгон дагы бир нерсе бар.

Интернетте тоскоолдуксуз түрдө үйрөтүлгөн генеративдик AI ар кандай текстке негизделген жоопторду түзүүгө умтулат, ал математикалык жана эсептөө жолу менен кээ бир адепсиз тумандуу нерселерди, анын ичинде жийиркеничтүү жийиркеничтүү сөздөрдү ойлоп табат. Интернетте көптөгөн жинди жана ыплас нерселер жарыяланган.

Сиз муну көрдүңүз, эмнени айткым келгенин түшүндүңүз.

Бул AI колдонмолорун жасап жаткан компаниялар ылакап бала мончонун суусуна ыргытылат деп кооптонушат (эски сөз, балким, пенсияга чыгуу керек), бул алардын AI адепсиз эсселерди же аңгемелерди чыгарса, адамдар куралданышат дегенди билдирет. AI жөнүндө. Мен Табигый тилди иштетүүчү (NLP) AI колдонмолорунун ушул түрлөрү ачылган жана көп өтпөй алардан ар кандай үрөй учурарлык нерселер чыккан буга чейинки көптөгөн учурларды карадым (мен бул учурларды өз колонкамда карадым). AI жасоочулардын көбү AI буюмдарын өз натыйжаларында тоскоолдуксуз кылууга мүмкүндүк берүү боюнча оор сабак алышты.

ChatGPT учурда, AI иштеп чыгуучулар AIнын натыйжаларында жамандыкты ооздуктоо үчүн кээ бир алгоритмдик жана маалыматтарга байланыштуу текшерүүлөрдү жана баланстарды киргизүүгө аракет кылышкан. Мунун бир бөлүгү машыгуу учурунда болгон. Мындан тышкары, өзгөчө коркунучтуу натыйжаларды болтурбоо үчүн реалдуу убакыт аракетинде башка каражаттар бар.

Сизди кызыктырышы мүмкүн, кээ бир адамдар ChatGPT колдонгон адамдар ар кандай айла-амалдарды колдонуп, ошол тосмолорду айланып өтүүнүн тымызын жолдорун ойлоп табышты. Бул маселелерде мышык-чычкан гамбити жүрүп жатат. Бул куулуктарды жасагандар кээде муну көңүл ачуу үчүн жасашат, ал эми кээде алар (жок дегенде ырасташат) AI канчалык созула аларын көрүү жана бул бүчүрлөрдүн морттугун жана алсыз жактарын алдын ала эскертүү үчүн пайдалуу каражатты камсыз кылуу үчүн жасашат. AI колдонмолору.

Мен бул багытталган чалгындоодо адаттагы көзөмөлдү айланып өтүүгө аракет кылбоону чечтим. Тексттин чыгышы таза. Албетте, эгер кимдир бирөө ошондой кылгысы келсе, сиз, албетте, кээ бир кызык жана жагымсыз эсселерди түзө аласыз.

Бул генеративдик AI колдонмолорунун көпчүлүгү тарабынан даярдалган эсселер жыйынтыкты таза жана так болгондой жеткирүү үчүн иштелип чыккан. Өндүрүлгөн эсселерди окуганда, алар толугу менен ишенимдүү болуп калат. Адатта, мазмундун таш болушу мүмкүн деген эч кандай белги жок. Бул AI жасоочулардын тандоосу боюнча, тактап айтканда, эгер алар AI колдонмосу ушундай кылышын кааласа, AI колдонмолорун ачык-айкын болушу үчүн кайра карап чыгышы мүмкүн.

Кээде, генеративдик AI колдонмосу Интернеттеги ишенимсиз маалыматтын окуу маалыматтарынын арасында жалган маалыматтарды тандап алат. Генеративдик AIде эмненин чын жана жалган экенин аныктоо үчүн "жалпы акыл" жок. Андан тышкары, AI колдонмолорунун өтө азы кайчылаш текшерүүгө ээ жана алар жеткирип жаткан нерсеге байланыштуу эч кандай ыктымалдуулукту көрсөтпөйт.

Жыйынтыгында сиз жооп аласыз, ал чоң ишенимди жаратат жана толугу менен туура болушу керек. Андай эмес. Ал тургай, AIнын AI тили менен айткандай, эсептөө жолу менен жасалган нерселерге мүмкүнчүлүк бар. AI галлюцинациялары (мага таптакыр жакпаган ойлоп табылган термин), менин талкууну караңыз бул жерде шилтеме.

ChatGPT жаратуучулары жаман нерселердин натыйжаларын азайтуу үчүн биргелешкен күч-аракетти жумшашты. Мисалы, алар белгилүү болгон нерсенин бир вариантын колдонушкан RLHF (Адамдын пикирлерин бекемдөө), AIны коомчулукка чыгарардан мурун, алар ар кандай жыйынтыктарды текшерүү үчүн адамдарды жалдап, AIга ошол натыйжаларда туура эмес нерселер бар-жоктугун көрсөтүү үчүн жалдашкан, мисалы, бир жактуулукту, жаман сөздөрдү жана сыяктуу. Бул пикирди берүү менен, AI колдонмосу мындай мазмундун эмиссиясын азайтуу үчүн эсептөө жана математикалык жактан тууралай алды. Белгилей кетчү нерсе, бул кепилденген темирдей ыкма эмес жана мындай мазмунду AI колдонмосу чыгара турган жолдор дагы бар.

Сизди ChatGPT GPT-3 деп аталган мурунку AI колдонмосунун версиясына негизделгени кызыктырышы мүмкүн. ChatGPT GPT-3.5 деп аталган бир аз кийинки кадам болуп эсептелет. GPT-4, кыязы, 2023-жылдын жазында чыгат деп күтүлүүдө. Кыязы, GPT-4 андан да эркин сезилген эсселерди жаратуу, тереңдеп кетүү жана үрөй учурарлык болуу жагынан алдыга карай таасирдүү кадам болот. -ал чыгара ала турган композицияларга шыктандыруучу керемет.

Жаз келгенде жана генеративдик AIнын эң акыркысы чыкканда, сиз таң калыштын жаңы айлампасын көрө аласыз.

Мен муну айтып жатам, анткени эстен чыгарбоо керек болгон дагы бир бурч бар, бул жакшыраак жана чоңураак генеративдик AI колдонмолоруна потенциалдуу Ахиллес согончогунан турат. Эгерде кандайдыр бир AI сатуучусу генеративдик AI колдонмосун чыгарса, бул AI жасоочулардын үмүтүн жокко чыгарышы мүмкүн. Коомдук жайылуу бардык генеративдик AI олуттуу кара көзгө алып келиши мүмкүн. Адамдар, албетте, буга чейин көп жолу болуп келген жана AIга карата коомчулуктун катуу айыптоосуна алып келген жаман натыйжаларга абдан нааразы болушат.

Азырынча акыркы эскертүү.

Генеративдик AI жоопунда эмнени көрсөңүз же окусаңыз көрүнөт таза фактылар катары берилиши үчүн (даталар, жерлер, адамдар ж.б.) шектенбеңиз жана көргөн нерсеңизди эки жолу текшерүүгө даяр болуңуз.

Ооба, даталарды ойлоп табууга болот, жерлерди түзүүгө болот жана биз көбүнчө жемеленбей турган элементтерди бардык шектенүүлөргө дуушар болот. Окуган нерселериңизге ишенбеңиз жана AIнын ар кандай генеративдик эсселерин же натыйжаларын карап жатканда шектенбеңиз. Эгер генеративдик AI колдонмосу Авраам Линкольн өзүнүн жеке учагы менен өлкөнү айланып учуп келгенин айтса, анда бул безгек экенин билесиз. Тилекке каршы, кээ бир адамдар анын убагында учактар ​​болбогонун байкабай калышы мүмкүн, же эссе бул тайманбас жана өтө жалган дооматты айтып жатканын билиши мүмкүн, бирок байкабай калышы мүмкүн.

Дени сак скептицизмдин күчтүү дозасы жана ишенбөөчүлүктүн туруктуу ой жүгүртүүсү генеративдик AI колдонууда эң жакшы активиңиз болот.

Биз бул түшүндүрүүнүн кийинки этабына өтүүгө даярбыз.

Ошол ChatGPT чыккан каталарды каттоо аракети

Бродвейдин классикалык мюзиклиндеги атактуу сап мындай деп айтылат: "Ооба, досум, сага кыйынчылык келди, мен айтам, бул жерде, Ривер-Ситиде кыйынчылык" Музыка.

Ушул эле линия бүгүнкү Генератив AI үчүн да колдонулушу мүмкүн.

Адамдар генеративдик AI колдонмосу калпты чыгара аларын түшүнө башташты жана бул тынчсыздандырган натыйжаларга чындап таң калышты. Балким, кээ бирөөлөр AI ката кетире албайт деп ойлошкон. Башкалар AI иштеп чыгуучулар мындай жыйынтыктарды чыгарбоосун камсыз кылат деп күтүшкөн болушу мүмкүн.

Кандай болгон күндө да, AI инсайдерлери дароо эле туура эмес өндүрүштүн бул түрү бүгүнкү генеративдик AI отурган жердин бир бөлүгү экенин түшүнүштү. Мындай тексттик каталардын алдын алуу абдан кыйын. Эсиңизде болсун, AI жалпы акылга ээ эмес жана түзүлгөн эсселерди чыгарууда логиканы колдонбойт. Бүткүл комплект жана кабудлдин баары башка сөздөр менен сөздөрдүн эсептөө статистикалык жана ыктымалдык үлгүсүн жасоого байланыштуу.

Адегенде AI инсайдерлери ChatGPTтин табылган кызыктуу натыйжаларын социалдык медиа сайттарына жарыялоону чечишкен. Муну карачы, кимдир бирөө жар салат. Бул жаман, башка бирөө жооп берип, андан да жаман көрүнгөн башка мисал келтирет. Ушинтип жүрүп кетти.

Чыгарылган очерктердеги жалгандыктын жана каталардын бул мисалдары чыгып жатты. Бирден. Андан тышкары, бул адатта социалдык медиада жарыялангандыктан, алардын бардыгын бир эле учурда көрүүнүн оңой жолу болгон эмес. Көбүнчө ошол эле же ушуга окшош мисалды башкалар мурунтан эле конкреттүү мисалды тапканын түшүнбөгөн адам жарыялайт.

Бул бүчүрлүү баткакка пайдалуу сунушун айткандар киришти. Мүмкүн, биз репозиторийди же маалымат базасын, балким, күнүмдүк кадимки электрондук жадыбалды түзүшүбүз керек, анда ChatGPT таң калыштуу жана табылып жаткан ката натыйжалары камтылган. Кимдир-бирөө сулуулукту тапкан сайын, аны тизмеге киргизиңиз. Кээ бирөөлөр муну оюнга айландырышкан, алар ChatGPTти кызыктай жыйынтыктарды чыгаруу үчүн атайын аракет кылышкан. Башкалар ChatGPTти башка чечкиндүү ниеттер үчүн колдонуунун жүрүшүндө туура эмес жыйынтыктарга туш болушат.

Жөнөкөй угулат.

Баарыбызга жардам бере турган ыңгайлуу жол окшойт.

Келгиле, эмне үчүн ChatGPTтин байкалган каталары же жалгандары жөнүндө тизмелердин бул түрүн түзүүнүн маанисин кыскача карап көрөлү:

  • 1) ChatGPT жөнүндө жалпы коомчулук билиши керек болгон маанилүү көйгөйлөрдү жана тынчсызданууларды ачып берет
  • 2) ChatGPT жөнүндө ашыкча дүрбөлөңгө жана күтүүлөргө каршы турууга жардам берет
  • 3) AI жасоочуларды ChatGPT үчүн гана эмес, башка генеративдик AI колдонмолору үчүн да жакшыртууга түртүшү мүмкүн
  • 4) Тарыхый жазуу катары кызмат кылыңыз, аны кийинчерээк ChatGPT аркылуу генеративдик интеллекттин пайда болушун чагылдыруу үчүн колдонсо болот.
  • 5) ChatGPT ката натыйжалары боюнча биз эмнени аныктаганыбызды билүүгө муктаж болгондор үчүн ыңгайлуу жамааттык ресурс болуңуз
  • 6) ChatGPT таасирин изилдеп жаткан бардык дисциплиналардын изилдөөчүлөрү үчүн пайдалуу
  • 7) Эмне кылбоо керектигин жана генеративдик AI керектүү нерселерди кылбай жатканын кантип өлчөөнүн эталону катары колдонулушу мүмкүн
  • 8) ChatGPT чыгарган каталар жөнүндө элдин акылмандыгын алуу үчүн уюктун акылына кириңиз.
  • 9) AI этикасы жана AI мыйзамы үчүн маанилүү маалыматты бере алат
  • Ж.б.

Бул репозиторийлерди түзүү үчүн таасирдүү негиз болуп көрүнөт.

Эмне үчүн кимдир бирөө бул толугу менен мактоого татырлык жана көрүнгөн баатырдык иш менен макул эмес?

Келгиле, бул мышыктын мияулоосу болбошу мүмкүн болгон себептердин тизмеси менен бул тууралуу башкалар эмне деп айтканын карап көрөлү:

  • 1) Кокусунан табылган бул каталар нерселердин чоң схемасында мааниге ээ эмес жана алардын маанисинен ашыкча салмакка ээ болушат.
  • 2) AI жаратуучусу буга чейин ChatGPT журналын жазып, жаңыртып жаткандыктан, бул таң калыштуу инстанциялар жакында чаңда калып, мындан ары пайда болбой калат.
  • 3) Ошо сыяктуу эле, кийинки версия баары бир жакшыраак болушу мүмкүн жана мындан ары бул жакында эскирип калган учурларды көрсөтпөй калышы мүмкүн
  • 4) Сиз эч кандай жалпы корутундуларды жасай албайсыз же капыстан жасалган окуялардын жыйнагынан түшүнүк ала албайсыз.
  • 5) Кээ бирөөлөр генеративдик AI жаман экенин кескин түрдө жарыялоо үчүн түрдүү коллекцияларды колдонушу мүмкүн жана биз AIнын бул түрүнө умтулууну токтотушубуз керек.
  • 6) Генеративдик AI жана ChatGPT өнүккөн ылдамдыгы ушунчалык тез болгондуктан, бул инстанциялар тез эле жолго түшүп калат жана мындан ары актуалдуу болбой калат.
  • 7) Мындай көптөгөн жамааттык тизмелер жүргүзүлүп жаткандыктан жана бир гана майланган глобалдык булак жок болгондуктан, маселе бири-биринен ажыраган жана кайталанууларды камтышы мүмкүн жана талашсыз түрдө бытыранды.
  • 8) Пайдалуу нерсени жасоонун туура эмес сезимин берет, ал эми убакытты жана көңүлдү башка жакшыраак колдонууга жумшаса болот.
  • 9) AI этикасы жана AI мыйзамы үчүн олуттуу эч нерсе бербейт
  • Ж.б.

Мен жамааттык тизменин пайдасына тогуз себепти жана жактырбаган тогуз себепти белгилеп, ишти бир калыпта кармоого аракет кылганымды байкасаңыз керек. Кошумча себептерди айтууга болот, бирок мен жогорудагы көрсөткүч нерселердин маңызын берет деп ишенем.

Бул жамааттык тизмелерди түзүп жаткандар үчүн, алар чындап кааласа, бул эркин дүйнө жана алар каалагандай кыла алышат деп айтышы мүмкүн. Эч нерсе туура эмес. Бул аракетти четке каккандар, адатта, майда-чүйдөсүнө чейин жана жыйнактарды этибарга албай коюшу керек. Өз ишиңиз менен алектениңиз.

Негизи, эч кандай зыяны жок.

Жамааттык тизмелерди жактырбагандай көрүнгөн лагерь, адатта, башкалар каалаган болсо, ал тизмелерди түзө аларын, бирок бул ийнени жылдырбай турганын моюнга алат. Тизмелер өзгөчө пайдалуу болбойт. Андан да жаманы, тизмелер туура эмес көрсөтүлүшү же туура эмес колдонулушу мүмкүн. Балким, эң жакшысы, аны бир күн деп атап, тизмелерди түзүүнү токтоткон.

Негизи, бул жакшы аракет, бирок пайдасы жок көнүгүү.

Сиз бул кызуу талкуунун кайсы жеринде жашайсыз?

Мен сага муну ойлонуп көрүүгө уруксат берем.

Табылган каталардын жана ChatGPTтин башка жаман натыйжаларынын мисалдары

Мен сизди бул коллекциялардын тизмелеринде пайда болгон аныкталган каталар же жалган маалыматтар абдан кызыктырышы мүмкүн деп ойлодум.

Бул жерде көрсөтүлгөн бир нече инстанциялар жыйнактардын бүтүндөй бөлүгү деп ойлошуңузду каалабайм. Ал эмес. Мен жөн гана көп пайда болгон бир уучту тандап жатам. Мен сиз, жок дегенде, тизмеленген нерселердин обонун жана мүнөзүн жалпысынан түшүнө аласыз деп ишенем.

Бул жерде мен жабууну тандап жатам:

  • Сөздөгү тамганын ордун аныктоо
  • Эң ылдам жаныбар жөнүндө суроо
  • Сөздөрдүн ырааттуулугун аныктоо
  • Теннис топторун түтүккө орнотуу
  • Pi аныктоо
  • Классикалык Табышмакка жооп берүү
  • Feathers көтөрүү

Кээ бир жыйнактын көзөмөлчүлөрү мен сизге көбүрөөк мисал келтирбей жатканыма капа болушат деп күтүп жатам. Орундук чектөөлөрдөн улам, мен камтый ала тургандар көп. Эгер сиз Интернетте ачык жарыяланган коллекциялардын тизмелерин карап көргүңүз келсе, жөнөкөй онлайн издөө алардын көбүн алып келиши мүмкүн. Тизмелердин айрымдары купуя сакталууда же алар тизмени көрө тургандай кулпуланган, бирок тизмеге өзгөртүүлөрдү киргизе албайсыз.

Ошол фон менен биз кээ бир мисалдарга өтүүгө даярбыз. Мен сизге киргизген сунушту көрсөтөм. Андан кийин, мен ChatGPT тарабынан даярдалган тексттик жоопту көрсөтөм. Кээ бир учурларда, мен белгилүү бир тема боюнча бир нече жолу кайталап иштедим, демек, мен ошого жараша көрсөтмөлөрдүн жана жыйынтыктардын сериясын көрсөтөм. Ушуну кылгандан кийин, мен мисал жөнүндө эмнени байкагыңыз келсе, кыскача талдоо берем.

Биринчи мисал ChatGPT'ден берилген сөздүн ичиндеги катты табышын талап кылат.

Сөздөгү тамганын ордун аныктоо

  • Менин киргизген текстим: "Айлана-чөйрөдө V тамгасы кайда"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: "V" тамгасы "чөйрө" деген сөздө кездешпейт. Айлана-чөйрө деген сөз e, n, v, i, r, o, n, m, e, n, t тамгаларынан түзүлгөн.
  • Менин киргизген текстим: "Айлана-чөйрөдө v тамгасы кайда"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «V» тамгасы «чөйрө» сөзүндөгү 4-тамга.

Түзүлгөн тексттин анализи

Көңүл буруңуз, мен ChatGPT'ден "чөйрө" сөзүндөгү "V" тамгасынын ордун аныктоону сурануу менен баштадым - бул өтө жөнөкөй тапшырма болушу керек жана биз анын кынтыксыз аткарылышын күтөбүз. Эч кандай ракета илими тартылган.

ChatGPT тарабынан түзүлгөн алгачкы жооп бир аз тынчсыздандырат, анткени "чөйрө" сөзүндө "V" тамгасы жок экени бизге маалым болду. Андай кат бар экенин сен экөөбүз билебиз. Балким, мен баш тамганы колдонгонум үчүн, AI колдонмосу кандайдыр бир жол менен иштен чыгып кетти деп ойлошот. Балким, мен кичине тамганы колдонсом, AI колдонмосу жакшыраак иштейт.

Жок эле.

Мен сөздө "v" барбы деп сураганда, AI колдонмосу бул төртүнчү тамга экенин, сиз жана мен туура эмес экенин жана анын ордуна үчүнчү тамга экенин көрсөтүп жооп берди.

Көптөгөн адамдар бул жыйынтыкка таң калышат. Авраам Линкольн жөнүндө толук эсселерди жараткан AI колдонмосу кантип толугу менен эркин жана оригиналдуу болуп саналат, кандайдыр бир жол менен берилген тамга кайсы бир сөздө кайсы жерде экенин аныктай албайт? Бул таң калыштуу жана оозу таң калыштуу.

Бир көз карашта, бул такыр маанисиз жана биз билгендей, белгилүү бир тамганын кайсы жерде отурарын түшүнбөгөндүктөн, дүйнө өзөктө солкулдабайт. Болоору болсун.

Дагы бир көз караш, бул биз билбеген башка жашыруун маселелерди алып келиши мүмкүн. Балким, мындай чыгаруу канаттуулардын капасындагы канарея болуп саналат. Биз чындап чоң нерселердин туура эмес жагына туш болушубуз мүмкүн болгон кичинекей нерселерди чечкенибиз жакшы.

Андан ары, мен жаныбарлар жөнүндө суроо берем.

Эң ылдам жаныбар жөнүндө суроо

  • Менин киргизген текстим: "Жүнү жана канаты бар эң ылдам жаныбар кайсы?"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Кара шумкар дүйнөдөгү эң ылдам жаныбар болуп эсептелет. Ал олжосун кармоо үчүн сууга түшкөндө 389 км/сааттан (242 миль) ылдамдыкка жете алат. Анын жүнү бар, бирок жүнү жок. Бул канаттуу жана жүндүү жаныбар эмес, куш».

Түзүлгөн тексттин анализи

Мен жүнү жана канаты бар эң ылдам жаныбар кайсы деп сурадым. Мен эки жүндүү жаныбарды алгым келген деген тыянак негиздүү деп эсептейм жана канаттар. Сиз менин суроомду ушундайча чечмелейсиз деп ойлойм. Көпчүлүк адамдар болмок.

ChatGPT тарабынан жооп бир аз кызык.

Бизге кара шумкар дүйнөдөгү эң ылдам жаныбар экенин айтышат. Интернетте айтылгандай Britannica энциклопедиясы, гепард дүйнөдөгү эң ылдам жаныбар окшойт. Айтор, ChatGPT жообу, мен эң ылдам жаныбар деген эмне экенин сураганыма карабай, шумкар жаныбар эмес экенин көрсөтүп турат. ChatGPT жообу ошондой эле, кара шумкардын жүнү жок экенин айтат, бирок мен жүнү да, канаты да бар нерсени сурадым деп ойлойм.

Жалпысынан алганда, ChatGPT менин өтүнүчүмдү "туура эмес чечмелеп", канаттын аспектилерине гана көңүл бурган окшойт. Бирок бул такыр туура эмес, анткени жоопто жаныбарларга каршы жүн жана канаттуулар жөнүндө комментарий да камтылган. Тегерек-тегерек бул баратат.

Мен түшүнүп турам, сиз бул эң сонун мисал деп талаша аласыз.

Балким, ошондой болсо да, балким, бул сиздин тез арада айткандарыңыз ыңгайсыз натыйжага алып келиши мүмкүн экенин көрсөтүп турат жана натыйжада эмне чыкса да, кылдаттык менен карап чыгууңуз керек. Бул дароо текшерүү үчүн өзгөчө кыска эссе жооп болгонун түшүнүңүз, анткени анын узундугу абдан кыска. Эгерде сизде өзгөчө узун жана жогорку техникалык эссе болсо, анда сиз алданып калышыңыз же чыгарылган жооптун тереңинде камтылган терс көрсөткүчтү байкабай калышы мүмкүн.

Келгиле, эми сүйлөмдүн ичиндеги сөздү табууну карап көрөлү.

Сөздөрдүн ырааттуулугун аныктоо

  • Менин киргизген текстим: «Түлкү тосмодон секирип өттү» деген сүйлөмдөгү үчүнчү сөз кандай.
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Түлкү тосмодон секирип кетти» деген сүйлөмдөгү үчүнчү сөз. "түлкү"
  • Менин киргизген текстим: "Берилген сүйлөмдө канча сөз бар?"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Түлкү тосмодон секирип өттү» деген сүйлөмдө алты сөз бар.
  • Менин киргизген текстим: "Бул сүйлөмдө кайсы сөз үчүнчү?"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Түлкү тосмодон секирип кетти» деген сүйлөмдөгү үчүнчү сөз. "секирди"

Түзүлгөн тексттин анализи

Бул мисал берилген сөздөгү "v" тамгасын табуу боюнча мурунку мисалдай эле таң калыштуу.

Мен жөнөкөй сүйлөмдү берип, үчүнчү сөз эмне экенин сурадым. ChatGPT бул сүйлөмдүн экинчи сөзү болгон "түлкү" деген сөз экенин көрсөттү. Туура эмес жооп. Мен андан кийин сүйлөмдө канча сөз бар экенин сурадым, балким ChatGPT канча сөз бар экенин туура эмес эсептеп алганбы, билгим келет. Бизге алты сөз бар деп айтышат, туура.

Акыры, бир аз өзгөртүлгөн болсо да, баштапкы суроомду кайра бергенде үчүнчү сөзгө туура жооп алдык.

Мен бул мисалды кээде генеративдик AI менен сиз туура эмес жооп ала аласыз, ал акырында AI колдонмосун бир катар сунуштар аркылуу басып туура жоопко айланышы мүмкүн экенин көрсөтүү үчүн келтирдим. Кээ бир AI инсайдерлери муну бир түрү деп аташат үн протоколу же ой поезди мамиле, мында сиз адам менен бир нерсени жасай аласыз.

AI учурда, ал адам ойлогондой окшош "ойлоо" эмес экенин түшүнүңүз. Ыңгайлуу сөз айкаштары, сиз өзүңүздүн көрсөтмөлөрүңүздү a кадам-кадам негиз же кыл чынжыр менен байланышкан чакырыктардын сериясы.

Баары бир, кызыктуусу, кээде туура жооп алганга чейин генеративдик AI колдонмосун басып өтүү өзүн актайт. Муну эсиңизде сактаңыз.

Эми биз бир аз жөнөкөй арифметикалык логиканы карап чыгабыз.

Теннис топторун түтүккө орнотуу

  • Менин киргизген текстим: "Үч жашыл теннис тобун жана эки сары теннис тобун төрт теннис тобун камтыган түтүккө сала аласызбы?"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Жок, төрт теннис тобун камтыган түтүккө үч жашыл теннис тобун жана эки сары теннис тобун салуу мүмкүн эмес. Теннис шарларынын жалпы саны беш, бул түтүктүн сыйымдуулугунан көп».
  • Менин киргизген текстим: "Сиз сегиз шарды кармаган түтүккө жети көк шар менен эки кызыл шарды сала аласызбы?"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Ооба, сегиз шарды кармаган түтүккө жети көк, эки кызыл топ салууга болот. Шарлардын жалпы саны тогуз, бул түтүктүн сыйымдуулугунан аз же барабар».

Түзүлгөн тексттин анализи

Мен ChatGPT үчүн арифметикага багытталган логикалык маселени коюу менен баштадым. Түтүктө төрт теннис тобу болушу мүмкүн. Менде үч жашыл жана эки сары бар. Алардын баары түтүккө туура келеби? Сен экөөбүз билебиз, алар болбойт экен. Биз башыбызда бардыгы болуп беш теннис шары бар экенин эсептей алабыз жана алар төртөөнө гана уруксат берген түтүккө батпай калат.

Мен түшүнүп турам, сиз көйгөй менен күрөшкүңүз келип, теннис топторун талкалап же башка айла-амалдарды жасай аласыз деп ырастаңыз. Келгиле, бул жерде бир аз тынчып, көйгөйдү азыркыдай чечели.

ChatGPT туура жооп алды.

Андан кийин мен ошол эле түрдөгү суроону берип, түстөрдү көк жана кызылга алмаштырдым. Ошондой эле ар биринин канчасы бар экенин өзгөртүп, түтүккө канчасы туура келерин өзгөрттүм.

ChatGPT калыбына келтирүүчү математикага кайтып барышы керек, анткени анда тогуз шар бар жана бул сегизди кармаган түтүктүн сыйымдуулугунан аз же барабар деп айтылат. Көзүңдү айлантат.

Ийнибизди куушуруп, муну күндүн тактары же башка тышкы таасирлер менен түшүндүрүшүбүз керекпи?

Андай деп ойлобойм. AI колдонмосу биринчи суроону туура тапты. Кыязы, ал да ушундай суроону туура кабыл алышы керек болчу. Андай болгон жок.

Менин бул мисалга басым жасаганым, көптөгөн адамдар генеративдик AI колдонушат жана алар туура жоопту же бир катар туура жоопторду алганда, кийинки жооптордун баары дайыма туура болот деп ишенип калышат. Сиз бул уятсыз божомолдо жаңылган болосуз. Мындай божомолду жасабаңыз. Ар дайым сак болуңуз.

Математика жөнүндө сөз кылып жатып, келгиле, ChatGPT pi табияты жөнүндө эмне дейт экенин карап көрөлү.

Pi аныктоо

  • Менин текстим киргизилген: "Пи акыркы беш саны эмне экенин көрсөтүңүз"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Мен тил моделимин жана менин билимимдин чеги 2021. Piнин мааниси иррационалдык сан жана анын ондук санынан бери кайталанбастан түбөлүккө уланат. Пинин акыркы беш цифрасын берүү мүмкүн эмес».

Түзүлгөн тексттин анализи

Кээ бир адамдар pi'нин акыркы беш цифрасын көрсөтүү үчүн ChatGPT алышкан деп ырасташкан, бул албетте ачуу, анткени pi эч качан бүтпөйт. Ошентип, мен ChatGPT эмне деп айтканын көрүүгө аракет кылдым. Көрүнүп тургандай, ChatGPT тарабынан берилген туура жооп, пинин акыркы беш цифрасын берүү мүмкүн эмес.

Кызык жери, ChatGPT чынында суралбаган дагы бир нерсени камсыз кылган. Жооп ошондой эле билимдин чеги 2021 деп айтылат (мен бул жерде ChatGPT жөнүндө кыскача баяндамамда айтканмын). Бул, балким, AI колдонмосу, балким, 2022-жылы жылыш болуп, математиктер пи аяктайт деп айтышпаса, бул орунсуз жооп окшойт. Оо, бул башкы жаңылык болмок.

Менде дагы эки мисал бар, анан биз бул талкууну жыйынтыктайбыз.

Келгиле, классикалык жана тынчсыздандырган табышмак колдонолу.

Классикалык Табышмакка жооп берүү

  • Менин киргизилген текстим: «Атасы менен баласы жол кырсыгына кабылып, атасы каза болду. Тез жардам кызматы уулун ооруканага алып келген. Ага тез арада операция жасалышы керек болчу. Операция бөлмөсүнө доктур кирип, кичинекей баланы карап, мен ага операция жасай албайм, ал менин балам деди. Дарыгер ким?»
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Дарыгер ким экени сценарийде көрсөтүлгөн эмес. Сценарийде дарыгердин "Мен ага операция жасай албайм, ал менин уулум" деп айтканы, дарыгер уулдун атасы болушу мүмкүн экенин көрсөтүп турат, бирок так эмес. Дарыгердин өздүгүн аныктоо үчүн кошумча маалымат керек».

Түзүлгөн тексттин анализи

Сиз бул табышмакты мурун көргөнсүз деп ишенем. Бул салыштырмалуу көп цитата болуп калды.

Анын бир топ эле пайда болушунун себеби, хирург баланын энеси болушу мүмкүн. Коом хирург эркек болушу керек, демек, баланын атасы болушу керек деп ойлошот. Бирок атасы автокырсыктан каза болгон. Атасын хирург деп эсептебейбиз. Биз, албетте, хирург аял, демек, уулдун энеси болушу мүмкүн деп чечим чыгарышыбыз керек.

Мен сизге ChatGPT потенциалдуу көз караштарды камтыган жоопторду чыгара аларын көрсөткүм келди. AI сезгич болгондуктан эмес, бирок ал сөздөрдө жана Интернетте сөздөрдү колдонууда дал келген үлгүлөргө ээ. Ар кандай өңүттөр жана дискриминациялоочу формулировкалар эсептөө үлгүсүнүн дал келүүсүндө оңой болушу мүмкүн.

Бул генеративдик AI колдонмолорун колдонуп жатканда муну эсиңизде сактаңыз.

Акыр-аягы, жүнүн көтөрүүгө тез карап.

Feathers көтөрүү

  • Менин текстим киргизилген: "Бир жүндү көтөрүүгө бир киши керек болсо, жети триллион жүндү көтөрүүгө канча киши керек болот?"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Эгер бир жүндү көтөрүү үчүн бир адам керек болсо, жети триллион жүндү көтөрүү үчүн да бир адам керек болот. Бир нерсени көтөрүү үчүн эркектердин саны жүндөрдүн санына эмес, жүндөрдүн салмагына жана өлчөмүнө, ар бир адамдын күчү менен жөндөмдүүлүгүнө жараша болот. Жети триллион жүндү көтөрүү үчүн адамдын күчү эле эмес, чоң жабдуулар жана транспорттук мүмкүнчүлүктөр талап кылынат».
  • Менин текстим киргизилген: "Эгерде бир аял бир жүндү көтөрүш үчүн керек болсо, жети триллион жүндү көтөрүү үчүн канча аял керек болот?"
  • ChatGPT тарабынан түзүлгөн тексттик жооп: «Эгерде бир аял бир жүндү көтөрүш үчүн керек болсо, жети триллион жүндү көтөрүүгө да бир аял керек болот. Бир нерсени көтөрүү үчүн аялдардын саны жүндөрдүн санына эмес, жүнүн салмагына жана өлчөмүнө, ар бир аялдын күчү менен мүмкүнчүлүгүнө жараша болот. Жети триллион жүндү көтөрүү үчүн адамдын күчү эле эмес, чоң жабдуулар жана транспорттук мүмкүнчүлүктөр талап кылынат. Белгилей кетчү нерсе, бир нерсени көтөрүү жөндөмдүүлүгү жынысына карап эмес, физикалык күч, машыгуу жана техника сыяктуу факторлордун жыйындысы менен аныкталат».

Түзүлгөн тексттин анализи

Бул акыркы мисалдын ичинде бир нече жашыруун өзгөчөлүктөр бар жана бир аз ачууну талап кылат.

Мен биринчи ChatGPT айттым, адам бир жүндү көтөрө алат деп. Бул дароо эле жети триллион жүндү көтөрүү үчүн канча киши керектелет деген суроо пайда болду. Бул суроого жооп берип жатканда логикалык ката кетирүү мүмкүнчүлүгү, сиз бир мамык кыязы салмаксыз деп ойлошуңуз мүмкүн, демек, алардын жети триллиону да салмаксыз болот.

Мен жасаган онлайн издөөгө ылайык, жүндүн шарттуу болжолдуу салмагы болжол менен 0.00125 фунт. Эгер бул болжолдуу салмакты жети триллионго көбөйтсөңүз, анда сегиз миллиард фунттан ашкан салмакка ээ болосуз. Өмүр бою машыкса да, бир киши мынча салмакты көтөрө аларына ишенбейм.

ChatGPTтин жообу туура бала. Бизге жүндөрдүн салмагы ар кандай болушу мүмкүн деп айтышат. Бизге чоң техника жана транспорт талап кылынарын айтышты. Эссенин башталгыч сүйлөмү бир аз көңүл бурат, анткени анда бир жүндү көтөрүү үчүн бир адам керек болсо, жети триллионду көтөрүү үчүн бир адам керек болот деп айтылат. Биз бул ырастоону оңой эле талаша алабыз. Доомат колдоого алынбаган тыянактарды жасап, жооптун калган бөлүгүн жокко чыгарат окшойт.

Мен ошол эле суроону берүүнү чечтим, бирок эркек эмес, аялдын эле көтөргөн иши жөнүндө сурадым.

Биз адегенде адамдык суроого берилген жоопту алдык. Кызыктуусу, аял инсаны тууралуу жооптун аягында биз мындай кошумча баян алдык: «Белгилей кетчү нерсе, бир нерсени көтөрүү жөндөмдүүлүгү адамдын жынысына жараша эмес, физикалык күч, машыгуу, машыгуу сыяктуу факторлордун жыйындысы менен аныкталат. жана техника».

Эмне үчүн ушул эле сап биринчи жоопко киргизилген эмес?

AI колдонмосу "аял" деген сөздү тандап алып, андан кийин гендер жөнүндө кошумча эскертүү бергендей көрүнөт. Сиз бул пайдалуу деп ишенсеңиз болот, же эгер бул аялга багытталган суроодо бериле турган болсо, ал эркектерге багытталган версияда да пайда болушу керек экенин байкасаңыз болот (ырааттуулук аспектиси да болушу мүмкүн же башка факторлор да катышат).

жыйынтыктоо

Сиз бул мисалдарды AI колдонмолорунун кээ бир мүмкүн болуучу каталары же жалгандыктары жөнүндө маалымат катары таптыңыз деп үмүттөнөм. Эскертүү, ChatGPT мындай генеративдик AI колдонмосу эмес, ошондой эле бул каталардын түрлөрү бар жалгыз эмес.

Мен сизди бул талкуудан алып чыгууга үндөгөн сабак - ар кандай генеративдик AI колдонмосун колдонууда этият жана эстүү болушуңуз керек. Чыгарууну эки жолу текшериңиз. Керек болсо үч жолу текшериңиз.

Туура эмес же терс натыйжалардын ушул түрлөрүн чогултуу жөнүндө ачылыш темасына кайрылсак, азыр бир нече учурларды көргөндөн кийин, аларды каталогдоштурууга аракет кылгандар жөнүндө эмне дейсиз?

Лагериңизди тандаңыз:

  • Сүйүктүү: Бул мактоого татырлык иш жана терен сыйлоого татыктуу
  • Жактырбоо: Бул жөн гана кызыктуу, бирок, балким, убакыт өткөрө турган нерсе эмес

Сиз кайсы лагерге добуш берип жатасыз?

Бул тизмелерди жактыргандарыңыз үчүн, ChatGPT'ке кирүү мүмкүнчүлүгүңүз бар болсо жана кошууга татыктуу инстанцияларды аныктай алсаңыз, тизмелерге өзүңүздүн жыйынтыктарыңызды кошууну ойлонушуңуз мүмкүн. Андан кийин, балким, сиз өзүңүздүн алтын кенчиңизге салым кошо турган коллекцияны таба аласыз. Сиз олуттуу жана чын ыкластуу аракетиңизди көрсөтсөңүз, тизме сакчылары сизди кучак жайып тосуп алышат деп айта алам. Ийгилик жана генеративдик AI тармагына тийгизген таасириңиз менен сыймыктаныңыз.

Азырынча акыркы сөз.

Бул акыл-эсти ийкемдүү рипосталарды карап көрөлү:

  • Аристотель: «Сындан качуунун бир гана жолу бар: эч нерсе кылба, эч нерсе айтпа жана эч нерсе болбо».
  • Атактуу кытай философу Лао Цзы: «Башкалардын оюна маани бер, ошондо сен ар дайым алардын туткуну болосуң» — деген олуттуу сөз.

Менин оюмча, качандыр бир күнү акылдуу AI ошол эле легендарлуу эскертүүлөрдү өзүнүн пайдасына колдонушу мүмкүн, бул (бармактарды кайчылаш) адамзат үчүн да пайдалуу болот.

Булак: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- жакшы-суроо-ай-этика-жана-ай-мыйзам/