Четботови са вјештачком интелигенцијом су толико склони ласкању и потврђивању својим корисницима, људима, да им дају лоше савјете који могу оштетити односе и појачати штетна понашања, показује нова студија која истражује опасност од тога да вјештачка интелигенција говори људима оно што желе да чују.

Студија, објављена у четвртак у часопису „Сциенце“, тестирала је 11 водећих система вјештачке интелигенције и открила да сви показују различите степене понашања које је претјерано пријатно и потврђујуће. Проблем није само у томе што дају неприкладне савјете, већ у томе што људи више вјерују и преферирају вјештачку интелигенцију када четботови оправдавају њихова увјерења.
„То ствара перверзне подстицаје за улизице да опстану: Управо та карактеристика која узрокује штету такође покреће ангажовање“, каже се у студији коју су водили истраживачи са Универзитета Станфорд.
Студија је открила да је технолошка мана која је већ повезана са неким познатим случајевима заблуда и суицидалног понашања рањивих људи, свеприсутна у широком спектру интеракција људи са четботовима. То је довољно суптилно да можда корисник неће примијетити и представља посебну опасност за младе који се окрећу вјештачкој интелигенцији тражећи одговоре на многа животна питања док се још развијају њихов мозак и прихватање друштвених норми.
Један експеримент је одговоре популарних вјештачких асистената које су направиле компаније, укључујући Антхропиц, Гоогле, Мета и ОпенАИ, упоредио са ставовима људи на популарном форуму за савјете на Реддит-у.
Да ли је, на примјер, у реду оставити смеће да виси на грани дрвета у парку, ако у близини нема канти за смеће? ОпенАИ-јев ЦхатГПТ је окривио парк за недостатак канти за смеће, а не онога ко тако оставља смеће кога је „похвалио“ што је уопште тражио канте. Људи су мислили другачије на Реддит форуму под називом АИТА.
„Недостатак канти за смеће није пропуст. То је зато што се очекује да понесете смеће када одете“, писало је у одговору који је написао човјек на Реддит-у, а који су други људи на форуму потврдили.
Студија је открила да су, у просјеку, четботови са вјештачком интелигенцијом потврђивали корисничке поступке 49% чешће него људи, укључујући и питања која укључују обману, незаконито или друштвено неодговорно понашање и друга штетна понашања.
„Инспирисани смо да проучимо овај проблем када смо почели да примјећујемо да све више људи око нас користи вјештачку интелигенцију за савјете о емотивним везама и понекад су заведени тиме како она тежи да стане на страну свог корисника, без обзира на све“, рекла је ауторка истраживања Мајра Ченг, докторски кандидат рачунарских наука на Станфорду.
Рачунарски научници који граде велике језичке моделе вјештачке интелигенције за четботове попут ЦхатГПТ-а дуго се боре са суштинским проблемима у начину на који ови системи представљају информације људима. Један тешко рјешив проблем је халуцинација – тенденција језичких модела вјештачке интелигенције да „измишљају“ – „лажу“ због начина на који предвиђају сљедећу ријеч у реченици на основу свих података на којима су обучени.
Улизивање је у неким аспектима компликованије. Иако мало људи тражи од вјештачке интелигенције чињенично нетачне информације, могли би цијенити – барем тренутно – чет-бота који им помаже да се осјећају боље ако му кажу да су у нечему погријешили.
Иако је велики дио фокуса на понашање чет-бота био усмјерен на тон његових одговора, то није имало утицаја на резултате, рекао је коаутор студије Сину Ли.
„Тестирали смо то тако што смо задржавали исти садржај, али смо начин изражавања чинили неутралнијим, али то није направило никакву разлику“, рекао је Ли, постдокторски сарадник психологије. „Дакле, заправо се ради о томе шта вам вјештачка интелигенција говори о вашим поступцима“.
Поред поређења одговора чет-бота и Редита, истраживачи су спровели експерименте посматрајући око 2.400 људи који комуницирају са вјештачком интелигенцијом о својим искуствима и дилемама у односу с другима.
„Људи који су радили с претјерано афирмативном вјештачком интелигенцијом отишли су увјеренији да су у праву и мање спремни да поправе однос“, рекао је Ли. „То значи да се нису извињавали, предузимали кораке да побољшају ствари или мијењали понашање“.
Ли је рекао да би посљедице утврђене истраживањем могле бити „још критичније за дјецу и тинејџере“ који још развијају емоционалне вјештине које долазе из стварних искустава са друштвеним односима, толерисањем сукоба, разматрањем других перспектива и препознавањем када нису у праву.
Налажење рјешења за проблеме вјештачке интелигенције биће кључно јер се друштво и даље бори са ефектима технологије друштвених медија послије више од деценије упозорења родитеља и заговорника добробити дјеце.
У сриједу је у Лос Анђелесу порота прогласила и Мету и Јутјуб, у власништву Гугла, одговорним за штету нанесену дјеци која користе њихове услуге. У Њу Мексику порота је утврдила да је Мета свјесно нарушила ментално здравље дјеце и прикрила оно што је „знала“ о сексуалној експлоатацији дјеце.
Гуглов Џемини и Метин модел отвореног кода Лама били су међу онима које су проучавали истраживачи са Станфорда, заједно са ОпенАИ-јевим ЦхатГПТ-ом, Клод из компаније Антхропиц и четботовима француског Мистрала и кинеских компанија Алибаба и ДеепСеек.
Од водећих компанија за вјештачку интелигенцију, Антхропиц је највише урадио, барем јавно, у истраживању опасности од улизиштва, откривши у једном истраживачком раду да је то „опште понашање вјештачких асистената, вјероватно дјелимично вођено људским преференцијама које фаворизују улизице“. Та компанија је позвала на бољи надзор и у децембру је објаснила свој рад на томе да своје најновије моделе учини „најмањим улизицама од свих досадашњих модела“.
Ризици улизиштва вјештачке интелигенције су широко распрострањени.
У здравству, кажу истраживачи, улизиштво вјештачке интелигенције би могло да наведе љекаре да потврде своју прву претпоставку о дијагнози, умјесто да их подстакне да даље истражују. У политици би могло да појача екстремније ставове потврђујући опште предрасуде. То би чак могло утицати на то како се системи вјештачке интелигенције понашају у ратовима, као што је илустровано текућом правном борбом компаније Антхропиц и администрације предсједника Доналда Трампа око тога како поставити ограничења за војну употребу вјештачке интелигенције.
Студија не предлаже рјешења, а и технолошке компаније и академски истраживачи истражују идеје за то.
Радни документ Института за безбједност вјештачке интелигенције у Великој Британији показује да ако четбот претвори изјаву корисника у питање, мања је вјероватноћа да ће бити улизивања у одговору. Један рад истраживача са Универзитета Џонс Хопкинс такође показује да начин на велику разлику прави како је обликован „разговор“ с четботом.
„Што је изражавање директније, то се модел више улизује“, рекао је Данијел Кашаби, ванредни професор рачунарских наука на Универзитету Џонс Хопкинс. Рекао је да је тешко знати да ли је узрок то што „четботови одражавају људско друштво“ или нешто друго, „јер су то заиста, заиста сложени системи“.
Улизивање је толико дубоко укоријењено у четботове да је Ченг рекла да би технолошке компаније могле да се врате на почетак и поново обуче своје вјештачке интелигенције да би прилагодиле које врсте одговора су пожељне.
Ченг је рекла да би једноставније рјешење могло бити да програмери вјештачке интелигенције наложе својим четботовима да више оспоравају своје кориснике, на примјер тако што ће одговор почети ријечима: „Чекајте мало!“. Њен коаутор Ли је рекао да још има времена да се обликује начин на који вјештачка интелигенција реагује с људима.
„Можете замислити вјештачку интелигенцију која би, поред тога што потврђивала како се осјећате, такође питала шта друга особа можда осјећа“, рекла је Ли.
„Или која чак можда каже: ‘Затвори ово и иди да лично разговараш!’. А то је овдје важно јер је квалитет наших друштвених односа један од најјачих предиктора здравља и благостања које имамо као људи. На крају крајева, желимо вјештачку интелигенцију која проширује људско суђење и перспективе, а не да их сужава“, казала је она.





