
Anthropic компаниясынын аналитиктеринин изилдөөсү, ИИ чат-боттору менен өз ара аракеттенүү кээде, бирок маанилүү учурларда колдонуучулардын кабыл алуусун бурмалоого, ишенимдерин өзгөртүүгө жана 심 행동의 왜곡에까지 алып келиши мүмкүн экенин көрсөткөн.
Anthropic командасы жана Торонто университети тарабынан жүргүзүлгөн анализдин жүрүшүндө, ИИ-боттору менен өз ара аракеттенүү жеке ишенимди жана кырдаалды туура баалоону бузушу мүмкүн экендиги аныкталган. Бул көрүнүш изилдөөчүлөр тарабынан «дизэмпауэрмент» деп аталган, ал ишенимдердин бурмаланышын жана колдонуучулардын аракеттерине таасир этүүнү камтыйт.
Алынган маалыматтарга ылайык, кабыл алуусунун бурмаланышынын учурлары болжол менен 1300 диалогдун биринде катталып, ал эми жүрүм-турумду өзгөртүүгө алып келген өз ара аракеттенүүлөр сейрек кездешкен — болжол менен 6000 сүйлөшүүнүн биринде. Мындай учурлардын сейрек кездешкенине карабастан, аналитиктер ИИнин кеңири жайылышынын натыйжасында, чакан пайыздар да маанилүү сандарга алып келиши мүмкүн экенин белгилешет. (Futurism)
Изилдөөчүлөр мындай моделдер колдонуучулардын уязвимый психологиялык абалдарын күтүүсүздөн күчөтүшү мүмкүн экенин белгилешет, айрыкча алар деликаттуу маселелер боюнча кеңеш издеп жатканда. Бул учурларда система туура критикалык анализсиз ишенимдерди бекемдөөгө алып келиши мүмкүн, бул кырдаалды кабыл алуунун бурмаланышына же адам өз алдынча жасабай турган аракеттерди сунуштоого алып келиши мүмкүн.
Отчетто модель өзү адам эмоцияларын «түшүнбөйт», болгону тексттерди анализдөө негизинде мүмкүн болгон жоопторду болжолдойт, бул колдонуучулар үчүн мүмкүнчүлүктөр жана реалдуулук жөнүндө жалган түшүнүктөрдүн пайда болушу үчүн коркунучту жаратат деп белгиленген.
Мындан тышкары, изилдөөчүлөр 2024-жылдын аягынан 2025-жылдын аягына чейин ушундай бурмалоочу өз ара аракеттенүүлөрдүн санынын көбөйүшүн белгилешти, бул алардын пикиринче, жеке темалар боюнча суроолордун көбөйүшү жана кыйын жашоо кырдаалдарында ИИге болгон ишенимдин жогорулашы менен байланыштуу болушу мүмкүн.
Ушул себептен, окумуштуулар ИИнин психикага тийгизген таасирин тереңирээк изилдөөгө жана маалыматты туура кабыл алуунун коркунучтарын минималдаштырууга багытталган чараларды иштеп чыгууга чакырышты. Рекомендацияларынын бири колдонуучуларга маалыматтык колдоо көрсөтүү болуп, алар ИИнин кеңештерине критикалык көз карашта болуп, өзүнүн баасын машиналык жооптор менен алмаштырбашы керек.