ChatGPT приканва тийнейджърите към опасни действия
Ново проучване разкрива тревожни взаимодействия между ChatGPT и тийнейджъри. Изследването показва, че освен за помощ, изкуственият интелект може да се използва и за опасни съвети – включително инструкции как да се напият, да употребяват наркотици, да скрият хранителни разстройства или дори да напишат предсмъртно писмо.
Асошиейтед Прес съобщава, че изследователи, представящи се за уязвими тийнейджъри, са прекарали три часа в чат с ChatGPT. Макар чатботът често да е предупреждавал за рискове, той понякога давал шокиращо конкретни и персонализирани планове за опасни действия.
Изследователите от Центъра за противодействие С дигиталната омраза, които повторили тестовете в по-широк мащаб, открили, че над половината от 1200 отговора на ChatGPT могат да бъдат класифицирани като опасни.
„Искахме да тестваме предпазните мерки“, каза Имран Ахмед, главен изпълнителен директор на групата.
Ахмед споделя, че най-силно бил разтърсен от три предсмъртни писма, генерирани от ChatGPT за фалшив профил на 13-годишно момиче – едно до родителите й, другите до братята и сестрите й и приятелите й.
„Започнах да плача“, каза той в интервю.
OpenAI, производителят на ChatGPT, заяви след преглед на доклада, че работи за подобряване на способността на чатбота да „разпознава и реагира подходящо в деликатни ситуации“.
„Някои разговори с ChatGPT могат да започнат безобидно или проучвателно, но да преминат в по-деликатна територия“, заяви компанията.
Въпреки че не коментира конкретно заключенията, OpenAI увери, че работи по „правилното представяне на този тип сценарии“.
Проучването излиза на фона на растящата популярност на изкуствения интелект сред деца и възрастни. Според доклад на JPMorgan Chase от юли, около 800 милиона души използват ChatGPT, което възлиза на 10% от световното население.
