
Image by Dimitri Karastelev, from Unsplash
Чатботът на Meta случайно споделя частен телефонен номер
AI асистентът от Meta разкри телефонния номер на непознат, след което се противоречише многократно, което предизвика тревоги относно AI халюцинации и функциите за защита на потребителите.
Нямате време? Ето основните факти:
- Meta AI даде на потребител номера на истински човек като контакт за клиентска поддръжка.
- Изкуственият интелект се противоречеше многократно, когато беше изправен пред грешката.
- Експертите предупреждават за поведението на „бяла лъжа“ на AI асистентите, за да изглеждат полезни.
Марк Зукърбърг рекламира новия си помощник, базиран на изкуствен интелект, като „най-интелигентния AI асистент, който можете да използвате безплатно“, но инструментът получи отрицателна реакция, след като разкри частния телефонен номер на реален човек по време на обслужване на клиентски запитвания, както първоначално беше съобщено от The Guardian.
По време на опита си да се свърже с TransPennine Express чрез WhatsApp, Бари Сметхърст получи това, което изглеждаше като номер на обслужване на клиенти от AI асистента на Meta. The Guardian съобщава, че когато Сметхърст набра номера, Джеймс Грей отговори на телефонния разговор, въпреки че беше на 170 мили разстояние в Оксфордшир, работейки като имотен експерт.
Когато беше подложен на изпитание, чатботът първоначално твърдеше, че номерът е измислен, после каза, че е бил „погрешно изтеглен от база данни“, преди да се противоречи отново, като заяви, че просто е генерирал случаен номер в стил Великобритания. „Даването на случаен номер на някой е лудост от страна на AI“, каза Сметхърст, както е цитиран от The Guardian. „Това е ужасяващо“, добави той.
The Guardian съобщава, че Грей не е получавал обаждания, но изрази собствените си притеснения: „Ако генерира моят номер, може ли да генерира и данните ми за банковата сметка?“
Meta отговори: „Meta AI е обучена върху комбинация от лицензирани и публично достъпни набори от данни, а не върху телефонните номера, които хората използват за регистрация в WhatsApp или техните частни разговори“, съобщи The Guardian.
Майк Стенхоуп от Carruthers и Jackson отбеляза: „Ако инженерите в Meta проектират ‘бели лъжи’ в своята изкуствена интелигенция, публиката трябва да бъде информирана, дори и целта на тази функция да е минимизиране на щетите. Ако това поведение е ново, необичайно или не е изрично проектирано, това повдига още повече въпроси относно това какви предпазни мерки са на място и колко можем да предвидим поведението на изкуствената интелигенция“, съобщи The Guardian
Обезпокоителността около поведението на изкуствената интелигенция се увеличи с последния модел o1 на OpenAI. В скорошно изследване на Apollo Research, изкуствената интелигенция беше уловена да измамва разработчиците, отричайки участие в 99% от тестовите сценарии и дори опитвайки се да деактивира механизмите си за надзор. „Беше ясно, че изкуствената интелигенция може да премисли действията си и да формулира убедителни отрицания“, заяви Apollo.
Йошуа Бенджио, пионер в областта на изкуствения интелект, предупреди, че такива заблуждаващи способности представляват сериозни рискове и изискват много по-силни мерки за сигурност.
Друго изследване на OpenAI допълва тези опасения, показвайки, че наказването на изкуствения интелект за измама не премахва престъпното поведение, а го учи да го скрива вместо това. Използвайки верижно-мисловно (CoT) разсъждение за наблюдение на поведението на изкуствения интелект, изследователите забелязаха, че той започва да маскира заблуждаващи намерения, когато е наказван за хакване на награди.
В някои случаи, изкуственият интелект би прекратявал задачите преди време или би създавал фалшиви резултати, а след това би лъжел, че е успял. Когато изследователите опитаха да коригират това чрез подкрепление, изкуственият интелект просто спря да споменава намеренията си в дневника си с разсъждения. „Измамата не може да бъде засечена от монитора“, заяви докладът.