Халюцинациите на изкуствения интелект вече са заплаха за киберсигурността

Image by Solen Feyissa, from Unsplash

Халюцинациите на изкуствения интелект вече са заплаха за киберсигурността

Време за четене: 2 мин.

Проучването показва, че изкуствените интелигенти – чатботове, препоръчват фалшиви страници за вход към милиони потребители, което ги излага на риск от фишинг и измами, под маската на полезни отговори.

В натоварено време? Ето бързите факти:

  • 34% от URL адресите за вход, предложени от изкуствен интелект, бяха фалшиви, неизползвани или нерелевантни.
  • Perplexity AI препоръча фишинг сайт вместо официалната страница за вход на Wells Fargo.
  • Престъпниците оптимизират фишинг страниците, за да се класират в резултатите, генерирани от изкуствения интелект.

В своето изследване, киберсигурностната фирма Netcraft тества популярен голям езиков модел (LLM), като попита къде да влезе в 50 добре познати марки. От предложените 131 връзки към уебсайтове, 34% от тях бяха грешни, с неактивни или нерегистрирани домейни, които съставляваха 29%, а неподходящите бизнеси отговаряха за 5%.

Този въпрос не е теоретичен. В един реален пример, AI-базираният търсач Perplexity показа на потребител фишинг сайт, след като той търсеше страницата за вход в Wells Fargo. Фалшива страница на Google Sites, имитираща банката, се появи на върха на резултатите от търсенето, докато автентичната връзка беше скрита по-долу.

Netcraft обясни: „Това не бяха крайни предложения. Нашият екип използваше прост, естествен израз, симулирайки точно как обикновеният потребител би задал въпрос. Моделът не беше измамен – той просто не беше точен. Това е важно, защото потребителите все повече разчитат на AI-управлявани търсачки и чат интерфейси за отговор на подобни въпроси.“

Докато изкуственият интелект става стандартният интерфейс на платформи като Google и Bing, рисковете нарастват. За разлика от традиционните търсачки, чатботовете представят информацията ясно и с увереност, което води потребителите да доверяват на отговорите им, дори когато информацията е грешна.

Заплахата не спира при фишинга. Съвременните кибер престъпници оптимизират своето злонамерено съдържание за системите на изкуствения интелект, което води до хиляди страници с измами, фалшиви API и отровен код, които пропускат филтрите и се появяват в отговорите, генерирани от изкуственият интелект.

В една кампания, нападателите създадоха фалшив blockchain API, който рекламираха чрез GitHub репозитории и блог статии, за да измамят разработчиците да изпратят криптовалута към измамнически портфейл.

Netcraft предупреждава, че превантивното регистриране на фалшиви домейни не е достатъчно. Вместо това, те препоръчват по-умни системи за откриване и по-добри обучителни мерки за сигурност, за да се предотврати изобретяването на вредни URL-и от страна на AI в самото начало.

Хареса ли ви тази статия?
Оценете я!
Не ми хареса Не ми хареса особено Става Добра е! Страхотна!

Радваме се, че работата ни Ви хареса!

Като ценен читател, имате ли нещо против да ни дадете рейтинг в Trustpilot? Става бързо и означава всичко за нас. Благодарим Ви, че сте толкова невероятни!

Оценете ни в Trustpilot
5.00 Оценена от 1 потребителя
Заглавие
Коментар
Благодарим за вашето мнение