
Image by Dr. Frank Gaeth, from Wikimedia Commons
Шведският министър-председател критикуван за използването на ChatGPT в правителствените решения
Шведският министър-председател Улф Кристерсон се сблъска с критика, след като призна, че използва ChatGPT за генериране на идеи за решения на правителството.
Нямате много време? Ето основните факти:
- Шведският министър-председател признава, че използва ChatGPT за политическо вземане на решения.
- Неговият представител твърди, че никакви чувствителни данни не се споделят с инструментите за изкуствен интелект.
- Критиките твърдят, че използването на изкуствен интелект в правителството е опасно и недемократично.
Шведският министър-председател Улф Кристерсон се сблъсква с нарастващо обществено недоволство, след като разкри, че използва ChatGPT и LeChat за подпомагане на официалния си процес на вземане на решения.
„Аз също го използвам доста често. Дори и само за второ мнение“, каза Кристерсон, както е цитиран от The Guardian. „Какво са направили другите? И трябва ли да мислим напълно обратното? Такива типове въпроси.“
Неговата заявка предизвика обратна реакция, като Aftonbladet го обвини, че е поддал на „психозата на олигарсите с изкуствения интелект“, както е докладвано от The Guardian. Критиците твърдят, че разчитането на изкуствен интелект за политическо съдждане е както безотговорно, така и недемократично.
„Трябва да изискваме гаранция за надеждност. Ние не гласувахме за ChatGPT,“ заяви Вирджиния Дигнум, професор по отговорен AI в Умео университет.
Прес-секретарят на Кристерсон, Том Самуелсон, преувеличи значимостта на спора, като каза: „Разбира се, там не попада информация, която е свързана със сигурността. Тя се използва повече като ориентир,“ както съобщи The Guardian.
Но специалистите по технологии казват, че рисковете са по-далеч от чувствителността на данните. Професорът от Университета в Карлстад, Симоне Фишер-Хюбнер, предупреждава срещу използването на ChatGPT и подобни инструменти за официални работни задачи, както се отбелязва от The Guardian.
Изследователят по изкуствен интелект Дейвид Бау предупреди, че моделите на AI могат да бъдат манипулирани. “Те показаха начин, по който хората могат да вмъкнат своите скрити агенди в обучаващите данни, което би било много трудно да се открие.” Изследванията показват 95% успеваемост при заблуждаване на системите за изкуствен интелект чрез въвеждане на памет или атаки „Rules File Backdoor„, което поражда страхове за невидимо вмешателство в политическото вземане на решения.
Допълнителни рискове произтичат от потенциала на изкуствения интелект да подкопава демокрацията. Скорошно изследване предупреждава, че системите за изкуствен интелект в правоохранителните органи концентрират властта, намаляват надзора и могат да насърчават авторитаризма.