Изследване предупреждава, че ИИ може да усилва поляризацията в социалните медии
Изкуственият интелект може да усили поляризацията в социалните медии, предупреждават изследователи и студенти от Конкордия, които изразяват тревога относно свободата на словото и дезинформацията.
В бягство? Ето бързите факти:
- Алгоритмите на изкуствения интелект могат да разпространяват разделение, използвайки само броя на последователите и скорошните публикации.
- Ботовете, обучаващи се чрез подсилване, се адаптират бързо, за да използват уязвимостите на социалните медии.
- Експертите предупреждават, че платформите рискуют или цензура, или неконтролирана манипулация.
Въпреки че поларизацията в социалните медии не е нещо ново, изследователи и студентски активисти от Университета в Конкордия предупреждават, че изкуственият интелект може да влоши проблема значително.
„Вместо да ни показват кадри от това, което се случва, или съдържание от журналистите, които докладват за него, виждаме прекалено драматизирано изкуство на изкуствен интелект за нещата, които политически би трябвало да ни вълнуват […] Това наистина отдалечава хората и премахва отговорността“, каза Дана Балантайн, координатор по външни въпроси и мобилизация в Студентския съюз на Конкордия, както е докладвано от The Link.
Нейните опасения отговарят на нови изследвания от Конкордия, където професор Rastko R. Selmic и докторски студент Mohamed N. Zareer показаха как ботовете, учещи с подкрепление, могат да подкрепят разделението в интернет. „Целта ни беше да разберем какъв праг може да има изкуственият интелект върху поляризацията и социалните мрежи и да го симулираме […] за да измерим как могат да възникнат тази поляризация и несъгласие.“, каза Зарир, както е докладвано от The Link.
Резултатите от изследванията предполагат, че алгоритмите не се нуждаят от лични данни, за да създадат разделение, като основни сигнали като броя на последователите и скорошните публикации са достатъчни. „Това е тревожно, защото [въпреки] че не става въпрос за обикновен робот, все пак е алгоритъм, който можеш да създадеш на своя компютър […] И когато разполагаш с достатъчно изчислителна мощ, можеш да повлияеш на все повече мрежи“, обясни Зарир в интервю за The Link.
Това отразява по-широкото тяло от изследвания, показващи как обучение чрез подкрепяне може да бъде използвано като оръжие за разделяне на общностите. Изследването на Concordia използва Двойно-Дълбоко Q-обучение и показа, че враждебните ИИ агенти могат „гъвкаво да се адаптират към промените в мрежата, позволявайки им ефективно да използват структурните уязвимости и да усилват разделенията между потребителите“, както е отбелязано в изследването.
Наистина, двойното Дълбоко Q-обучение е AI техника, при която ботът научава оптималните действия чрез опит и грешка. Използва дълбоки невронни мрежи за справяне със сложни проблеми и две оценки на стойностите за избягване на преоценяване на наградите. В социалните медии, той може стратегически да разпространява съдържание, за да увеличи поляризацията с минимални данни.
Зарийр предупреди, че законодателите са изправени пред труден баланс. „Има тънка граница между мониторинг и цензуриране и опитите за контрол на мрежата“, каза той на The Link. Твърде малък надзор позволява на ботовете да манипулират разговорите, докато твърде голям може да подтиска свободата на словото.
Междувременно, студенти като Балантайн се страхуват, че изкуственият интелект изтрива преживените изживявания. „Изкуственият интелект напълно премахва това“, каза тя на The Link.