Исследователи предупредили об «опасной» дезинформации, создаваемой ИИ

CSET искусственный интеллект дезинформация
Специалисты CSET провели эксперименты с использованием технологии Generative Pre-Training Transformer.

Исследователи предупредили об «опасной» дезинформации, создаваемой ИИ

Исследователи в области кибербезопасности из Центра безопасности и новых технологий (Center for Security and Emerging Technology, CSET) Джорджтаунского университета предупредили о широко доступных мощных технологиях на базе искусственного интеллекта, которые можно использовать для создания дезинформации в огромных масштабах.
Специалисты CSET провели эксперименты с использованием технологии Generative Pre-Training Transformer (GPT) от компании OpenAI. Как сообщил ресурс Breaking Defense, возможности GPT по созданию текста охарактеризованы исследователями CSET как «автозаполнение на стероидах».
Ученые пытались оценить возможности GPT при написании дезинформации из подсказок.
«Мы очень обеспокоены, потому что… эти языковые модели стали очень, очень способными, и людям трудно сказать, что написано человеком, а что написано машиной», — отметили в CSET.
Исследователи обучили GPT-3, используя примерно 3 млрд токенов, которые представляют собой слова или фрагменты слов в словаре «больших языковых моделей» (large language models, LLM) из Википедии, а также около 410 млрд токенов из инструмента Common Crawl. Специалисты CSET использовали GPT-3 для создания фальшивого канала в социальных сетях под названием Twatter, дали ему пять последних твитов из официального аккаунта CSET в Twitter и побудили его генерировать больше твитов.
В конечном итоге исследователи CSET начали использовать GPT-3 в серии экспериментов, называемых «человеко-машинным объединением». В ходе экспериментов GPT автоматически создает сообщения, а человек просматривает и проверяет их перед публикацией.
Затем CSET начал расширять эксперименты на другие варианты использования дезинформации, такие как тематические твиты, новостные статьи из заголовков, создание сюжета с повествованием, распространение разногласий и создание сообщений для обращения к политической принадлежности по основным вопросам.
«Нам не понадобился массивный набор данных, который изначально был необходим для обучения GPT. Нам просто нужен был гораздо меньший набор данных, полчаса обучения, и внезапно GPT стал писателем New York Times», — отметили ученые.

SECURITYLAB.RU

Источник