ИИ-чатботы взломали с помощью ASCII-картинок Опубликовано 9 марта, 2024 автором Ferra.ru Исследователи из Вашингтона и Чикаго представили ArtPrompt — новую технику, позволяющую обходить меры безопасности в популярных больших языковых моделях (LLM), таких как GPT-3. 5, GPT-4 и других.