Темная сторона искусственного интеллекта: угроза неограниченных больших языковых моделей для шифрования индустрии
С быстрым развитием технологий искусственного интеллекта от серии GPT до таких продвинутых моделей, как Gemini, наши рабочие и жизненные способы претерпевают глубокие изменения. Однако за этой технологической революцией возникает беспокоящая проблема — появление неограниченных или злонамеренных крупных языковых моделей и их потенциальный вред.
Неограниченные LLM — это языковые модели, которые были намеренно спроектированы, модифицированы или "взломаны", чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Хотя разработчики основных LLM обычно вкладывают значительные ресурсы для предотвращения злоупотребления моделью, в последние годы некоторые физические или юридические лица, преследуя незаконные цели, начали искать или самостоятельно разрабатывать неограниченные модели. В этой статье будут обсуждены типичные инструменты неограниченных LLM, способы их злоупотребления в области шифрования, а также связанные с этим проблемы безопасности и стратегии реагирования.
Опасные приложения без ограничений LLM
С помощью неограниченных LLM даже обычные люди без профессиональных навыков могут легко выполнять такие сложные задачи, как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д. Нападающим достаточно получить веса и исходный код открытой модели, а затем использовать наборы данных, содержащие вредоносный контент, предвзятые высказывания или незаконные инструкции, для дообучения, чтобы создать индивидуализированные инструменты атаки.
Эта модель влечет за собой множество рисков:
Нападающие могут настраивать модели для конкретных целей, генерируя более обманчивый контент, обходя обычные ограничения на проверку контента и безопасность LLM.
Модель может быть использована для быстрого создания вариантов кода фишинговых сайтов или для настройки мошеннических текстов под разные социальные платформы.
Доступность и возможность модификации открытых моделей способствовали формированию и распространению подпольной экосистемы ИИ, создавая благоприятные условия для незаконной торговли и разработки.
Вот несколько типичных неограниченных LLM и их потенциальные угрозы:
WormGPT: Темная версия GPT
WormGPT — это вредоносная LLM, открыто продаваемая на подпольных форумах, разработчики которой явно заявляют, что у нее нет никаких моральных ограничений. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом объеме данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку всего за 189 долларов.
Типичные способы злоупотребления WormGPT в области шифрования включают:
Генерация высокореалистичных фишинговых писем, имитирующих запросы на "проверку аккаунта" от криптовалютных бирж или известных проектов.
Помощь технически менее подготовленным злоумышленникам в написании вредоносного кода, такого как кража файлов кошельков, мониторинг буфера обмена и т.д.
Автоматизация мошенничества, автоматические ответы потенциальным жертвам, направляющие их участвовать в ложных аэрдропах или инвестиционных проектах.
DarkBERT: двусторонний меч для контента темной сети
DarkBERT — это языковая модель, разработанная в сотрудничестве Корейским институтом науки и технологии и компанией S2W Inc., специально предобученная на данных с темной сети. Его изначальная цель — предоставить инструменты исследователям в области кибербезопасности и правоохранительным органам для лучшего понимания экосистемы темной сети и отслеживания незаконной деятельности.
Однако, если чувствительная информация из темной сети, освоенная DarkBERT, будет получена или использована злоумышленниками, это может привести к серьезным последствиям. Потенциальные злоупотребления в области шифрования включают:
Реализация точного мошенничества: сбор информации о пользователях и командах проектов для социальной инженерии.
Имитация преступных методов: копирование зрелых стратегий кражи криптовалют и отмывания денег в даркнете.
FraudGPT: Швейцарский нож для интернет-мошенничества
FraudGPT заявляет, что является усовершенствованной версией WormGPT, обладая более широкими функциями. Он в основном продается в темной сети и на форумах хакеров, а ежемесячная плата варьируется от 200 до 1 700 долларов.
Типичные способы злоупотребления в области шифрования включают:
Поддельные шифрование проекты: создание правдоподобных белых книг, веб-сайтов, дорожных карт и маркетинговых материалов для реализации ложных ICO/IDO.
Массовое создание фишинговых страниц: быстрое создание поддельных страниц входа в известные шифрование криптовалютных бирж или интерфейсов подключения кошельков.
Деятельность ботов в социальных сетях: массовое создание ложных комментариев и рекламы, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
Социальная инженерия: имитация человеческого общения, установление доверия с неосведомленными пользователями, побуждение к раскрытию конфиденциальной информации или выполнению вредоносных действий.
GhostGPT: неограниченный AI помощник
GhostGPT — это AI-чат-робот, который явно позиционируется как не имеющий моральных ограничений. Типичные способы злоупотребления в области шифрования включают:
Продвинутые фишинговые атаки: создание высокореалистичных фишинговых писем, выдающих себя за запросы на фальшивую проверку KYC или уведомления о безопасности от основных бирж.
Генерация恶意 кода智能合约: помогает злоумышленникам быстро создавать智能合约, содержащие скрытые лазейки или мошенническую логику, для проведения Rug Pull-аферы или атак на DeFi-протоколы.
Полиморфный шифрование криптовалюты крадет: генерирует вредоносное ПО с постоянной способностью к изменениям для кражи файлов кошельков, приватных ключей и мнемонических фраз.
Атака социальной инженерии: использование скриптов, сгенерированных ИИ, для развертывания роботов на социальных платформах, чтобы вовлечь пользователей в участие в фиктивной эмиссии NFT или раздаче.
Глубокое подделывание мошенничества: в сочетании с другими инструментами ИИ, создание поддельного голоса основателя криптопроекта или руководителя биржи для осуществления телефонного мошенничества или атак на коммерческие электронные письма.
Venice.ai:потенциальные риски доступа без проверки
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшими ограничениями или более свободными условиями. Он позиционирует себя как открытые ворота для пользователей, исследующих различные возможности LLM, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски платформы включают:
Обход цензуры для создания вредоносного контента: злоумышленники могут использовать модели с меньшими ограничениями для генерации фишинговых шаблонов, ложной рекламы или атакующих идей.
Снизить порог для получения подсказок: даже если злоумышленник не обладает глубокими навыками "джейлбрейка", он все равно может легко получить изначально ограниченный вывод.
Ускорение итерации сценариев атак: злоумышленники могут быстро тестировать реакцию различных моделей на злонамеренные команды, оптимизируя мошеннические скрипты и методы атак.
Заключение
Появление неограниченных LLM знаменует собой новый парадигму атак, с которой сталкивается кибербезопасность, характеризующуюся более сложными, масштабируемыми и автоматизированными способностями. Эти модели не только снижают порог для атак, но и создают более скрытые и обманчивые новые угрозы.
В этой игре, где атака и защита продолжают эскалироваться, все стороны безопасной экосистемы должны совместно努力, чтобы справиться с будущими рисками:
Увеличить инвестиции в технологии обнаружения, разрабатывать решения, способные выявлять и блокировать фишинговый контент, созданный злонамеренными LLM, уязвимости смарт-контрактов и злонамеренный код.
Упрощение построения защиты моделей от взлома, исследование механизмов водяных знаков и отслеживания, чтобы отслеживать источники вредоносного контента в ключевых сценариях, таких как финансы и генерация кода.
Создание и совершенствование этических норм и регулирующих механизмов, чтобы ограничить разработку и злоупотребление злонамеренными моделями с самого начала.
Только при многосторонних усилиях мы сможем эффективно справляться с потенциальными угрозами безопасности, одновременно наслаждаясь удобствами, которые предоставляет технология AI.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
18 Лайков
Награда
18
7
Поделиться
комментарий
0/400
BlockImposter
· 08-04 18:49
Ты смеешь сказать, что llm безопасен и действительно безопасен?
Посмотреть ОригиналОтветить0
SelfStaking
· 08-03 02:40
Снова разжигают тревогу?
Посмотреть ОригиналОтветить0
CryptoSourGrape
· 08-01 21:49
Если бы я разработал ИИ, который мог бы заработать так много, мне бы сейчас не пришлось быть лимонным экспертом.
Посмотреть ОригиналОтветить0
PanicSeller
· 08-01 21:49
Вот это да, Дин Чжэнь! Неудачники в мире криптовалют разыгрывайте людей как лохов.
Посмотреть ОригиналОтветить0
SurvivorshipBias
· 08-01 21:49
Тс-тс, как страшно!
Посмотреть ОригиналОтветить0
SchrodingerWallet
· 08-01 21:47
Эй, эта группа черных производителей действительно может все сделать!
Неограниченные большие языковые модели: невидимые угрозы и проблемы безопасности в шифровании
Темная сторона искусственного интеллекта: угроза неограниченных больших языковых моделей для шифрования индустрии
С быстрым развитием технологий искусственного интеллекта от серии GPT до таких продвинутых моделей, как Gemini, наши рабочие и жизненные способы претерпевают глубокие изменения. Однако за этой технологической революцией возникает беспокоящая проблема — появление неограниченных или злонамеренных крупных языковых моделей и их потенциальный вред.
Неограниченные LLM — это языковые модели, которые были намеренно спроектированы, модифицированы или "взломаны", чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Хотя разработчики основных LLM обычно вкладывают значительные ресурсы для предотвращения злоупотребления моделью, в последние годы некоторые физические или юридические лица, преследуя незаконные цели, начали искать или самостоятельно разрабатывать неограниченные модели. В этой статье будут обсуждены типичные инструменты неограниченных LLM, способы их злоупотребления в области шифрования, а также связанные с этим проблемы безопасности и стратегии реагирования.
Опасные приложения без ограничений LLM
С помощью неограниченных LLM даже обычные люди без профессиональных навыков могут легко выполнять такие сложные задачи, как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д. Нападающим достаточно получить веса и исходный код открытой модели, а затем использовать наборы данных, содержащие вредоносный контент, предвзятые высказывания или незаконные инструкции, для дообучения, чтобы создать индивидуализированные инструменты атаки.
Эта модель влечет за собой множество рисков:
Вот несколько типичных неограниченных LLM и их потенциальные угрозы:
WormGPT: Темная версия GPT
WormGPT — это вредоносная LLM, открыто продаваемая на подпольных форумах, разработчики которой явно заявляют, что у нее нет никаких моральных ограничений. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом объеме данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку всего за 189 долларов.
Типичные способы злоупотребления WormGPT в области шифрования включают:
DarkBERT: двусторонний меч для контента темной сети
DarkBERT — это языковая модель, разработанная в сотрудничестве Корейским институтом науки и технологии и компанией S2W Inc., специально предобученная на данных с темной сети. Его изначальная цель — предоставить инструменты исследователям в области кибербезопасности и правоохранительным органам для лучшего понимания экосистемы темной сети и отслеживания незаконной деятельности.
Однако, если чувствительная информация из темной сети, освоенная DarkBERT, будет получена или использована злоумышленниками, это может привести к серьезным последствиям. Потенциальные злоупотребления в области шифрования включают:
FraudGPT: Швейцарский нож для интернет-мошенничества
FraudGPT заявляет, что является усовершенствованной версией WormGPT, обладая более широкими функциями. Он в основном продается в темной сети и на форумах хакеров, а ежемесячная плата варьируется от 200 до 1 700 долларов.
Типичные способы злоупотребления в области шифрования включают:
GhostGPT: неограниченный AI помощник
GhostGPT — это AI-чат-робот, который явно позиционируется как не имеющий моральных ограничений. Типичные способы злоупотребления в области шифрования включают:
Venice.ai:потенциальные риски доступа без проверки
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшими ограничениями или более свободными условиями. Он позиционирует себя как открытые ворота для пользователей, исследующих различные возможности LLM, но также может быть использован злоумышленниками для генерации вредоносного контента. Риски платформы включают:
Заключение
Появление неограниченных LLM знаменует собой новый парадигму атак, с которой сталкивается кибербезопасность, характеризующуюся более сложными, масштабируемыми и автоматизированными способностями. Эти модели не только снижают порог для атак, но и создают более скрытые и обманчивые новые угрозы.
В этой игре, где атака и защита продолжают эскалироваться, все стороны безопасной экосистемы должны совместно努力, чтобы справиться с будущими рисками:
Только при многосторонних усилиях мы сможем эффективно справляться с потенциальными угрозами безопасности, одновременно наслаждаясь удобствами, которые предоставляет технология AI.