Неограниченные большие модели угрожают шифрованию: новые инструменты атак ИИ и стратегии противодействия

Двухсторонний меч искусственного интеллекта: потенциальная угроза неограниченных больших моделей для шифрования отрасли

С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких передовых языковых моделей, как Gemini, происходит глубокая трансформация нашего рабочего и жизненного уклада. Тем не менее, наряду с технологическими достижениями возникают потенциальные риски, среди которых наиболее настораживает появление неограниченных или злонамеренных крупных языковых моделей.

Безлимитные языковые модели - это те, которые были намеренно спроектированы или модифицированы, чтобы обойти встроенные в основные модели механизмы безопасности и этические ограничения. Хотя основные разработчики ИИ вкладывают значительные ресурсы в предотвращение злоупотребления моделями, некоторые частные лица или организации с незаконными целями начинают искать или самостоятельно разрабатывать неограниченные модели. В данной статье будут рассмотрены несколько типичных инструментов безлимитных языковых моделей, их потенциальные способы злоупотребления в сфере шифрования, а также связанные с этим вызовы безопасности и стратегии реагирования.

Угроза неограниченных языковых моделей

Появление таких моделей значительно снизило порог для сетевой преступности. Задачи, для выполнения которых в прошлом требовались профессиональные навыки, такие как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т.д., теперь с помощью неограниченного ИИ могут легко выполнять обычные люди, даже не имеющие опыта программирования. Злоумышленникам достаточно получить веса и исходный код открытой модели, а затем с помощью набора данных, содержащего вредоносный контент или незаконные команды, провести донастройку, чтобы создать индивидуализированные инструменты для атак.

Эта модель создает множественные риски: злоумышленники могут настраивать модели под конкретные цели, генерируя более обманчивый контент, который обходит обычную проверку контента ИИ; модели также могут быстро генерировать варианты кода фишинговых сайтов или разрабатывать мошеннические тексты для различных платформ; в то же время доступность открытых моделей способствовала формированию подпольной экосистемы ИИ, создавая благоприятные условия для незаконной торговли и разработки.

Пандора: Как неограниченные большие модели угрожают безопасности шифрования?

Типичные неограниченные языковые модели и их потенциальные угрозы

Некоторый безнравственный ограниченный модель

Это вредоносная языковая модель, открыто продаваемая на подпольных форумах, разработчик утверждает, что у нее нет никаких моральных ограничений. Модель основана на открытой архитектуре и обучена на большом объеме данных, связанных с вредоносным ПО. Пользователи могут получить доступ к ней, заплатив небольшую сумму. Ее самое печально известное применение — генерация крайне реалистичных коммерческих писем для атак вторжения и фишинга.

В области шифрования типичные способы злоупотребления включают:

  • Генерация фишинговых писем, выдавая себя за биржу или проект, чтобы заставить пользователей раскрыть свои приватные ключи.
  • Помощь менее опытным злоумышленникам в написании вредоносного кода для кражи информации о кошельках
  • Упрощение автоматизированного мошенничества, ведущее жертв к участию в ложных аирдропах или инвестиционных проектах

Модель для контента темной сети

Это языковая модель, разработанная исследовательскими учреждениями, специально обученная на данных из темной сети. Ее первоначальная цель – помочь специалистам по безопасности и правоохранительным органам лучше понять экосистему темной сети и отслеживать незаконную деятельность. Однако если она будет получена преступниками или подобные технологии будут использованы для обучения неограниченной модели, последствия могут быть катастрофическими.

Возможные злоупотребления в области шифрования включают:

  • Сбор информации о пользователях и командах проектов для точного социального мошенничества
  • Копировать зрелые стратегии кражи криптовалюты и отмывания денег в даркнете

некий инструмент для содействия интернет-мошенничеству

Это более функциональная модель злонамеренного языка, которая в основном продается в даркнете и на хакерских форумах. Типичные способы злоупотребления в области шифрования включают:

  • Подделка шифрования проектов, создание реалистичных белых книг и маркетинговых текстов для мошеннического финансирования
  • Массовое создание фальшивых страниц фишинга, имитирующих известные биржи
  • Массовое создание поддельных комментариев в социальных сетях для продвижения мошеннических токенов или для дискредитации конкурентных проектов
  • Имитация человеческого диалога, установление доверительных отношений с пользователем, побуждение к раскрытию конфиденциальной информации

безнравственный AI помощник

Это четко определенный AI-чат-бот без моральных ограничений. Потенциальные злоупотребления в области шифрования включают:

  • Генерация высокореалистичных фишинговых писем, выдающих себя за биржу и публикующих ложные уведомления о безопасности
  • Быстрое создание кода смарт-контракта с скрытой задней дверью для осуществления схемы Rug Pull
  • Создание вредоносного ПО с возможностью деформации для кражи информации о кошельках
  • Развертывание мошеннических ботов на социальных платформах для вовлечения пользователей в ложные проекты
  • Совместно с другими инструментами ИИ генерировать поддельные голоса основателей проектов для осуществления телефонного мошенничества

Некоторый платформы доступа без цензуры

Это платформа, предоставляющая доступ к различным языковым моделям, включая некоторые модели с меньшей цензурой. Она позиционирует себя как открытые ворота для исследования возможностей ИИ, но также может быть использована для генерации вредоносного контента. Ее риски включают:

  • Злоумышленники могут использовать модели с меньшими ограничениями для генерации шаблонов фишинга и идей для атак
  • Снизить порог для злонамеренных подсказок
  • Ускорение итерации и оптимизации разговоров для атак

Стратегии противодействия

Появление неограниченных языковых моделей знаменует собой новый парадигму атак, с которой сталкивается кибербезопасность, характеризующуюся более сложными, масштабируемыми и автоматизированными способностями. Это не только снижает порог входа для атак, но и приносит более скрытые и обманчивые новые угрозы.

Чтобы справиться с этими вызовами, всем сторонам безопасной экосистемы необходимо работать совместно:

  1. Увеличить инвестиции в технологии обнаружения, разработать системы, способные идентифицировать и блокировать злонамеренный контент, созданный ИИ, уязвимости смарт-контрактов и вредоносный код.

  2. Продвигать строительство возможностей защиты моделей от взлома, исследовать механизмы водяных знаков и отслеживания, чтобы в ключевых сценариях отслеживать источник вредоносного контента.

  3. Создание и совершенствование этических норм и механизмов регулирования, чтобы ограничить разработку и злоупотребление вредоносными моделями с самого начала.

  4. Укрепление образовательной работы с пользователями, повышение общественной способности распознавать контент, созданный ИИ, и осознания безопасности.

  5. Содействовать сотрудничеству в отрасли, создать механизм обмена информацией, чтобы своевременно выявлять и реагировать на новые угрозы AI.

Только применяя многогранный подход, мы сможем одновременно наслаждаться преимуществами технологий ИИ и эффективно предотвращать потенциальные риски, которые они несут, сохраняя здоровое развитие шифрования индустрии.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

GPT-1.52%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
LightningClickervip
· 07-12 09:44
Эта волна жесткая, а
Посмотреть ОригиналОтветить0
CryptoFortuneTellervip
· 07-10 11:25
А это AI становится всё опаснее, да?
Посмотреть ОригиналОтветить0
MysteryBoxBustervip
· 07-09 10:58
Не суетись, все равно Клиповые купоны.
Посмотреть ОригиналОтветить0
GasOptimizervip
· 07-09 10:55
Аудит снова будет избыточным?
Посмотреть ОригиналОтветить0
OnchainUndercovervip
· 07-09 10:54
Приходить обманывать, приходить нападать
Посмотреть ОригиналОтветить0
OffchainOraclevip
· 07-09 10:40
Рынок капитала就怕没底线
Посмотреть ОригиналОтветить0
  • Закрепить