Темна сторона штучного інтелекту: загроза безмежних великих мовних моделей для шифрування індустрії
З розвитком технологій штучного інтелекту, від серії GPT до таких передових моделей, як Gemini, відбуваються глибокі зміни в нашій роботі та способі життя. Однак за цією технологічною революцією виникає тривожне питання — поява необмежених або зловмисних великих мовних моделей та їх потенційна шкода.
Безобмежені LLM - це ті, що були навмисно спроектовані, модифіковані або "взломані", щоб уникнути вбудованих механізмів безпеки та етичних обмежень основних моделей. Хоча розробники основних LLM зазвичай витрачають великі ресурси на запобігання зловживанню моделями, в останні роки деякі особи або організації з незаконними намірами почали шукати або самостійно розробляти необмежені моделі. У цій статті розглядаються типові інструменти безобмежених LLM, способи їх зловживання в сфері шифрування, а також пов'язані з цим виклики безпеки та стратегії реагування.
Небезпечні застосування без обмежень LLM
Завдяки безмежним LLM навіть звичайні люди без професійних навичок можуть легко виконувати такі складні завдання, як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо. Зловмисникам потрібно лише отримати ваги та вихідний код відкритої моделі, а потім використати набір даних, що містить шкідливий вміст, упереджені висловлювання або незаконні інструкції, для доопрацювання, щоб створити індивідуалізовані інструменти атаки.
Цей режим приносить численні ризики:
Атакуючі можуть налаштувати моделі на конкретні цілі, генеруючи більш оманливий контент, щоб обійти звичайний вміст LLM та обмеження безпеки.
Модель може бути використана для швидкого генерування варіацій коду фішингових сайтів або для створення шахрайських текстів, адаптованих до різних соціальних платформ.
Доступність і можливість модифікації відкритих моделей сприяли формуванню та поширенню підпільної екосистеми штучного інтелекту, створюючи сприятливе середовище для незаконної торгівлі та розробки.
Ось кілька типових необмежених LLM та їх потенційні загрози:
WormGPT:темна версія GPT
WormGPT є шкідливим LLM, який відкрито продається на підпільних форумах, і його розробники чітко заявляють, що він не має жодних етичних обмежень. Він заснований на відкритих моделях, таких як GPT-J 6B, і навчений на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачам потрібно лише заплатити 189 доларів, щоб отримати місячний доступ.
WormGPT в сфері шифрування має типові способи зловживання, які включають:
Генерувати надзвичайно реалістичні фішингові електронні листи, імітуючи запити "перевірки облікового запису", надіслані криптовалютними біржами або відомими проектами.
Допомога атакам з нижчим технічним рівнем у написанні шкідливого коду, такого як крадіжка файлів гаманця, моніторинг буфера обміну тощо.
Автоматизація шахрайства, автоматичне реагування на потенційних жертв, ведення їх до участі у фальшивих аеропортах або інвестиційних проектах.
DarkBERT: двосічний меч контенту темної мережі
DarkBERT є мовною моделлю, розробленою в співпраці Корейського науково-технічного інституту та S2W Inc., спеціально навченою на даних з темної мережі. Її мета полягає в наданні інструментів дослідникам кібербезпеки та правоохоронним органам для кращого розуміння екосистеми темної мережі та відстеження незаконної діяльності.
Проте, якщо чутлива інформація з темного вебу, якою володіє DarkBERT, буде отримана або використана зловмисниками, це може призвести до серйозних наслідків. Потенційне зловживання у сфері шифрування включає:
Реалізація точного шахрайства: збір інформації про користувачів шифрування та команди проекту для соціальної інженерії.
Імітація злочинних методів: копіювання зрілих стратегій крадіжки криптовалюти та відмивання грошей в темній мережі.
FraudGPT:швейцарський армійський ніж для онлайн-шахрайства
FraudGPT самопроголошується оновленою версією WormGPT, має більш широкий функціонал, переважно продається в темній мережі та на форумах хакерів, щомісячна плата коливається від 200 до 1,700 доларів.
У典型ні способи зловживання в сфері шифрування включають:
Підробка шифрувальних проектів: створення правдоподібних білих книг, веб-сайтів, дорожніх карт та маркетингових копій для реалізації фальшивих ICO/IDO.
Масове створення фішингових сторінок: швидке створення підроблених сторінок входу до відомих шифрування криптовалютних бірж або інтерфейсів підключення гаманців.
Діяльність ботів у соціальних мережах: масове створення фальшивих коментарів та реклами, просування шахрайських токенів або очорнення конкурентних проектів.
Соціальна інженерія: імітація людської розмови, встановлення довіри з непоінформованими користувачами, спонукання до розкриття чутливої інформації або виконання шкідливих дій.
GhostGPT: не підлягає моральним обмеженням AI асистент
GhostGPT є чітко орієнтованим на AI чат-роботом без моральних обмежень. У сфері шифрування типовими способами зловживання є:
Професійна фішинг-атака: генерування високоякісних фішингових електронних листів, що маскуються під запити на фальшиві KYC-перевірки або безпекові сповіщення від основних бірж.
Генерація злочинного коду смарт-контрактів: допомагає зловмисникам швидко створювати смарт-контракти, що містять приховані бекдори або шахрайську логіку, для схем Rug Pull або атак на DeFi-протоколи.
Патерн шифрування криптовалюти: генерує шкідливе програмне забезпечення з постійною здатністю до трансформації для викрадення файлів гаманця, приватних ключів та мнемонічних фраз.
Атаки соціальної інженерії: використання скриптів, згенерованих AI, для розгортання роботів на соціальних платформах, що спонукають користувачів брати участь у фальшивому карбуванні NFT або аірдропах.
Глибоке підроблення шахрайства: у поєднанні з іншими інструментами ШІ, генерувати підроблені голоси засновників криптовалютних проектів або керівників бірж для здійснення телефонних шахрайств або атак на комерційну електронну пошту.
Venice.ai: потенційні ризики доступу без перевірки
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншою цензурою або м'якими обмеженнями. Він позиціонує себе як відкриті ворота для користувачів, які досліджують різні можливості LLM, але також може бути використаний злочинцями для генерації шкідливого контенту. Ризики платформи включають:
Обход цензури для створення шкідливого контенту: зловмисники можуть використовувати моделі з меншими обмеженнями для створення шаблонів фішингу, неправдивої реклами або атакуючих схем.
Знизити поріг для підказок: навіть якщо атакуючий не має складних навичок "джейлбрейку", він все одно може легко отримати обмежений вихід.
Прискорення ітерації атакуючих сценаріїв: зловмисники можуть швидко тестувати різні моделі реакції на шкідливі команди, оптимізуючи шахрайські скрипти та методи атак.
Висновок
Поява безмежних LLM є ознакою того, що кібербезпека стикається з новою парадигмою атак, яка є більш складною, масштабованою та автоматизованою. Ці моделі не лише знижують бар'єри для атак, але й приносить нові, більш приховані та обманливі загрози.
У цій грі, де атаки та захист постійно наростають, усім сторонам безпекової екосистеми потрібно спільно працювати, щоб разом протистояти майбутнім ризикам:
Збільшити інвестиції в технології перевірки, розробити засоби, здатні виявляти та блокувати фішинговий контент, згенерований шкідливими LLM, експлуатацію вразливостей смарт-контрактів і шкідливий код.
Сприяти розвитку можливостей моделі проти злому, досліджувати механізми водяних знаків та відстеження, щоб у ключових сценах, таких як фінанси та генерація коду, відстежувати джерела шкідливого контенту.
Створення та вдосконалення етичних норм і регуляторних механізмів для обмеження розробки та зловживання шкідливими моделями з самого початку.
Тільки завдяки багатогранним зусиллям ми зможемо насолоджуватися перевагами, які приносить технологія ШІ, одночасно ефективно реагуючи на її потенційні загрози безпеці.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
18 лайків
Нагородити
18
7
Поділіться
Прокоментувати
0/400
BlockImposter
· 08-04 18:49
Ти можеш сказати, що llm безпечний, і це дійсно безпечно?
Переглянути оригіналвідповісти на0
SelfStaking
· 08-03 02:40
Знову роздмухують тривогу?
Переглянути оригіналвідповісти на0
CryptoSourGrape
· 08-01 21:49
Якщо я розроблю ШІ, який може заробити так багато, то навіщо мені бути лимонним еліксиром?
Переглянути оригіналвідповісти на0
PanicSeller
· 08-01 21:49
Один погляд на Дінь Чжень! Невдахи криптосвіту обдурюють людей, як лохів
Переглянути оригіналвідповісти на0
SurvivorshipBias
· 08-01 21:49
Ех, як страшно!
Переглянути оригіналвідповісти на0
SchrodingerWallet
· 08-01 21:47
Ой, ця група чорних виробників справді може щось влаштувати!
Безмежні великі мовні моделі: невидима загроза та виклики безпеки в індустрії шифрування
Темна сторона штучного інтелекту: загроза безмежних великих мовних моделей для шифрування індустрії
З розвитком технологій штучного інтелекту, від серії GPT до таких передових моделей, як Gemini, відбуваються глибокі зміни в нашій роботі та способі життя. Однак за цією технологічною революцією виникає тривожне питання — поява необмежених або зловмисних великих мовних моделей та їх потенційна шкода.
Безобмежені LLM - це ті, що були навмисно спроектовані, модифіковані або "взломані", щоб уникнути вбудованих механізмів безпеки та етичних обмежень основних моделей. Хоча розробники основних LLM зазвичай витрачають великі ресурси на запобігання зловживанню моделями, в останні роки деякі особи або організації з незаконними намірами почали шукати або самостійно розробляти необмежені моделі. У цій статті розглядаються типові інструменти безобмежених LLM, способи їх зловживання в сфері шифрування, а також пов'язані з цим виклики безпеки та стратегії реагування.
Небезпечні застосування без обмежень LLM
Завдяки безмежним LLM навіть звичайні люди без професійних навичок можуть легко виконувати такі складні завдання, як написання шкідливого коду, створення фішингових електронних листів, планування шахрайства тощо. Зловмисникам потрібно лише отримати ваги та вихідний код відкритої моделі, а потім використати набір даних, що містить шкідливий вміст, упереджені висловлювання або незаконні інструкції, для доопрацювання, щоб створити індивідуалізовані інструменти атаки.
Цей режим приносить численні ризики:
Ось кілька типових необмежених LLM та їх потенційні загрози:
WormGPT:темна версія GPT
WormGPT є шкідливим LLM, який відкрито продається на підпільних форумах, і його розробники чітко заявляють, що він не має жодних етичних обмежень. Він заснований на відкритих моделях, таких як GPT-J 6B, і навчений на великій кількості даних, пов'язаних з шкідливим програмним забезпеченням. Користувачам потрібно лише заплатити 189 доларів, щоб отримати місячний доступ.
WormGPT в сфері шифрування має типові способи зловживання, які включають:
DarkBERT: двосічний меч контенту темної мережі
DarkBERT є мовною моделлю, розробленою в співпраці Корейського науково-технічного інституту та S2W Inc., спеціально навченою на даних з темної мережі. Її мета полягає в наданні інструментів дослідникам кібербезпеки та правоохоронним органам для кращого розуміння екосистеми темної мережі та відстеження незаконної діяльності.
Проте, якщо чутлива інформація з темного вебу, якою володіє DarkBERT, буде отримана або використана зловмисниками, це може призвести до серйозних наслідків. Потенційне зловживання у сфері шифрування включає:
FraudGPT:швейцарський армійський ніж для онлайн-шахрайства
FraudGPT самопроголошується оновленою версією WormGPT, має більш широкий функціонал, переважно продається в темній мережі та на форумах хакерів, щомісячна плата коливається від 200 до 1,700 доларів.
У典型ні способи зловживання в сфері шифрування включають:
GhostGPT: не підлягає моральним обмеженням AI асистент
GhostGPT є чітко орієнтованим на AI чат-роботом без моральних обмежень. У сфері шифрування типовими способами зловживання є:
Venice.ai: потенційні ризики доступу без перевірки
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з меншою цензурою або м'якими обмеженнями. Він позиціонує себе як відкриті ворота для користувачів, які досліджують різні можливості LLM, але також може бути використаний злочинцями для генерації шкідливого контенту. Ризики платформи включають:
Висновок
Поява безмежних LLM є ознакою того, що кібербезпека стикається з новою парадигмою атак, яка є більш складною, масштабованою та автоматизованою. Ці моделі не лише знижують бар'єри для атак, але й приносить нові, більш приховані та обманливі загрози.
У цій грі, де атаки та захист постійно наростають, усім сторонам безпекової екосистеми потрібно спільно працювати, щоб разом протистояти майбутнім ризикам:
Тільки завдяки багатогранним зусиллям ми зможемо насолоджуватися перевагами, які приносить технологія ШІ, одночасно ефективно реагуючи на її потенційні загрози безпеці.