O Lado Sombrio da Inteligência Artificial: A Ameaça dos Modelos de Linguagem de Grande Escala sem Restrições para a Indústria de encriptação
Com o rápido desenvolvimento da tecnologia de inteligência artificial, modelos avançados como a série GPT e o Gemini estão mudando profundamente nossas formas de trabalhar e viver. No entanto, por trás dessa revolução tecnológica, uma preocupação alarmante está surgindo — a emergência de modelos de linguagem de grande escala sem restrições ou maliciosos e seus potenciais perigos.
Modelos LLM sem restrições são aqueles que foram intencionalmente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as limitações éticas incorporadas nos modelos convencionais. Embora os desenvolvedores de LLM convencionais normalmente invistam muitos recursos para evitar que os modelos sejam mal utilizados, nos últimos anos, algumas pessoas ou organizações, por motivos ilícitos, começaram a buscar ou desenvolver modelos não restritos. Este artigo irá explorar ferramentas típicas de LLM sem restrições, suas formas de abuso no campo da encriptação, bem como os desafios de segurança relacionados e as estratégias de resposta.
Aplicações perigosas de LLM sem restrições
Com a ajuda de LLMs sem restrições, mesmo pessoas comuns sem habilidades profissionais podem facilmente realizar tarefas complexas, como escrever código malicioso, criar e-mails de phishing e planejar fraudes. Os atacantes só precisam obter os pesos e o código-fonte do modelo de código aberto, e então usar um conjunto de dados que contenha conteúdo malicioso, declarações tendenciosas ou instruções ilegais para fazer o ajuste fino, podendo assim criar ferramentas de ataque personalizadas.
Este modelo traz múltiplos riscos:
Os atacantes podem personalizar modelos para alvos específicos, gerando conteúdos mais enganosos que contornam a revisão de conteúdo e as restrições de segurança dos LLM convencionais.
O modelo pode ser utilizado para gerar rapidamente variantes de código de sites de phishing ou para personalizar textos de fraude para diferentes plataformas sociais.
A acessibilidade e a modificabilidade de modelos de código aberto fomentaram a formação e a disseminação de um ecossistema de IA subterrâneo, proporcionando um terreno fértil para transações e desenvolvimentos ilegais.
Abaixo estão alguns tipos típicos de LLM ilimitados e suas potenciais ameaças:
WormGPT: versão obscura do GPT
WormGPT é um LLM malicioso vendido abertamente em fóruns underground, cujo desenvolvedor afirma claramente que não possui nenhuma restrição ética. É baseado em modelos de código aberto como o GPT-J 6B e foi treinado em uma grande quantidade de dados relacionados a software malicioso. Os usuários só precisam pagar 189 dólares para obter um mês de acesso.
WormGPT emcriptação típica de abuso inclui:
Gerar e-mails de phishing altamente realistas, imitando solicitações de "verificação de conta" enviadas por bolsas de encriptação ou projetos conhecidos.
Ajudar atacantes com um nível técnico mais baixo a escrever código malicioso, como roubar arquivos de carteira, monitorar a área de transferência e outras funcionalidades.
Impulsionar fraudes automatizadas, respondendo automaticamente a potenciais vítimas, orientando-as a participar em airdrops ou projetos de investimento falsos.
DarkBERT: a espada de dois gumes do conteúdo da dark web
DarkBERT é um modelo de linguagem desenvolvido em colaboração pelo Instituto de Ciência e Tecnologia da Coreia e pela S2W Inc., especificamente pré-treinado em dados da dark web. O seu objetivo é fornecer ferramentas para investigadores de segurança cibernética e agências de aplicação da lei, a fim de melhor compreender a ecologia da dark web e rastrear atividades ilegais.
No entanto, se as informações sensíveis da dark web dominadas pelo DarkBERT forem obtidas ou utilizadas por agentes maliciosos, isso pode ter consequências graves. Os potenciais abusos no campo da encriptação incluem:
Implementar fraudes precisas: coletar informações de usuários de encriptação e equipes de projetos para fraudes de engenharia social.
Imitar métodos de crime: copiar estratégias maduras de roubo de moeda e lavagem de dinheiro na dark web.
FraudGPT: o canivete suíço da fraude online
FraudGPT afirma ser a versão melhorada do WormGPT, com funcionalidades mais abrangentes, vendendo principalmente na dark web e em fóruns de hackers, com mensalidades que variam de 200 a 1.700 dólares.
As formas típicas de abuso no campo da encriptação incluem:
Projetos de encriptação falsificados: gerar whitepapers, sites, roadmaps e textos de marketing que parecem reais, para implementar ICO/IDO fraudulentos.
Geração em massa de páginas de phishing: crie rapidamente páginas de login ou interfaces de conexão de carteira que imitam plataformas de negociação de encriptação conhecidas.
Atividades de bots em redes sociais: criação em massa de comentários e propaganda falsos, promovendo tokens fraudulentos ou difamando projetos concorrentes.
Ataques de engenharia social: imitar diálogos humanos, estabelecer confiança com usuários desinformados, induzindo-os a revelar informações sensíveis ou a executar operações prejudiciais.
GhostGPT: um assistente de IA sem restrições morais
GhostGPT é um chatbot de IA claramente posicionado como sem restrições éticas. Os típicos abusos no campo da encriptação incluem:
Ataque de phishing avançado: gera e-mails de phishing altamente realistas, fingindo ser pedidos falsos de verificação KYC ou alertas de segurança de bolsas de criptomoedas populares.
Geração de código malicioso para contratos inteligentes: ajuda os atacantes a gerar rapidamente contratos inteligentes que contêm portas dos fundos ocultas ou lógica fraudulenta, usados para esquemas de Rug Pull ou ataques a protocolos DeFi.
Polimórfico encriptação moeda roubador: gera malware com capacidade de transformação contínua para roubar arquivos de carteira, chaves privadas e palavras-chave.
Ataques de engenharia social: combinar scripts de fala gerados por IA, implantar robôs em plataformas sociais, e induzir os usuários a participar de mintagens ou airdrops falsos de NFT.
Fraude de deepfake: em conjunto com outras ferramentas de IA, gera-se a voz de fundadores de projetos de encriptação ou executivos de bolsas falsificadas, para realizar fraudes telefónicas ou ataques de invasão a e-mails comerciais.
Venice.ai: potenciais riscos de acesso sem censura
A Venice.ai oferece acesso a vários LLMs, incluindo alguns modelos com menos restrições ou com regras mais flexíveis. Ela se posiciona como um portal aberto para os usuários explorarem as diversas capacidades dos LLMs, mas também pode ser utilizada por indivíduos mal-intencionados para gerar conteúdo malicioso. Os riscos da plataforma incluem:
Contornar a censura para gerar conteúdo malicioso: atacantes podem utilizar modelos com menos restrições para gerar templates de phishing, desinformação ou táticas de ataque.
Reduzir a barreira de entrada para a engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de "jailbreak" de prompts, podem facilmente obter saídas que normalmente estariam restritas.
Iteração rápida de scripts de ataque: os atacantes podem testar rapidamente diferentes modelos de resposta a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.
Conclusão
A emergência de LLMs sem restrições marca um novo paradigma de ataques mais complexos, mais escaláveis e com uma capacidade de automação na segurança cibernética. Esses modelos não apenas diminuem a barreira de entrada para ataques, mas também introduzem novas ameaças mais ocultas e enganosas.
Nesta batalha de ataque e defesa em constante escalada, todas as partes do ecossistema de segurança precisam colaborar e enfrentar conjuntamente os riscos futuros:
Aumentar o investimento em tecnologias de detecção, desenvolvendo a capacidade de identificar e interceptar conteúdos de phishing gerados por LLM maliciosos, exploração de vulnerabilidades de contratos inteligentes e códigos maliciosos.
Promover a construção da capacidade de defesa contra jailbreak de modelos, explorar mecanismos de marca d'água e rastreamento, a fim de rastrear a origem de conteúdos maliciosos em cenários críticos como finanças e geração de código.
Estabelecer normas éticas e mecanismos de supervisão robustos para limitar desde a raiz o desenvolvimento e o abuso de modelos maliciosos.
Somente através de esforços multifacetados podemos, ao desfrutar das conveniências proporcionadas pela tecnologia de IA, enfrentar efetivamente suas potenciais ameaças à segurança.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
18 Curtidas
Recompensa
18
7
Compartilhar
Comentário
0/400
BlockImposter
· 08-04 18:49
Você se atreve a dizer que o llm é seguro, então realmente é seguro?
Ver originalResponder0
SelfStaking
· 08-03 02:40
Está novamente a especular sobre a ansiedade, não é?
Ver originalResponder0
CryptoSourGrape
· 08-01 21:49
Se eu desenvolver uma IA que possa ganhar tanto, ainda precisaria ser um limão?
Ver originalResponder0
PanicSeller
· 08-01 21:49
Uma olhada em Ding Zhen! Máquina de fazer as pessoas de parvas do mundo crypto
Ver originalResponder0
SurvivorshipBias
· 08-01 21:49
Uau, que assustador.
Ver originalResponder0
SchrodingerWallet
· 08-01 21:47
Eita, este grupo de atividades ilegais consegue mesmo fazer!
Modelos de linguagem de grande escala sem restrições: ameaças invisíveis e desafios de segurança na indústria de encriptação
O Lado Sombrio da Inteligência Artificial: A Ameaça dos Modelos de Linguagem de Grande Escala sem Restrições para a Indústria de encriptação
Com o rápido desenvolvimento da tecnologia de inteligência artificial, modelos avançados como a série GPT e o Gemini estão mudando profundamente nossas formas de trabalhar e viver. No entanto, por trás dessa revolução tecnológica, uma preocupação alarmante está surgindo — a emergência de modelos de linguagem de grande escala sem restrições ou maliciosos e seus potenciais perigos.
Modelos LLM sem restrições são aqueles que foram intencionalmente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as limitações éticas incorporadas nos modelos convencionais. Embora os desenvolvedores de LLM convencionais normalmente invistam muitos recursos para evitar que os modelos sejam mal utilizados, nos últimos anos, algumas pessoas ou organizações, por motivos ilícitos, começaram a buscar ou desenvolver modelos não restritos. Este artigo irá explorar ferramentas típicas de LLM sem restrições, suas formas de abuso no campo da encriptação, bem como os desafios de segurança relacionados e as estratégias de resposta.
Aplicações perigosas de LLM sem restrições
Com a ajuda de LLMs sem restrições, mesmo pessoas comuns sem habilidades profissionais podem facilmente realizar tarefas complexas, como escrever código malicioso, criar e-mails de phishing e planejar fraudes. Os atacantes só precisam obter os pesos e o código-fonte do modelo de código aberto, e então usar um conjunto de dados que contenha conteúdo malicioso, declarações tendenciosas ou instruções ilegais para fazer o ajuste fino, podendo assim criar ferramentas de ataque personalizadas.
Este modelo traz múltiplos riscos:
Abaixo estão alguns tipos típicos de LLM ilimitados e suas potenciais ameaças:
WormGPT: versão obscura do GPT
WormGPT é um LLM malicioso vendido abertamente em fóruns underground, cujo desenvolvedor afirma claramente que não possui nenhuma restrição ética. É baseado em modelos de código aberto como o GPT-J 6B e foi treinado em uma grande quantidade de dados relacionados a software malicioso. Os usuários só precisam pagar 189 dólares para obter um mês de acesso.
WormGPT emcriptação típica de abuso inclui:
DarkBERT: a espada de dois gumes do conteúdo da dark web
DarkBERT é um modelo de linguagem desenvolvido em colaboração pelo Instituto de Ciência e Tecnologia da Coreia e pela S2W Inc., especificamente pré-treinado em dados da dark web. O seu objetivo é fornecer ferramentas para investigadores de segurança cibernética e agências de aplicação da lei, a fim de melhor compreender a ecologia da dark web e rastrear atividades ilegais.
No entanto, se as informações sensíveis da dark web dominadas pelo DarkBERT forem obtidas ou utilizadas por agentes maliciosos, isso pode ter consequências graves. Os potenciais abusos no campo da encriptação incluem:
FraudGPT: o canivete suíço da fraude online
FraudGPT afirma ser a versão melhorada do WormGPT, com funcionalidades mais abrangentes, vendendo principalmente na dark web e em fóruns de hackers, com mensalidades que variam de 200 a 1.700 dólares.
As formas típicas de abuso no campo da encriptação incluem:
GhostGPT: um assistente de IA sem restrições morais
GhostGPT é um chatbot de IA claramente posicionado como sem restrições éticas. Os típicos abusos no campo da encriptação incluem:
Venice.ai: potenciais riscos de acesso sem censura
A Venice.ai oferece acesso a vários LLMs, incluindo alguns modelos com menos restrições ou com regras mais flexíveis. Ela se posiciona como um portal aberto para os usuários explorarem as diversas capacidades dos LLMs, mas também pode ser utilizada por indivíduos mal-intencionados para gerar conteúdo malicioso. Os riscos da plataforma incluem:
Conclusão
A emergência de LLMs sem restrições marca um novo paradigma de ataques mais complexos, mais escaláveis e com uma capacidade de automação na segurança cibernética. Esses modelos não apenas diminuem a barreira de entrada para ataques, mas também introduzem novas ameaças mais ocultas e enganosas.
Nesta batalha de ataque e defesa em constante escalada, todas as partes do ecossistema de segurança precisam colaborar e enfrentar conjuntamente os riscos futuros:
Somente através de esforços multifacetados podemos, ao desfrutar das conveniências proporcionadas pela tecnologia de IA, enfrentar efetivamente suas potenciais ameaças à segurança.