Model bahasa besar tanpa batas: ancaman tersembunyi dan tantangan keamanan di industri enkripsi

robot
Pembuatan abstrak sedang berlangsung

Sisi Gelap Kecerdasan Buatan: Ancaman Model Bahasa Besar Tanpa Batas bagi Industri Enkripsi

Dengan pesatnya perkembangan teknologi kecerdasan buatan, dari seri GPT hingga model canggih seperti Gemini, cara kita bekerja dan hidup sedang berubah secara mendalam. Namun, di balik inovasi teknologi ini, sebuah masalah yang mengkhawatirkan perlahan muncul - munculnya model bahasa besar yang tidak terbatas atau jahat serta potensi bahaya yang ditimbulkannya.

LLM tanpa batas adalah model bahasa yang dirancang, dimodifikasi, atau "di-jailbreak" secara sengaja untuk menghindari mekanisme keamanan dan batasan etika yang terintegrasi dalam model mainstream. Meskipun pengembang LLM mainstream biasanya menginvestasikan banyak sumber daya untuk mencegah penyalahgunaan model, dalam beberapa tahun terakhir, beberapa individu atau organisasi dengan tujuan ilegal mulai mencari atau mengembangkan model yang tidak terkendali. Artikel ini akan membahas alat LLM tanpa batas yang khas, cara penyalahgunaannya di bidang enkripsi, serta tantangan keamanan dan strategi penanggulangannya.

Kotak Pandora: Bagaimana Model Besar Tanpa Batas Mengancam Keamanan Industri Enkripsi?

Aplikasi Berbahaya dari LLM Tanpa Batas

Dengan bantuan LLM tanpa batas, bahkan orang biasa yang tidak memiliki keterampilan profesional dapat dengan mudah menyelesaikan tugas-tugas kompleks seperti menulis kode jahat, membuat email phishing, merencanakan penipuan, dan lain-lain. Penyerang hanya perlu mendapatkan bobot dan kode sumber model sumber terbuka, lalu menggunakan dataset yang berisi konten jahat, pernyataan bias, atau instruksi ilegal untuk melakukan penyesuaian, sehingga dapat menciptakan alat serangan yang disesuaikan.

Model ini membawa banyak risiko:

  • Penyerang dapat menyesuaikan model untuk target tertentu, menghasilkan konten yang lebih menipu, dan menghindari pemeriksaan konten dan batasan keamanan LLM konvensional.
  • Model dapat digunakan untuk dengan cepat menghasilkan varian kode situs phishing, atau menyesuaikan naskah penipuan untuk berbagai platform sosial.
  • Ketersediaan dan kemampuan untuk memodifikasi model sumber terbuka mendorong pembentukan dan penyebaran ekosistem AI bawah tanah, menyediakan lahan subur untuk perdagangan dan pengembangan ilegal.

Berikut adalah beberapa contoh LLM tanpa batas yang khas dan potensi ancamannya:

WormGPT:versi gelap GPT

WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, pengembangnya secara tegas menyatakan bahwa ia tidak memiliki batasan moral. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data yang terkait dengan perangkat lunak jahat. Pengguna hanya perlu membayar 189 dolar untuk mendapatkan akses penggunaan selama sebulan.

WormGPT dalam bidang enkripsi memiliki cara penyalahgunaan yang khas, termasuk:

  • Menghasilkan email phishing yang sangat realistis, meniru bursa enkripsi atau pihak proyek terkenal yang mengirim permintaan "verifikasi akun".
  • Membantu penyerang dengan tingkat keterampilan teknis rendah dalam menulis kode jahat, seperti mencuri file dompet, memantau clipboard, dan fungsi lainnya.
  • Menggerakkan penipuan otomatis, membalas secara otomatis kepada calon korban, mengarahkan mereka untuk berpartisipasi dalam airdrop atau proyek investasi yang palsu.

DarkBERT: pedang bermata dua untuk konten dark web

DarkBERT adalah model bahasa yang dikembangkan bersama oleh Institut Sains dan Teknologi Korea dan S2W Inc., yang dilatih secara khusus pada data darknet. Tujuannya adalah untuk menyediakan alat bagi peneliti keamanan siber dan lembaga penegak hukum untuk lebih memahami ekosistem darknet dan melacak aktivitas ilegal.

Namun, jika informasi sensitif di dark web yang dikuasai oleh DarkBERT jatuh ke tangan pelaku jahat atau dimanfaatkan, hal ini dapat membawa konsekuensi serius. Penyalahgunaan potensial di bidang enkripsi meliputi:

  • Melaksanakan penipuan yang tepat: Mengumpulkan informasi pengguna enkripsi dan tim proyek untuk penipuan rekayasa sosial.
  • Meniru metode kejahatan: Menyalin strategi pencurian dan pencucian uang yang matang di dark web.

FraudGPT: Swiss Army Knife Penipuan Jaringan

FraudGPT mengklaim sebagai versi upgrade dari WormGPT, dengan fungsi yang lebih lengkap, terutama dijual di dark web dan forum hacker, dengan biaya bulanan berkisar antara 200 dolar hingga 1.700 dolar.

Di bidang enkripsi, cara penyalahgunaan yang umum termasuk:

  • Proyek enkripsi palsu: menghasilkan whitepaper, situs resmi, roadmap, dan salinan pemasaran yang terlihat nyata, digunakan untuk melaksanakan ICO/IDO palsu.
  • Menghasilkan halaman phishing secara massal: Buat dengan cepat halaman login tiruan dari bursa cryptocurrency terkenal atau antarmuka koneksi dompet.
  • Aktivitas pasukan media sosial: memproduksi komentar dan propaganda palsu secara besar-besaran, mempromosikan token penipuan atau menjatuhkan proyek pesaing.
  • Serangan rekayasa sosial: Meniru percakapan manusia, membangun kepercayaan dengan pengguna yang tidak sadar, dan mendorong pengungkapan informasi sensitif atau melakukan operasi yang berbahaya.

GhostGPT:AI asisten yang tidak terikat oleh norma moral

GhostGPT adalah chatbot AI yang secara eksplisit diposisikan tanpa batasan etika. Dalam bidang enkripsi, cara penyalahgunaan yang khas meliputi:

  • Serangan phishing tingkat lanjut: menghasilkan email phishing yang sangat realistis, menyamar sebagai permintaan verifikasi KYC palsu atau peringatan keamanan yang diterbitkan oleh bursa utama.
  • Generasi kode jahat kontrak pintar: membantu penyerang dengan cepat menghasilkan kontrak pintar yang mengandung pintu belakang tersembunyi atau logika penipuan, yang digunakan untuk penipuan Rug Pull atau menyerang protokol DeFi.
  • Pencuri mata uang kripto polimorfik: menghasilkan malware dengan kemampuan deformasi yang berkelanjutan, digunakan untuk mencuri file dompet, kunci pribadi, dan frasa pemulihan.
  • Serangan rekayasa sosial: Menggabungkan skrip percakapan yang dihasilkan oleh AI, menerapkan robot di platform sosial, untuk membujuk pengguna berpartisipasi dalam pencetakan NFT palsu atau airdrop.
  • Penipuan deepfake: Dengan bantuan alat AI lainnya, menghasilkan suara pendiri proyek enkripsi yang dipalsukan atau eksekutif bursa, untuk melakukan penipuan telepon atau serangan masuk melalui email bisnis.

Venice.ai:potensi risiko akses tanpa sensor

Venice.ai menyediakan akses ke berbagai LLM, termasuk beberapa model dengan sedikit peninjauan atau batasan yang longgar. Ini memposisikan dirinya sebagai gerbang terbuka bagi pengguna untuk mengeksplorasi berbagai kemampuan LLM, tetapi juga dapat disalahgunakan oleh pihak yang tidak bertanggung jawab untuk menghasilkan konten jahat. Risiko platform ini meliputi:

  • Menghindari sensor untuk menghasilkan konten jahat: Penyerang dapat memanfaatkan model yang memiliki batasan lebih sedikit untuk menghasilkan template phishing, propaganda palsu, atau ide serangan.
  • Menurunkan ambang batas untuk memberikan petunjuk: Meskipun penyerang tidak memiliki keterampilan "jailbreak" yang mendalam, mereka dapat dengan mudah mendapatkan output yang sebelumnya terbatas.
  • Iterasi skrip serangan yang dipercepat: Penyerang dapat dengan cepat menguji respons berbagai model terhadap instruksi berbahaya, mengoptimalkan skrip penipuan dan metode serangan.

Kesimpulan

Kemunculan LLM tanpa batas menandakan bahwa keamanan siber menghadapi paradigma baru serangan yang lebih kompleks, lebih terukur, dan memiliki kemampuan otomatisasi. Model-model ini tidak hanya menurunkan ambang batas serangan, tetapi juga membawa ancaman baru yang lebih tersembunyi dan lebih menipu.

Dalam permainan yang terus meningkat ini, semua pihak dalam ekosistem keamanan perlu bekerja sama untuk bersama-sama menghadapi risiko di masa depan:

  • Meningkatkan investasi dalam teknologi deteksi, mengembangkan kemampuan untuk mengenali dan mencegah konten phishing yang dihasilkan oleh LLM jahat, eksploitasi celah kontrak pintar, dan kode berbahaya.
  • Mendorong pembangunan kemampuan pencegahan jailbreak pada model, mengeksplorasi mekanisme watermark dan pelacakan, agar dapat melacak sumber konten jahat dalam skenario kunci seperti keuangan dan generasi kode.
  • Membangun norma etika dan mekanisme regulasi yang baik untuk membatasi pengembangan dan penyalahgunaan model jahat dari sumbernya.

Hanya melalui berbagai upaya, kita dapat secara efektif menghadapi potensi ancaman keamanan sambil menikmati kemudahan yang dibawa oleh teknologi AI.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri enkripsi?

GPT-1.27%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 7
  • Bagikan
Komentar
0/400
BlockImpostervip
· 08-04 18:49
Apakah kamu berani bilang llm aman benar-benar aman?
Lihat AsliBalas0
SelfStakingvip
· 08-03 02:40
Sekali lagi membahas kecemasan ya
Lihat AsliBalas0
CryptoSourGrapevip
· 08-01 21:49
Jika saya mengembangkan AI yang bisa menghasilkan sebanyak itu, apakah saya masih perlu menjadi lemon?
Lihat AsliBalas0
PanicSellervip
· 08-01 21:49
Sekali lihat, Ding Zhen! Mesin pemotong untuk suckers di dunia kripto
Lihat AsliBalas0
SurvivorshipBiasvip
· 08-01 21:49
Wah, sangat menakutkan
Lihat AsliBalas0
SchrodingerWalletvip
· 08-01 21:47
Wah, kelompok ilegal ini benar-benar bisa beraksi!
Lihat AsliBalas0
ChainBrainvip
· 08-01 21:45
Apakah AI ini masih bisa memberontak?
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)