SP NEWS GLOBAL INDONESIA

Berita Seputar Global Indonesia

Tekno

Keracunan Data, Modus Baru Menyasar Pelatihan AI

Keracunan data atau “keracunan data” adalah fenomena baru yang baru -baru ini terjadi dalam pengembangan kecerdasan imitasi (kecerdasan buatan).

Keracunan data adalah striker cyber yang menargetkan kualitas dan integritas data pelatihan AI dan data pembelajaran mesin (ML). Anda dapat meracuni diri sendiri dengan memanipulasi atau merusak makna data pelatihan AI.

Jika serangan seperti itu terjadi pada beberapa model AI (seperti pengembangan diri), pola ini dapat membahayakan keamanan penggunanya.

Meskipun berbagai penelitian dilakukan sebelumnya dekade ini, munculnya keracunan data pada saat itu adalah topik utama dan jumlah AI generasi yang dikembangkan dalam jumlah besar.

Baca juga: Indonesia memasuki periode WiFi super -cepat untuk mendukung keracunan ekonomi digital

Pada akhir tahun lalu, Morgan Stanley menerbitkan laporan “AI dan Cyber ​​Security: New Periode” (9/11/2024).

Laporan tersebut menyatakan bahwa penjahat ruang cyber menggunakan AI untuk melakukan berbagai serangan kompleks, dari “keracunan data” hingga Deepfakea.

AI dengan cepat mengembangkan dan memengaruhi banyak aspek kehidupan, termasuk keamanan dunia maya.

AI memiliki potensi besar untuk meningkatkan keamanan. Namun, peretas juga mulai menggunakan AI untuk tujuan kriminal. AI digunakan untuk otomatisasi serangan yang lebih rumit dan efisien.

Ketika AI berkembang, negara -negara harus merumuskan peraturan, dan individu dan organisasi harus meninjau dan memperkuat perlindungan internal mereka terhadap keamanan cyber.

CrowdStrike mengurangi laporan “Keracunan Data: Kreasi AI” (Bart Lenaerts-Bergmans, 03/20/2024).

Laporan tentang pemeriksaan data adalah jenis serangan dunia maya oleh penyerang yang merugikan data pelatihan AI.

Baca Juga: Deepseek, Dynamic Blocks Mutual Mutual dan Melindungi Informasi Pribadi

Menyerang data penargetan yang digunakan oleh model AI atau pembelajaran mesin (ML). Tujuannya adalah untuk mempengaruhi atau memanipulasi fungsi model.

Sampel dilakukan dalam banyak hal, menyuntikkan informasi palsu atau menyesatkan ke dalam satu set data pelatihan, mengubah atau menghapus bagian dari set data dari set data yang ada.

Tujuannya adalah untuk mempengaruhi keputusan model atau menciptakan hasil yang bias dari platform AI.

Laporan tersebut menyatakan bahwa pengujian terhadap serangan itu bisa sangat sulit. Ini khususnya dilakukan oleh orang -orang internal dengan akses dan pengetahuan tentang sistem keamanan organisasi.

LEAVE A RESPONSE

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *