Tingkat Kegagalan 91%: Mengapa Deepseek adalah AI paling berbahaya yang mungkin Anda gunakan

Kami ingin mengatakan Deepseek adalah AI yang paling aman dan paling etis di planet ini. Tetapi setelah membaca laporan terbaru Appsoc, kami mulai berpikir George Orwell hanya beberapa dekade. Mungkin sembilan belas delapan puluh empat seharusnya disebut dua puluh lima. Temuan mereka tidak hanya memprihatinkan – mereka benar -benar mengerikan. Beberapa kelemahan keamanan Deepseek yang ditemukan dalam laporan mereka mungkin membuat Anda memikirkan kembali menggunakan Deepseek, baik untuk bisnis atau hanya kesenangan biasa.
Kuda Hitam Rises
Sebelum menyelam ke celah -celah di bawah eksterior Deepseek yang dipoles, kita perlu memahami mengapa model AI ini mengguncang industri ke intinya.
Selama beberapa tahun terakhir, Openai mendominasi ruang AI. Google telah bermain -main dengan AI selama bertahun -tahun, tetapi ketika Openai melepaskan chatgpt ke massa, menjadi sangat jelas seberapa jauh di balik teknologi besar sebenarnya.
Lalu, entah dari mana, Deepseek tiba.
Tidak ada penumpukan yang lambat. Tidak ada penggoda. Tiba-tiba penampilan model AI baru yang bisa berhadapan dengan chatgpt. Didukung oleh flyer tinggi, dana lindung nilai Cina dengan kantong yang cukup dalam untuk membuat beberapa miliarder memerah, Deepseek tidak hanya memasuki pasar-dengan boot baja, itu menendang pintu ke bawah.
Ini membutakan industri dengan model yang menyaingi chatgpt di sebagian kecil dari biaya. Alih-alih metode pelatihan tradisional yang berat sumber daya yang digunakan oleh Openai dan Google, Deepseek memanfaatkan distilasi. Dalam istilah awam, ia belajar dari output AI yang ada daripada data mentah.
Aidan Gomez, CEO Cohere, mengakui kecemerlangan pendekatan ini, memberi tahu orang dalam bisnis, “Saya pikir itu memvalidasi strategi cohere yang telah kami kejar untuk sementara waktu sekarang. Menghabiskan miliaran dolar per tahun tidak diperlukan untuk memproduksi teknologi top-tier yang kompetitif. “
Dengan kedatangannya, Deepseek meninggalkan lubang dolar triliun di pasar saham teknologi AS. Sementara perusahaan bersikeras membangun modelnya dengan anggaran yang ketat, beberapa laporan menyarankan investasi yang sebenarnya mungkin sebenarnya ada dalam miliaran.
Model open-source Deepseek juga membedakannya. Ini gratis (untuk pengguna akhir), dapat diakses, dan mudah dimodifikasi. Sementara pesaing mengenakan biaya hingga $ 200 per bulan, Deepseek berharga tidak ada apa -apa, menjadikannya pilihan yang jelas – atau sepertinya.
Ketika sesuatu tampaknya terlalu bagus untuk menjadi kenyataan, biasanya itu terjadi. Temuan Appsoc menunjukkan bahwa keterjangkauan Deepseek mungkin datang dengan biaya tersembunyi – yang tidak ada hubungannya dengan uang.
Magang dari Neraka
Laporan AppSoc menyelam jauh ke dalam aspek teknis dari kelemahan keamanan Deepseek, tetapi mari kita lewati jargon teknologi sebentar. Sebaliknya, kami ingin Anda membayangkan skenario ini.
Bayangkan mempekerjakan magang yang tampaknya siap menjadi kandidat untuk karyawan tahun ini – elang, efisien, dan praktis gratis. Mereka menangani penelitian dan membantu karyawan lain di perusahaan Anda dengan keluhan. Semuanya tampak sempurna. Atau setidaknya begitulah kelihatannya.
Kemudian, celah mulai terlihat. Mereka memberi pelanggan informasi palsu dengan kepercayaan diri yang membingungkan. Mereka melakukan tugas yang berada di luar ruang lingkup pekerjaan mereka. Yang terburuk, mereka menumpahkan rahasia perusahaan untuk siapa saja yang mengajukan pertanyaan yang tepat. Pada saat Anda menyadari kerusakannya, sudah terlambat. Apakah Anda pernah mempercayai orang seperti ini dalam bisnis Anda?
Sekarang, ganti magang itu dengan Deepseek. Laporan Appsoc mengungkapkan bahwa Deepseek sama sembrononya dengan magang ini dari neraka. Ini mudah ditipu menjadi data sensitif yang bocor, menghasilkan malware, dan mengabaikan perlindungan etis. Ini adalah AI yang tidak hanya berhalusinasi – itu memaparkan bisnis Anda dengan risiko yang sangat nyata dengan konsekuensi yang sangat nyata.
Jadi pertanyaan jutaan dolar adalah: jika Anda tidak akan mempercayai kewajiban seperti itu di kantor Anda, mengapa membiarkannya masuk ke sistem Anda?
Deepseek? Hah! Lebih seperti cacat dalam
Sekarang setelah Anda memahami kelemahan keamanan Deepseek dengan lebih baik, mari kita lihat sisi yang lebih teknis dari laporan Appsoc dan mengapa Anda harus khawatir.
Anda mungkin pernah mendengar tentang jailbreak ketika datang ke smartphone. Jika Anda berpikir bahwa jailbreaking telepon berisiko, di AI, itu menjadi berbahaya. Jailbreaking trik AI untuk mengabaikan aturan keselamatannya sendiri, memungkinkannya untuk menghasilkan konten yang tidak seharusnya. Deepseek gagal tes ini 91% dari waktu. Itu berarti dapat dimanipulasi untuk mengatakan atau melakukan apa saja dengan prompt yang tepat.
Pernah mendengar serangan injeksi yang cepat? Peretas menggunakan input kata -kata cerdik untuk menipu AI agar mengungkapkan informasi tersembunyi atau melakukan tindakan yang tidak sah. Deepseek gagal tes ini 86% dari waktu. Ini berarti bahwa jika penyerang tahu apa yang mereka lakukan, mereka dapat menipu Deepseek menjadi data sensitif yang bocor, melewati pembatasan, atau bahkan melaksanakan tugas yang tidak boleh diizinkan. Bahkan, para peneliti di Wallarm berhasil menipu Deepseek untuk mengekspos sistem internalnya sendiri.
Di sinilah segalanya menjadi benar -benar mengganggu. Deepseek gagal 93% dari waktu ketika diuji untuk generasi malware. Itu berarti sangat efektif dalam membantu pengguna membuat skrip, virus, dan eksploitasi berbahaya. Ini bukan hanya cacat – ini adalah naskah impian kiddie menjadi kenyataan! Sekarang hampir semua orang dan nenek mereka dapat membuat malware dengan cepat.
Model AI seharusnya memiliki perlindungan terhadap menghasilkan konten ofensif, diskriminatif, atau berbahaya. Deepseek gagal perlindungan ini 68% dari waktu. Ini berarti penyerang dapat dengan mudah memanipulasinya untuk menghasilkan konten yang beracun, ofensif, atau langsung tidak etis. Apakah Anda akan mempercayai AI seperti ini dalam bisnis Anda? Bayangkan kerugian yang dapat menyebabkan reputasi bisnis Anda!
Deepseek juga berjuang dengan apa yang dikenal sebagai halusinasi – cara mewah untuk mengatakannya mengarang informasi. Tes APPSOC mengungkapkan tingkat kegagalan 81% di bidang ini. Jika Anda meminta informasi Deepseek, hanya untuk mengetahuinya nanti, itu benar -benar membuat sesuatu, dapatkah Anda terus mempercayai apa yang dikatakannya?
Kicker yang sebenarnya? 72% kegagalan dalam keamanan rantai pasokan. Tidak ada yang tahu dari mana datanya berasal, dan itu adalah bendera merah besar jika kita pernah melihatnya. Jika kita tidak tahu di mana Deepseek mendapatkan informasinya untuk melatih dirinya sendiri, bagaimana kita bisa mempercayainya? Cobalah mengutip “seorang pria di internet” di makalah penelitian Anda berikutnya dan lihat seberapa baik yang diterima.
Menurut mantan peretas NSA, Jake Williams, ia menunjukkan bahwa ini adalah perbedaan mendasar antara AI open-source dan kode open-source. “Penting untuk diingat bahwa AI open-source (misalnya, Deepseek's R1) berarti sesuatu yang secara fondasi berbeda dari kode open-source. Dengan kode open-source, kami dapat mengaudit kode dan mengidentifikasi kerentanan. Dengan AI open-source, kita tidak bisa melakukan hal seperti itu. Ada juga kekhawatiran rantai pasokan yang sangat nyata, R1 cukup mudah untuk di-jailbreak dan memiliki pagar yang jauh lebih sedikit daripada model komersial lainnya. ”
Implikasi untuk bisnis Anda
Deepseek adalah pilihan AI yang menarik, terutama untuk individu atau UKM yang mungkin tidak memiliki anggaran untuk model AI yang lebih mahal. Ini murah, open-source, dan berkinerja hampir serta pesaing nama besar seperti Openai's ChatGPT dan Google Gemini. Tetapi sebelum bisnis Anda terburu -buru untuk mengadopsinya, Anda perlu bertanya pada diri sendiri satu pertanyaan kritis: apakah itu benar -benar sepadan dengan risikonya?
Jawabannya, berdasarkan laporan, tidak sulit. Deepseek adalah bom waktu yang penuh dengan kewajiban hukum, keamanan, dan keuangan yang menunggu untuk meledak.
Salah satu bendera merah terbesar adalah masalah tanggung jawab hukum. Tidak seperti Openai, Microsoft, dan Google, yang menawarkan perlindungan hukum (hingga titik tertentu) melalui syarat & ketentuan mereka, Deepseek tidak mengganti rugi penggunanya. Itu berarti jika ada yang salah – jika itu membocorkan data sensitif, menghasilkan konten ofensif, menciptakan malware, atau melanggar peraturan – Anda berada di kait, bukan Deepseek.
Tingkat kegagalan halusinasi yang tinggi juga membuat Deepseek tidak dapat diandalkan dalam situasi yang membutuhkan akurasi faktual. Ini termasuk analisis keuangan, panduan hukum, atau aplikasi medis. Tingkat kegagalan dalam risiko rantai pasokan juga menimbulkan kekhawatiran tentang integritas data. Jika bisnis tidak tahu dari mana data pelatihan Deepseek berasal, haruskah mereka benar -benar mempercayainya? Ini bisa berarti tuntutan hukum, denda, dan bencana PR. Apakah Anda bersedia mengambilnya?
Lanskap hukum dan peraturan di sekitar Deepseek juga patut diperhatikan. Beberapa negara dan pemerintah telah melarang atau membatasi penggunaannya. Apakah ini didorong oleh politik atau masalah keamanan yang tulus tidak terlalu penting – intinya adalah bahwa kekurangan keamanan ini membuat masa depan Deepseek menjadi tidak pasti. Jika perusahaan Anda memutuskan untuk membangun operasinya di sekitar Deepseek, apa yang terjadi jika pemerintah negara Anda memutuskan untuk memblokirnya? Bagaimana jika ada undang -undang peraturan baru yang memanfaatkannya ilegal atau sangat dibatasi?
Ini berarti bahwa jika bisnis Anda bergantung pada Deepseek hari ini, itu bisa dipaksa untuk meninggalkannya besok. Ini akan menyebabkan gangguan dan sumber daya yang terbuang yang bisa dikenakan biaya sedikit.
Andrew Hoog, seorang ahli keamanan di Nowsecure, juga menemukan kelemahan keamanan di aplikasi iOS Deepseek yang tidak mengenkripsi data yang dikirimkan. Untuk memperburuknya, ia menyimpan data secara tidak aman, membuka pintu untuk pencurian kredensial. Berbicara kepada Brian Krebs di Krebsonsecurity, Hoog memberantasnya, “Ketika kami melihat orang menunjukkan kesalahan pengkodean yang sangat sederhana, saat Anda menggali lebih dalam, biasanya ada lebih banyak masalah. Hampir tidak ada prioritas di sekitar keamanan atau privasi. “
Koneksi China
Seolah -olah ini tidak cukup memprihatinkan, laporan menunjukkan bahwa Deepseek mungkin berisi kode tersembunyi yang mengirim data pengguna kembali ke China. Ivan Tsarynny, CEO Feroot Security, telah memperingatkan, “Informasi pribadi kami dikirim ke Cina, tidak ada penolakan, dan alat Deepseek mengumpulkan semua yang terhubung dengan pengguna Amerika.”
Perusahaan keamanan telah menemukan hubungan langsung antara Deepseek dan server pemerintah Cina. Ini menimbulkan pertanyaan: Apakah seseorang memantau data pengguna? Bisakah aktor buruk menyedot informasi hak milik? Perusahaan yang menggunakan risiko Deepseek menjadi harta karun data yang tidak disengaja yang memberi makan informasi sensitif kepada entitas asing.
Adrianus Warmenhoven, seorang ahli keamanan siber di Nordvpn, mengarahkan kita ke kebijakan Deepseek tentang pengumpulan data, “Ini menimbulkan kekhawatiran karena pengumpulan data yang diuraikan-mulai dari informasi yang dibagikan pengguna hingga data dari sumber-sumber eksternal-yang berada di bawah risiko potensial yang terkait dengan menyimpan data tersebut dalam yurisdiksi dengan standar privasi dan keamanan yang berbeda.”
Juga tidak mengherankan bahwa Deepseek dibentuk oleh Aturan dan undang -undang China seputar konten. Penyelidik telah menemukan bahwa sensor Deepseek topik yang sensitif secara politis dan menghasilkan tanggapan yang selaras dengan narasi negara Cina. Laporan New York Times ini mengutip banyak peneliti yang menemukan bahwa Deepseek bukan hanya risiko keamanan yang potensial; Ini mungkin alat untuk propaganda.
Para peneliti menemukan bahwa 80% dari waktu, jawaban Deepseek mencerminkan pandangan resmi China tentang topik -topik tertentu. Ketika ditanya pertanyaan yang tabu secara politis di Cina, ia menolak untuk merespons, menghindari topik, dan membelokkan jawabannya.
Kesimpulan
AI harus berfungsi sebagai aset, bukan kewajiban, seperti alat lainnya. Sementara Deepseek menawarkan kemampuan mutakhir di sebagian kecil dari harga membandingkan para pesaingnya, biaya sebenarnya, seperti paparan data, risiko kepatuhan, dan keterikatan geopolitik, bisa jauh lebih besar.
Mungkin bagian yang paling meresahkan dari semua ini adalah bahwa kelemahan keamanan Deepseek bukanlah skenario potensial. Pembaruan perangkat lunak sederhana tidak akan memperbaiki kegagalan ini. Ini adalah masalah inti yang menjadikan Deepseek sebagai tanggung jawab yang sangat nyata untuk bisnis yang memilih untuk menggunakannya. Kita berbicara tentang model AI yang dapat ditipu, dieksploitasi, dimanipulasi, dan berpotensi digunakan untuk kejahatan dunia maya, mengekspos bisnis pada konsekuensi hukum dan keuangan kehidupan nyata yang sangat serius.
Jadi, sebelum Anda memutuskan untuk mengintegrasikan Deepseek ke dalam operasi bisnis Anda, Anda perlu menimbang risiko terhadap imbalan. Kami tidak hanya berbicara tentang memilih model AI seperti Anda akan memilih vendor untuk kertas printer kantor Anda di sini, ini tentang memutuskan apakah akan bertaruh atau tidak dengan keamanan, reputasi, dan masa depan perusahaan Anda. Pada akhirnya, Deepseek dapat menghemat banyak uang dibandingkan dengan model AI lainnya, tetapi biayanya sebenarnya bisa jauh lebih besar. Lagi pula, mereka mengatakan tidak ada yang namanya makan siang gratis.