FBI’dan açıklama: yapay zeka hackerlerin işini kolaylaştırıyor;

FBI’dan açıklama: yapay zeka hackerlerin işini kolaylaştırıyor

ABD'nin iç istihbarat ve güvenlik gücü olan FBI, hackerların yapay zeka sayesinde kötü amaçlı kodlamaları daha kolay yaptığı belirtildi. Yetkililer bu eğilimlerin zamanla artacağını öngörüyor....

FBI ENDİŞELERİNİ DİLE GETİRDİ

FBI, bilgisayar korsanlarının ChatGPT gibi üretken yapay zeka araçlarını kullanarak hızla kötü amaçlı kod oluşturdukları ve geçmişte çok daha fazla çaba gerektiren siber suçları daha kolay işledikleri konusunda uyarıda bulundu.

FBI, gazetecilerle yaptığı bir görüşmede endişelerini ayrıntılı olarak dile getirdi ve yapay zekalı sohbet robotlarının, dolandırıcıların ve sahtekarların tekniklerini mükemmelleştirmelerinden, teröristlerin daha zarar verici kimyasal saldırıları nasıl gerçekleştirecekleri konusunda bu araçlara danışmalarına kadar her türlü yasadışı faaliyeti körüklediğini açıkladı.

"YAPAY ZEKA MODELLERİ GELİŞTİKÇE BU EĞİLİMLER ARTACAK"

Üst düzey bir FBI yetkilisine göre "Yapay zeka modellerinin benimsenmesi ve demokratikleşmesi devam ettikçe, bu eğilimlerin zamanla artacağını düşünüyoruz." Yetkililer, kötü niyetli kişilerin, sevdiklerini veya yaşlıları dolandırmak amacıyla güvenilir kişilerin kimliğine bürünmek için yapay zeka ses jeneratörlerini kullanmak da dahil olmak üzere, normal suç faaliyetlerini daha iyi yapabilmek için yapay zekayı kullandıklarını belirtti.

Öte yandan internet kullanıcılarını hedef almak için özel olarak tasarlanmış hacker yapımı yapay zeka yazarlarının sayısında da önemli bir artış olduğu kaydedildi.

GPT-4 İLE İKNA EDİCİ DEEPFAKE'LER OLUŞTURULABİLİYOR

GPT-4 gibi multimodal modellerin piyasaya sürülmesiyle, bilgisayar korsanları kurbanları hassas bilgiler, ödeme ve daha fazlasını vermeye zorlamak için ikna edici deepfake'ler oluşturabilmektedir.

Bu yılın başlarında Meta, yeni konuşma üretme aracı Voicebox'ın ciddi zararlar verebileceği endişesiyle gerekli önlemler alınmadan kullanıma sunulmaması gerektiğini duyurmuştu. 

Kaynak: NTV

İlgili Konular :
İlgili Haberler

HABERE YORUM KAT

UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
0 Yorum