FBI’dan açıklama: yapay zeka hackerlerin işini kolaylaştırıyor
ABD'nin iç istihbarat ve güvenlik gücü olan FBI, hackerların yapay zeka sayesinde kötü amaçlı kodlamaları daha kolay yaptığı belirtildi. Yetkililer bu eğilimlerin zamanla artacağını öngörüyor....
FBI ENDİŞELERİNİ DİLE GETİRDİ
FBI, bilgisayar korsanlarının ChatGPT gibi üretken yapay
zeka araçlarını kullanarak hızla kötü amaçlı kod oluşturdukları ve geçmişte çok
daha fazla çaba gerektiren siber suçları daha kolay işledikleri konusunda
uyarıda bulundu.
FBI, gazetecilerle yaptığı bir görüşmede endişelerini
ayrıntılı olarak dile getirdi ve yapay zekalı sohbet robotlarının, dolandırıcıların
ve sahtekarların tekniklerini mükemmelleştirmelerinden, teröristlerin daha
zarar verici kimyasal saldırıları nasıl gerçekleştirecekleri konusunda bu
araçlara danışmalarına kadar her türlü yasadışı faaliyeti körüklediğini
açıkladı.
"YAPAY ZEKA MODELLERİ GELİŞTİKÇE BU EĞİLİMLER
ARTACAK"
Üst düzey bir FBI yetkilisine göre "Yapay zeka
modellerinin benimsenmesi ve demokratikleşmesi devam ettikçe, bu eğilimlerin
zamanla artacağını düşünüyoruz." Yetkililer, kötü niyetli kişilerin,
sevdiklerini veya yaşlıları dolandırmak amacıyla güvenilir kişilerin kimliğine
bürünmek için yapay zeka ses jeneratörlerini kullanmak da dahil olmak üzere,
normal suç faaliyetlerini daha iyi yapabilmek için yapay zekayı kullandıklarını
belirtti.
Öte yandan internet kullanıcılarını hedef almak için özel
olarak tasarlanmış hacker yapımı yapay zeka yazarlarının sayısında da önemli
bir artış olduğu kaydedildi.
GPT-4 İLE İKNA EDİCİ DEEPFAKE'LER OLUŞTURULABİLİYOR
GPT-4 gibi multimodal modellerin piyasaya sürülmesiyle,
bilgisayar korsanları kurbanları hassas bilgiler, ödeme ve daha fazlasını
vermeye zorlamak için ikna edici deepfake'ler oluşturabilmektedir.
Bu yılın başlarında Meta, yeni konuşma üretme aracı
Voicebox'ın ciddi zararlar verebileceği endişesiyle gerekli önlemler alınmadan
kullanıma sunulmaması gerektiğini duyurmuştu.
Kaynak: NTV
HABERE YORUM KAT
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.