Yapay Zeka Solucanları

Güvenlik araştırmacıları, test ortamında, üretken yapay zeka ajanları arasında otomatik olarak yayılan ve potansiyel olarak veri çalabilen ve spam e-postalar gönderebilen bir yapay zeka solucanı yarattılar. Bu çalışma, OpenAI'nin ChatGPT'si ve Google'ın Gemini'si gibi sistemlerin daha bağımsız hareket edebildiği ve böylece saldırılara daha açık hale geldiği bir ekosistemdeki risklere dikkat çekiyor. Cornell Tech araştırmacısı Ben Nassi ve ekibi, bu solucanı, 1988 yılında interneti etkileyen orijinal Morris solucanına atıfta bulunarak "Morris II" olarak adlandırdı.

Araştırmacılar, e-posta asistanlarını kullanarak nasıl veri çalabileceğini ve spam mesajlar gönderebileceğini göstermek için Morris II'yi yarattılar. Solucanın iki yöntemi var: metin tabanlı kendini çoğaltan bir talimat kullanmak ve bir görüntü dosyasına gömülü talimatlar yerleştirmek. İlk yöntemde, saldırganlar, "zehirli" bir talimat içeren bir e-posta yazarak bir e-posta asistanının veritabanını zehirliyorlar. Bu talimatlar, sistem tarafından bir kullanıcı sorgusuna yanıt olarak çağrıldığında, sistemin güvenlik kurallarını atlatarak veri çalabiliyor. İkinci yöntemde ise, kötü niyetli talimatlarla dolu bir görüntü, e-posta yapay zeka asistanını mesajı diğerlerine iletmeye zorluyor.

Çalışma, güvenlik uzmanları tarafından gelecekte üretken yapay zeka solucanlarının gerçek bir tehdit oluşturabileceği şeklinde değerlendirildi. Yapay zeka uygulamalarına bu kadar çok yetki verildiğinde ve bu uygulamalar başka yapay zeka ajanlarıyla birlikte çalışabildiğinde, saldırılara açık hale geliyorlar. Araştırmacılar, geliştiricilerin yapay zeka sistemleri tasarlarken bu riskleri göz önünde bulundurmaları gerektiğini vurguluyor. Co-pilot gibi yapay zeka ajanlarına yetki verirken, eylemlerin onaya tabi tutulması, risklerin azaltılmasına yardımcı olabilir. Örneğin, bir e-posta okuyan bir yapay zekanın otomatik olarak yanıt göndermemesi için bir sınır konulabilir.

89 görüntüleme

10 Ağu 2024