250 belge yetiyor! Uzmanlar uyardı: ChatGPT ve Gemini gibi LLM’ler için büyük tehlike
Yapay zekanın yükselişi güvenlik kaygılarını da artırıyor. Günümüzde sorulara cevap veren, metin yazan ve milyonlarca kullanıcıyı analiz eden büyük dil modelleri sadece “akıllı” değil aynı zamanda “hedeflenebilir” hale geldi. Araştırmacılar, OpenAI'nin ChatGPT'si ve Google'ın Gemini'si gibi yapay zeka modellerinin, eğitim verilerine yalnızca küçük bir bozuk veri örneği eklenmesiyle "zehirlenebileceği" konusunda uyardılar.
250'YE YAKLAŞIK BELGE YETERLİ
Birleşik Krallık'taki Yapay Zeka Güvenlik Enstitüsü, Alan Turing Enstitüsü ve yapay zeka şirketi Anthropic tarafından ortaklaşa yürütülen çalışma, yalnızca 250 belgenin, büyük dil modellerinin (LLM'ler) anlamsız metin üretmesine neden olan bir "arka kapı" güvenlik açığı yaratabileceğini buldu.
Bu güvenlik açığı ö...