ChatGPT saçma sapan çıktılar veriyor: çıkarım sorunları

Draqon

Aktif Üye
Çıkarım çekirdeğindeki bir hatanın, ChatGPT'nin zaman zaman pek çok saçmalıkla yanıt vermesine neden olduğu söyleniyor. Çıkarım, sistemin sonuç çıkarmakla sorumlu olan kısmıdır. Buna göre chatbotun tamamen yanlış içerik elde ettiği açıkça görülüyor. OpenAI, ilk kullanıcı şikayetlerine hızlı bir şekilde yanıt verdi ve anlamsız yanıtlarla örnekleri kamuoyuna duyurdu.

Reklamcılık



Büyük dil modelleri, takip edilmesi muhtemel kelimeleri seçerek yanıtlar üretti. Bu “dil”, belirteçlerle temsil edilen sayılardan oluşuyor ve OpenAI'nin durum sayfasında şu anda düzeltilmiş olan hata hakkında yazıyor. “Bu durumda hata, modelin bu sayıları seçtiği adımda yatıyordu. Çeviri hatasına benzer şekilde, model biraz yanlış sayılar seçti ve bu da hiçbir anlam ifade etmeyen kelime dizilerine yol açtı.”

Büyük Dil Modellerine İlişkin Riskler


ChatGPT'nin diğer sohbet robotları gibi halüsinasyon görmesi şaşırtıcı değil. Gerçekler yanlış olsa bile genellikle cevaplar makul görünür. Yapay zeka uzmanı ve eleştirmeni Gary Marcus, blogundaki hata nedeniyle ChatGPT'nin nasıl anlaşılmaz metinler oluşturduğuna dair örnekler topladı. X'teki insanların ChatGPT'nin nasıl çıldırıp çıldırmadığını merak ettiğini okuyabilirsiniz. Ancak Marcus, hatanın etkilerinin büyük dil modellerinin ve yapay zeka sistemlerinin ne kadar istikrarsız olduğunu gösterdiğini de yazıyor. “Gerçek şu ki, bu sistemler hiçbir zaman istikrarlı olmadı. Hiç kimse güvenlik raylarını geliştirmeyi başaramadı.” Bu tür hataların bir uyandırma çağrısı olmasını umuyor. NYU fahri profesörü, diğer hususların yanı sıra, yapay zeka sağlayıcılarının telif haklarına saygı duyması gerektiğini savunuyor. Hatta insanları ChatGPT ve benzerlerini kullanmaktan kaçınmaya çağırıyor.

Marcus çoğunlukla yapay zekayla ilgili etik sorulara odaklansa da yapay zeka sistemleri için tehlikeli olabilecek çok sayıda saldırı senaryosu da mevcut. Riskler arasında, bir isteğin dil modelinin kullanıcılara zararlı olabilecek şekilde davranmasını gerektirdiği anlık enjeksiyonlar yer alır. Zehirli eğitim verileri de sorun olabilir. Örneğin, görüntüleri yapay zeka için faydasız bilgiler içerecek şekilde değiştirmek için Nightshade adlı bir araç kullanmak mümkündür. Yapay zeka yanlış bağlantıları öğrenebilir; örneğin görselde bir inek gösteriliyorsa ancak meta veriler bunun bir el çantası olduğunu söylüyorsa. Kâr amacı gütmeyen proje OWASP (Dünya Çapında Açık Uygulama Güvenliği Projesi), diğer potansiyel riskleri listeledi.


(emw)



Haberin Sonu