Aslında, fotoğraf 2 Ağustos 2025’te Gazze Metropolis’deki annesi Modallala’nın kollarında 9 yaşındaki Mariam Dawwas’ı gösteriyor.
Annesi AFP’ye verdiği demeçte, Hamas’ın 7 Ekim 2023’ün ateş ettiği savaştan önce Mariam 25kg ağırlığındaydı.
Bugün sadece 9 kg ağırlığında. Modallala AFP’ye, durumuna yardım etmek için aldığı tek beslenme süt olduğunu söyledi – ve bu bile “her zaman mevcut değil”.
Yanlış tepkisine meydan okuyan Gro, “Sahte haber yaymıyorum; cevaplarımı doğrulanmış kaynaklara dayandırıyorum” dedi.
Chatbot sonunda hatayı tanıyan bir yanıt yayınladı – ancak ertesi gün daha ileri sorgulara yanıt olarak GroK, fotoğrafın Yemen’den olduğu iddiasını tekrarladı.
Chatbot daha önce Nazi lideri Adolf Hitler’i öven ve Yahudi soyadı olan insanların çevrimiçi nefret yayma olasılığının daha yüksek olduğunu gösteren içerik yayınlamıştı.
Radikal doğru önyargı
Grok’un hataları, teknolojik etik araştırmacı Louis de Diesbach, işlevleri “kara kutular” kadar aşılmaz olan AI araçlarının sınırlarını gösteriyor.
AI Instruments üzerine bir kitabın yazarı Diesbach, “Neden bu veya bu cevabı verdiklerini veya kaynaklarına nasıl öncelik verdiklerini tam olarak bilmiyoruz” dedi. Merhaba chatgpt.
Her AI’nın eğitildiği bilgilere ve içerik oluşturucularının talimatlarına bağlı önyargıları olduğunu söyledi.
Araştırmacının görüşüne göre, Musk’ın Xai çalışması tarafından yapılan GroK, ABD Başkanı Donald Trump’ın eski bir sırdaşı ve radikal hak için standart bir taşıyıcı olan Güney Afrika milyarderinin “ideolojisi ile oldukça uyumlu oldukça belirgin önyargılar” gösteriyor.
Diesbach, bir sohbet botunun bir fotoğrafın kökenini tespit etmesini istemek, uygun rolünden uzaklaştırdığını söyledi.
“Tipik olarak, bir görüntünün kökenini aradığınızda,“ Bu fotoğraf Yemen’de çekilmiş olabilir, Gazze’de çekilmiş olabilir, kıtlığın olduğu hemen hemen her ülkede çekilmiş olabilir ”.”
AI, mutlaka doğruluk istemiyor – “amaç bu değil” dedi.
Temmuz 2025’te çekilen El-Qattaa tarafından açlıktan ölmüş bir Gazan çocuğunun bir başka AFP fotoğrafı, Grook tarafından 2016’ya Yemen’e zaten yanlış konumlandırılmış ve tarihlenmişti.
Bu hata, web kullanıcılarının Fransız gazetesini suçlamasına yol açtı KurtuluşFotoğrafı, manipülasyonun yayınladığı.
‘Dost Patolojik Yalancı’
Bir yapay zekanın yanlılığı, beslendiği verilerle ve ince ayar sırasında-sözde hizalama aşaması-ne olacağı ile bağlantılıdır, bu da modelin iyi veya kötü bir cevap olarak neyi değerlendireceğini belirler.
Diesbach, “Cevabın yanlış olduğunu açıkladığınız için, bunun farklı bir tane vereceği anlamına gelmediğini” söyledi.
“Eğitim verileri değişmedi ve hiçbirinin hizalaması yok.”
Grook, yanlış tanımlamada yalnız değil.
AFP, kısmen Fransız girişim ve haber ajansı arasındaki bir anlaşma kapsamında AFP’nin makaleleri üzerinde eğitilmiş olan Mistral Ai’nin Le Chat’i sorduğunda bot, Mariam Dawwas’ın fotoğrafını Yemen’den olarak yanlış tanımladı.
Diesbach için chatbots asla gerçekleri doğrulamak için araç olarak kullanılmamalıdır.
“Gerçeği söylemek için yapılmıyorlar [but to] İster doğru ister yanlış olsun, içerik üretin ”dedi.
“Ona dost bir patolojik yalancı gibi bakmalısın – her zaman yalan söylemeyebilir, ama her zaman olabilir.”
-Agence France-Presse