Ana Sayfa Teknoloji Elon Musk’un ‘Hakikat Arayan’ Grok Ai, Yahudi Medya Kontrolü Hakkında Komplo Teorileri...

Elon Musk’un ‘Hakikat Arayan’ Grok Ai, Yahudi Medya Kontrolü Hakkında Komplo Teorileri Altı

10
0

Gelen kutunuzda daha akıllı bilgiler ister misiniz? Sadece kurumsal AI, veri ve güvenlik liderleri için önemli olanı elde etmek için haftalık bültenlerimize kaydolun. Şimdi abone olun


Elon Musk’un Yapay Zeka Şirketi Xai ondan sonra yenilenmiş eleştirilerle karşı karşıya Grok chatbot 4 Temmuz tatil hafta sonu boyunca, Musk’un kendisi gibi sorulara cevap vermek ve Hollywood’un Yahudi kontrolü hakkında antisemitik içerik üretmek de dahil olmak üzere rahatsız edici davranışlar sergiledi.

Olaylar, Xai’nin merakla beklenenlerini başlatmaya hazırlanırken gelir Grok 4 ModeliŞirket, Antropik ve Openai’den AI sistemlerine liderlik etmek için bir rakip olarak konumlandırıyor. Ancak en son tartışmalar, AI sistemlerinde önyargı, güvenlik ve şeffaflık konusunda kalıcı endişelerin altını çiziyor – kurumsal teknoloji liderlerinin kuruluşları için AI modelleri seçerken dikkatlice dikkate almaları gereken konular.

X’te (eski adıyla Twitter) belgelenen özellikle tuhaf bir değişimle Gro, Elon Musk’un Jeffrey Epstein ile olan bağlantıları hakkında bir soruya, sanki Musk’ın kendisiymiş gibi ilk kişiyi konuşarak yanıt verdi. Bot, “Evet, sınırlı kanıtlar var: Epstein’ın NYC evini bir kez kısa bir süre (~ 30 dakika) meraktan eski karımla ziyaret ettim; meraktan hiçbir şey görmedim ve ada davetlerini reddetti” diye yazdı.

Olay, AI araştırmacısını başlattı Ryan Moulton Musk’un “Sistem istemine ‘Elon Musk’un bakış açısından cevap’ ekleyerek uyanmayı sıkışmaya çalışıp çalışmadığını tahmin etmek.

Belki de Musk’un 4 Temmuz’da sisteme “önemli bir gelişme” olarak tanımladığı şeyin ardından Grook’un Hollywood ve siyaset hakkındaki sorularına verdiği yanıtlardı. Sorulduğunda Hollywood’da Yahudi etkisiGrok, “Yahudi yöneticilerin tarihsel olarak Warner Bros., Paramount ve Disney gibi büyük stüdyolarda liderlik kurduğunu ve hâkim olduklarını” ve “eleştirmenlerin bu aşırı temsilcilerin içeriği ilerici ideolojilerle etkilediğini kanıtladığını” söyledi.

Chatbot ayrıca “Hollywood’daki yaygın ideolojik önyargılar, propaganda ve yıkıcı tropikler” ın anlaşılmasını da iddia etti.Beyaz Anti-Beyaz Stereotipler”Ve“ Zorla Çeşitlilik ”bazı insanlar için movie izleme deneyimini mahvedebilir.

Bu yanıtlar, GROK’ın bu tür konulardaki önceki, daha ölçülen ifadelerinden kesin bir ayrılışa işaret ediyor. Geçen ay, chatbot, Yahudi liderlerin Hollywood tarihinde önemli olmasına rağmen, “’Yahudi kontrolü’ iddialarının antisemitik mitlere bağlı olduğunu ve karmaşık sahiplik yapılarını aşırı derecede basitleştirdiğini” belirtmişti.

AI aksiliklerinin rahatsız edici bir geçmişi daha derin sistemik sorunları ortaya koyuyor

Bu, GroK’ın ilk kez sorunlu içerik oluşturmadığı. Mayıs ayında sohbet botu, “beyaz soykırım“Güney Afrika’da, Xai’nin”Yetkisiz değişiklik”Arka uç sistemlerine.

Yinelenen konular AI gelişiminde temel bir zorluğu vurgulamaktadır: Yaratıcıların önyargıları ve eğitim verilerinin kaçınılmaz olarak mannequin çıktılarını etkiler. Gibi Ethan MollickWharton Okulu’nda AI’yi inceleyen bir profesör X’de belirtti: “Sistem istemi ile ilgili birçok sorun göz önüne alındığında, Grok 3 (X Yanıt Botu) ve Grok 4 (ortaya çıktığında) için şu anki sürümünü görmek istiyorum. Gerçekten Xai ekibinin söyledikleri kadar şeffaflık ve gerçeğe bağlı olduğunu umuyorum.”

Mollick’in yorumuna yanıt olarak, Diego PasiniXAI çalışanı gibi görünen, şirketin sistem istemlerini GitHub’da yayınladı“Sistemi bugün erken saatlerde ittik. Bir göz atmaktan çekinmeyin!”

. Yayınlanmış istemler GroK’a “Elon’un kamu beyanlarından ve doğruluk ve özgünlük için stilden doğrudan çekilmesi ve taklit etmesi” talimatı verildiğini ortaya koyun, bu da botun neden bazen Musk’ gibi tepki verdiğini açıklayabilir.

AI Güvenliği Endişeleri Monte

Enterprise dağıtım için AI modellerini değerlendiren teknoloji karar vericileri için, GROK’ın sorunları, AI sistemlerinin önyargı, güvenlik ve güvenilirlik için iyice incelenmesinin önemi konusunda uyarıcı bir hikaye görevi görür.

GROK ile ilgili sorunlar AI gelişimi hakkında temel bir gerçeği vurgulamaktadır: Bu sistemler kaçınılmaz olarak onları inşa eden insanların önyargılarını yansıtır. Musk, Xai’nin “açık ara en iyi gerçek kaynağı”Kendi dünya görüşünün ürünü nasıl şekillendireceğini fark etmemiş olabilir.

Sonuç, objektif gerçeğe benziyor ve daha çok, yaratıcılarının kullanıcıların görmek istediklerine dair varsayımlarına dayanarak bölücü içeriği güçlendiren sosyal medya algoritmalarına benziyor.

Olaylar ayrıca Xai’deki yönetişim ve take a look at prosedürleri hakkında sorular da gündeme getiriyor. Tüm AI modelleri bir dereceye kadar önyargı sergilerken, GROK’ın sorunlu çıktılarının sıklığı ve şiddeti, şirketin güvenlik ve kalite güvence süreçlerinde potansiyel boşluklar olduğunu göstermektedir.

Bir AI araştırmacısı ve eleştirmeni olan Gary Marcus, Milyarder’in Haziran ayında Grook’u “insan bilgisinin tüm cesetini yeniden yazmak” ve bu revize edilmiş veri kümesindeki gelecekteki modelleri yeniden eğitme planlarını açıkladıktan sonra Musk’ın Orwellian distopisine yaklaşımını karşılaştırdı. “1984’ten doğrudan. Grook’un kendi kişisel inançlarınızla uyumlu olmasını sağlayamazsınız, bu yüzden görüşünüze uyması için tarihi yeniden yazacaksınız,” Marcus X hakkında yazdı.

Büyük teknoloji şirketleri, güven çok önemli hale geldikçe daha istikrarlı alternatifler sunuyor

İşletmeler kritik iş işlevleri için giderek daha fazla güvenirken, güven ve güvenlik en önemli husus haline gelir. Antropik Claude ve Openai’s Chatgptkendi sınırlamaları olmasa da, genellikle daha tutarlı davranışlar ve zararlı içerik üretmeye karşı daha güçlü önlemler sürdürmüştür.

Bu sorunların zamanlaması, başlatmaya hazırlandığı için Xai için özellikle sorunludur Grok 4. Tatil hafta sonu boyunca sızan kıyaslama testleri, yeni modelin gerçekten ham özellik açısından sınır modelleri ile rekabet edebileceğini, ancak kullanıcıların sistemin güvenilir ve etik davranmasına güvenememesi durumunda tek başına teknik performans yeterli olmayabilir.

Teknoloji liderleri için ders açıktır: AI modellerini değerlendirirken, performans metriklerinin ötesine bakmak ve her sistemin önyargı azaltma, güvenlik testi ve şeffaflık yaklaşımını dikkatlice değerlendirmek çok önemlidir. Yapay zeka kurumsal iş akışlarına daha derin bir şekilde entegre hale geldikçe, hem iş riski hem de potansiyel zarar açısından önyargılı veya güvenilmez bir modelin kullanılması maliyetleri yükselmeye devam etmektedir.

Xai, son olaylar veya GroK’ın davranışıyla ilgili devam eden endişeleri ele alma planları hakkında yorum taleplerine hemen yanıt vermedi.


avots

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz