Ana Sayfa Teknoloji Çin’in AI gündemini dünyaya attığı zirvenin içinde

Çin’in AI gündemini dünyaya attığı zirvenin içinde

11
0

Üç gün sonra Trump yönetimi, çok beklenen AI eylem planını yayınladı, Çin hükümeti kendi AI politika planını ortaya koydu. Zamanlama tesadüf müydü? Şüpheliyim.

Çin’in “Küresel AI Yönetişim Eylem Planı”, Çin’in en büyük yıllık AI etkinliği olan Dünya Yapay Zeka Konferansı’nın (WAIC) ilk günü olan 26 Temmuz’da yayınlandı. Geoffrey Hinton ve Eric Schmidt, Şangay’daki şenliklere katılan birçok Batı teknoloji endüstrisi figürü arasındaydı. Kablolu meslektaşımız Will Knight da olay yerinde idi.

WAIC’deki vibe, Trump’ın Amerika’nın birincisi, AI için düzenleme ışığı vizyonunun kutupsal karşısıydı, Will bana söylüyor. Açılış konuşmasında Çinli Başbakan Li Qiang, küresel işbirliğinin AI üzerindeki önemi için ayık bir dava açtı. Onu, Trump yönetiminin büyük ölçüde fırçaladığı görülen acil soruları vurgulayan teknik görüşmeler yapan bir dizi önde gelen Çinli AI araştırmacısı izledi.

Çin’in en iyi AI araştırma kurumlarından biri olan Şangay AI laboratuvarının lideri Zhou Bowen, ekibinin WAIC’deki AI güvenliği konusundaki çalışmalarını başlattı. Yetkili, hükümetin güvenlik açıkları için ticari AI modellerinin izlenmesinde rol oynayabileceğini öne sürdü.

Wired ile yapılan bir röportajda, Çin Bilimler Akademisi’nde profesör olan Yi Zeng ve ülkenin AI’daki önde gelen seslerinden biri, dünyanın dört bir yanından AI güvenlik organizasyonlarının işbirliği yapmanın yollarını bulmasını umduğunu söyledi. “İngiltere, ABD, Çin, Singapur ve diğer enstitüler bir araya gelmesi en iyisi olurdu” dedi.

Konferansta ayrıca AI güvenlik politikası sorunları hakkında kapalı kapı toplantıları da yer aldı. Böyle bir konfabaya katıldıktan sonra konuşan, danışmanlık firması Dga-Albright Stonebridge Group’un ortağı Paul Triolo, Wired’e Amerikan liderliğinin fark edilebilir olmamasına rağmen tartışmaların üretken olduğunu söyledi. Triolo, Wired’e verdiği demeçte, ABD’nin fotoğraftan çıkmasıyla, Çin, Singapur, İngiltere ve AB tarafından ortaklaşa büyük AI güvenlik oyuncularının koalisyonu şimdi sınır AI mannequin gelişimi etrafında korkuluklar inşa etmek için çabalar yaratacak ”dedi. Yetkili, sadece ABD hükümeti olmadığını da sözlerine ekledi: tüm büyük ABD AI laboratuarlarından sadece Elon Musk’un Xai’sini WAIC forumuna katılmaya gönderdi.

Birçok Batılı ziyaretçi, Çin’deki AI hakkında konuşmanın ne kadarının güvenlik düzenlemeleri etrafında döndüğünü öğrenmek için şaşırdı. Pekin merkezli AI Güvenlik Araştırma Enstitüsü Concordia AI’nın kurucusu Brian Tse, “Son yedi gün içinde tam anlamıyla AI güvenlik etkinliklerine kesintisiz katılabilirsiniz. Ve diğer küresel AI zirvelerinden bazılarında durum böyle değildi” dedi. Bu haftanın başlarında, Concordia AI, Stuart Russel ve Yoshua Bengio gibi ünlü AI araştırmacılarıyla Şangay’da bir gün süren güvenlik forumuna ev sahipliği yaptı.

Anahtarlama Konumları

Çin’in AI planı Trump’ın eylem planıyla karşılaştırıldığında, iki ülkenin pozisyonları değiştirdiği anlaşılıyor. Çinli şirketler gelişmiş AI modelleri geliştirmeye ilk başladığında, birçok gözlemci hükümetin getirdiği sansür gereksinimleriyle geri tutulacağını düşündü. Şimdi, ABD liderleri, meslektaşım Steven Levy’nin geçen haftaki yazdığı gibi, ev sahibi AI modellerini “nesnel gerçeği takip et” sağlamak istediklerini söylüyorlar. Arka kanal Bülten, “yukarıdan aşağıya ideolojik önyargıda açık bir egzersiz” dir. Bu arada Çin’in AI Eylem Planı, küreselist bir manifesto gibi okuyor: Birleşmiş Milletler’in uluslararası AI çabalarına öncülük etmesini öneriyor ve hükümetlerin teknolojiyi düzenlemede önemli bir rol oynamasını öneriyor.

Hükümetleri çok farklı olsa da, yapay zeka güvenliği söz konusu olduğunda, Çin ve ABD’deki insanlar aynı şeylerin birçoğu konusunda endişelidirler: mannequin halüsinasyonlar, ayrımcılık, varoluşsal riskler, siber güvenlik açıkları, vb. ABD ve Çin, “aynı mimariye eğitilmiş ve toplumsal etkileri ve aynı toplumsal etkileri kullandıklarını, aynı şekilde ortaya çıktıklarını” söylüyor. Bu aynı zamanda, ölçeklenebilir gözetim (insanlar diğer AI modelleri ile AI modelleri nasıl izleyebilecekleri) ve birlikte çalışabilir güvenlik take a look at standartlarının geliştirilmesi gibi alanlar da dahil olmak üzere, iki ülkede AI güvenliği ile ilgili akademik araştırmaların birleştiği anlamına gelir.

avots

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz