Yapay zeka etkileyici çıkarım güçlerine sahip olabilir, ancak yakın zamanda insan akıl yürütme güçlerine yakın bir şeye sahip olmaya güvenmeyin. Yapay Genel İstihbarat (AGI) ya da değişen görevler veya ortamlar yoluyla akıl yürütme uygulayabilen Yürüyüş, insanlar ile aynı şekilde, hala uzun bir yoldur. Büyük Akıl Yürütme Modelleri (LRMS)mükemmel olmasa da, bu yönde geçici bir adım solar.
Başka bir deyişle, bir mutfak ateşine veya masaya atlayan ve yiyecekleri bulamayan bir evcil hayvana uygun tepki vermek için yemek hazırlık hizmet robotunuza güvenmeyin.
Ayrıca: Meta’nın yeni AI laboratuvarı ‘herkes için kişisel supperptelligence’ sunmayı amaçlıyor – bu ne anlama geliyorsa
Yapay zekanın Kutsal Kâsesi uzun zamandır olabildiğince insani düşünmek ve akıl yürütmeye devam ediyor – ve endüstri liderleri ve uzmanları, böyle bir zekaya ulaşmadan önce hala uzun bir yolumuz olduğunu kabul ediyorlar. Ancak büyük dil modelleri (LLM’ler) ve bunların biraz daha gelişmiş LRM yavruları, karmaşık insan benzeri akıl yürütme değil, veri modellerine dayanan tahmin analitikleri üzerinde çalışır.
Bununla birlikte, AGI ve LRM’lerin etrafındaki konuşmalar büyümeye devam ediyor ve hype’ın mevcut gerçek teknolojiyi çok fazla geri alması kaçınılmazdı.
“Şu anda bir AI başarı tiyatrosu vebasının ortasındayız” dedi Robert BlumofeAkamai’de baş teknoloji görevlisi ve yönetici başkan yardımcısı. “Başlık yakalama demoları, anekdot kazançları ve abartılı yetenekler tarafından yaratılan bir ilerleme yanılsaması var. Gerçekte, gerçekten akıllı, düşünme AI uzun bir yol uzakta. ”
Bir son kağıt Apple araştırmacıları tarafından yazılmıştır LRMS’nin hazırlığını küçümsedi. Araştırmacılar, LRMS’nin şu anda durdukları gibi, şu anda yaygın kullanımda standart LLM’lerin üstünde ve ötesinde çok fazla akıl yürütmedikleri sonucuna vardı. (ZDNet meslektaşlarım Lester Mapp ve Sabrina Ortiz, makalenin bulgularına mükemmel bir bakış sunuyor.)
Ayrıca: Apple’ın ‘düşünme yanılsaması’ şok edici – ama işte kaçırdığı şey
LRMS, Zoom’un baş teknoloji sorumlusu Xuedong Huang, “Deepseek-R1 gibi modellerde görüldüğü gibi, eğitim sonrası aşamada LLM’lerden türetilmiştir.” Dedi. “Mevcut LRMS nesli, sadece son cevap için optimize eder, akıl yürütme sürecinin kendisi değil, kusurlu veya halüsinasyonlu ara adımlara yol açabilir.”
LRMS adım adım düşünce zincirleri kullanır, ancak “bunun gerçek bilişe eşit olmadığını, sadece onu taklit ettiğini bilmeli” dedi Ivana BartolettiWipro başkanlık görevlisi. Diyerek şöyle devam etti: “Düşünce zinciri tekniklerinin gelişmesi muhtemeldir, ancak mevcut sınırlamalarını anlamamıza dayanmak önemlidir.”
LRMS ve LLM’ler tahmin motorlarıdır, “drawback çözücüler değil” dedi Blumofe. “Onların akıl yürütmeleri, problemleri algoritmik olarak çözerek değil, kalıpları taklit ederek yapılır. Yani mantık gibi görünüyor, ancak mantık gibi davranmıyor. AI’da akıl yürütmenin geleceği, daha iyi verilere veya akıl yürütmeye daha fazla zaman harcayan LRM’lerden gelmeyecek. LLMS’ye dayanmayan, daha fazla geleneksel araçla entegre olmayan temel olarak farklı bir mimari gerektirir, ancak gerçek kullanıcı ile entegre olmayan bir mimari gerektirir”.
Ayrıca: 9 programlama görevleri AI’ya teslim etmemelisiniz – ve neden
Şu anda, AI’nın akıl yürütme yetenekleri için daha iyi bir terim “pürüzlü zeka” olabilir, dedi Caiming XiongSalesforce AI Araştırma Başkan Yardımcısı. “Bu, AI sistemlerinin bir görevde mükemmel olduğu, ancak diğerinde muhteşem bir şekilde başarısız olduğu yerdir – özellikle kurumsal kullanım durumlarında.”
LRMS için potansiyel kullanım durumları nelerdir? Ve bu modelleri benimseme ve sürdürmenin yararı nedir? Yeni başlayanlar için, kullanım durumları daha çok mevcut LLM’lerin uzantılarına benzeyebilir. Birkaç alanda ortaya çıkacaklar – ama karmaşık. “Akıl yürütme modellerinin bir sonraki sınırı, matematik veya kodlamanın aksine – otomatik olarak doğrulanması zor olan akıl yürütme görevleridir” dedi. Daniel HoskeCTO CRESTA’da.
Şu anda, mevcut LRMS, “Yaratıcı Yazma, Planlama ve Kodlama” gibi klasik LLM’lerin kullanım durumlarının çoğunu kapsar. Petros EfstathopoulosRSA Konferansı Araştırma Başkan Yardımcısı. “LRM’ler geliştirilmeye ve benimsenmeye devam ettikçe, modellerin bağımsız olarak neler olabileceği ve model-collapse sınırlarının neler olacağı konusunda bir tavan olacak. Gelecek sistemleri, arama motorları, fizik simülasyon ortamları ve kodlama veya güvenlik araçları gibi dış araçların nasıl kullanılacağını ve entegre edileceğini daha iyi öğrenecek.”
Ayrıca: yapay zeka için temel modeller oluşturmak için 5 ipucu
Kurumsal LRM’ler için erken kullanım durumları arasında iletişim merkezleri ve temel bilgi çalışmaları bulunmaktadır. Ancak, bu uygulamalar “öznel sorunlarla doludur” dedi Hoske. “Örnekler, teknik sorunların giderilmesi veya sadece kusurlu veya kısmi bilgiye sahip daha üst düzey hedefler verildiğinde, çok adımlı bir görevin planlanması ve yürütülmesi sayılabilir.” LRMS geliştikçe, bu yeteneklerin gelişebileceğini tahmin etti.
Tipik olarak, “LRMS kolayca doğrulanabilir ancak insanların üretmesi zor olan görevlerde mükemmeldir-kodlama, karmaşık KG, resmi planlama ve adım tabanlı drawback çözme gibi alanlar” dedi Huang. Diyerek şöyle devam etti: “Bunlar tam olarak yapılandırılmış akıl yürütmenin, sentetik olsa bile, sezgi veya kaba kuvvet jeton tahmininden daha iyi performans gösterebileceği alanlardır.”
Efstathopoulos, tıbbi araştırma, bilim ve veri analizinde AI’nın sağlam kullanımlarını gördüğünü bildirdi. “LRM araştırma sonuçları cesaret vericidir, modeller zaten tek atış drawback çözme, karmaşık akıl yürütme bulmacalarla mücadele, planlama ve yanıtları orta nesil olarak geliştirebilir.” Ancak LRM’ler için hala erken saatlerde, tam akıl yürütmenin en iyi yolu olabilir veya olmayabilir.
Ayrıca: AI ajanları 2028 yılına kadar nasıl 450 milyar dolar üretebilir – ve yolda ne duruyor?
LRMS’den çıkan sonuçlara güven, klasik LLM’ler için olduğu gibi sorunlu olabilir. Salesforce’un Xiong, “Önemli olan, sadece yeteneklerin ötesinde, bu sistemlerin düşük bahis görevlerinin ötesinde ve kritik iş karar vermesinin ötesinde güvenilir ve güvenilir bir şekilde akıl yürütebileceğidir.” Dedi. “Akıl yürütme için tasarlanmış olanlar da dahil olmak üzere bugünün LLM’leri hala yetersiz kalıyor.”
Xiong, dil modellerinin işe yaramaz olduğu anlamına gelmiyor. “Bunları, mevcut yeteneklerinin gerçek bir değer sağladığı kodlama yardımı, içerik üretimi ve müşteri hizmetleri otomasyonu için başarılı bir şekilde konuşlandırıyoruz.”
İnsan akıl yürütmesi de muazzam kusurlar ve önyargısız değildir. Zoom’dan Huang, “Bizim gibi düşünmek için AI’ya ihtiyacımız yok – bizimle düşünmek için ihtiyacımız var.” Dedi. “İnsan tarzı biliş, makinelerde istemeyebileceğimiz bilişsel önyargılar ve verimsizlikler getiriyor. Amaç, taklit değil, farklı, daha titiz bir şekilde veya insanlardan daha şeffaf olabilen bir LRM, birçok gerçek dünya uygulamasında daha yararlı olabilir.”
Ayrıca: insanlar AI’ya güvenmiyor ama yine de giderek daha fazla kullanıyorlar
LRMS ve nihayetinde AGI’nin amacı “sınırlamaları hakkında şeffaf, tanımlanmış yetenekler içinde güvenilir ve onu değiştirmek yerine insan zekasını tamamlamak için tasarlanmış AI’ya doğru inşa etmektir” dedi. İnsan gözetimi, “insan yargısının, bağlamsal anlayışın ve etik akıl yürütmenin yeri doldurulamaz kaldığının kabulü” de esastır.
AI hakkında daha fazla hikaye ister misiniz? İnovasyon için kaydolunhaftalık bültenimiz.