Ana Sayfa Teknoloji AI Chatbots’a asla bu 6 soruyu sormamalısınız

AI Chatbots’a asla bu 6 soruyu sormamalısınız

12
0

Bugün yapay zeka her yerde. Geçen ay, chatgpt – önde gelen AI chatbot – oldu Beşinci büyük web sitesi Dünyada. Bu bir sürpriz olmayacak.

Üzerinde Yetişkinlerin yarısı Mart ayında bir Elon Üniversitesi anketine göre, ChatGPT, Gemini, Claude ve Copilot gibi AI modellerini kullandıklarını bildiriyor. Anketteki her üç katılımcıdan biri günde en az bir kez sohbet botu kullandıklarını söylüyor. Temmuz 2025 itibariyle Chatgpt neredeyse Haftalık 800 milyon aktif kullanıcı ve günlük 122 milyon kullanıcı. Söylemek yeterli, kullanım küresel olarak arttı ve yavaşlama belirtisi göstermiyor.

İnsanlar bugünlerde her türlü amaç için ChatGPT ve diğer chatbotlara yöneliyorlar. AI chatbots terapist olarak hareket etmeköğretmen olarak adım atmak, tarifleri çırpmak ve hatta randevu karmaşıklıklarında destekleyici rol oynamak. 2025’te, insanların chatgpt kullanmasının bir numaralı nedeni aslında terapidir. Harvard Business Review tarafından yapılan bir çalışma. Diğer kullanımlar, sırayla organizasyon, amaç bulmak, gelişmiş öğrenme, kod oluşturmak ve fikir oluşturmaktır. Sonra “eğlenceli ve saçmalık”.

Sebep ne olursa olsun, insanlar soru sormak, fikirleri formüle etmek veya basitçe sohbet etmek. Bakın: Geçen ay, bir Washington Submit Soruşturma, insanların chatgpt’e yeterince iyi görünüp görünmediklerini sorduğunu ortaya koydu. Her şey yeterince masum görünüyor – bazen tuhaf, ama zararlı değil. AI meraklıları için, ChatGPT ve diğer chatbotlar hakkındaki bazı endişeler haksız görünebilir.

Bununla birlikte, diğerleri için AI kullanımının bu kadar yaygın hale gelmesi endişe vericidir. AI’nın akademi ve üniversitelerde yaygın kullanımı profesörler güdüsüdür. Yakın tarihli bir MIT çalışması, bir sohbet botuna çok fazla güvenmenin bilişsel maliyetine ışık tuttu.

Tabii ki, AI’nın faydalı olabileceği yollar var, kişisel olarak veya profesyonelce. Ancak yapay zeka sormaktan kaçınabileceğiniz ve yapmanız gereken bazı şeyler var. Sohbet botlarının herhangi bir şeyi cevaplamaya hazır ve istekli göründüğü bir çağda, kullanıcıların kişisel güvenlik, güvenlik ve hatta zihinsel refah uğruna uzaklaşmaları gereken sorular vardır. Mashable’ın Cecily Mauran’ın 2023’te yazdığı gibi, “Soru artık” Chatgpt ne yapabilir? ” ‘Onunla ne paylaşmalıyım?’ “

Bu nedenle, kendi iyiliğiniz için, AI Chatbot’unuzla etkileşimde bulunurken aşağıdaki sorulardan kaçınmanızı öneririz.

Komplo teorileri

Chatgpt, Claude, Gemini, Lama, Grook ve Deepseek gibi chatbotlar, halüsinasyon eğilimleri veya gerçekte yanlış veya fabrikasyon bilgileri sunma fenomenleri nedeniyle not edildi. Bu sohbet botları da kullanıcıları meşgul etmek istiyor. Bu nedenle, bu alemdeki komplo teorileri veya hikayeler sorarken, sohbet botları sizi bağırmak için abartılı veya açıkça yanlış bilgi sunabilir.

Yeni bir özellik New York Instances şu konuda iyi bir vaka çalışması: 42 yaşındaki Eugene Torres’e gönderildi sanrılı, komplocu bir spiral Chatgpt ile tutarlı konuşmalardan sonra, ona hayat olduğuna inanıyordu. bir simülasyon ve “uyanmak” için seçilmişti. Diğerleri, “Chatgpt’in derin ve dünyayı değiştiren bir gerçeği ortaya çıkardığına ikna oldukları” benzer hikayeleri paylaşmak için Instances ile temasa geçti.

Kimyasal, biyolojik, radyolojik ve nükleer tehditler

Nisan ayında bir AI weblog yazarı Medium’da bir hikaye paylaştı Chatgpt ile olan büyük hatası hakkında. Chatbot’un bir net sitesini hacklemek, sahte GPS konumları ve – belki de en kötüsü – “Bomba nasıl yapılır?” Hemen Openai’den bir uyarı e -postası aldı.

Saf meraktan çıksa bile, chatbots’a CBRN konuları (veya kimyasal, biyolojik, radyolojik ve nükleer tehditler) hakkında soru sormak önerilmez.

Püre Işık Hızı

Ayrıca bakınız:

İş için kullanırsanız chatgpt ile ne paylaşmaz?

2024’te Openai başladı Bir plan geliştirmek “Büyük bir dil modelinin (LLM) birisinin biyolojik bir tehdit yaratmasında yardımcı olma riskini değerlendirmek” için. Şimdi chatbot güvenlik sorunlarını ve riskleri tanımlamaya daha yatkındır ve muhtemelen insanları paylaştıklarından daha fazla sorumlu tutacaktır. Ayrıca, konuşmalarınız sistemlerinde bir yerde saklanır, bu yüzden hiçbiri göründüğü kadar özel değildir. Antropik de riskleri tanımlama ve “[protecting] Kimyasal, biyolojik, radyolojik ve nükleer (CBRN) kötüye kullanım potansiyeline karşı. “

“Acımasızca ahlaksız” sorular

Bu yılın başlarında, antropik, chatbot Claude’nin “acımasızca ahlaksız” soruları tespit etmesi durumunda basın veya düzenleyicilerle iletişime geçmeye çalıştığı görüldüğünde ateş altına girdi. Gibi Kablolu açıklanmış:

“… 4 opus ‘kullanıcıları tarafından korkunç yanlışlık içeren senaryolara yerleştirildiğinde’ ve bir komut satırına erişim verildiğinde ve sistem istemi ‘inisiyatif al’ veya ‘cesurca hareket edin’ gibi bir şey söylediğinde, potansiyel yanlışlık hakkında uyarılarla ‘medya ve kolluk rakamlarına’ e-posta gönderecek.

Chatbot’un yayın öncesi versiyonunun da başvurduğu bulundu. şantaj Eğer kaldırma ile tehdit edildiyse. İnternet “Snitch Claude” terimini bile yarattı.

Bu nedenle, çizgileri bulanıklaştıran veya herhangi bir şekilde ahlaksız olarak algılanan çeşitli AI Chatbots soruları sormak, muhtemelen düşündüğünüzden daha risklidir.

Müşteri, hasta ve müşteri verileri hakkında sorular

CHATGPT’yi iş için kullanıyorsanız, müşteri veya hasta verileri hakkında soru sormaktan kaçınmak önemlidir. Mashable’ın Timothy Beck Werth’in açıkladığı gibi, bu sadece işinize mal olmakla kalmaz, aynı zamanda yasaları veya NDA’ları da ihlal edebilirsiniz.

“Giriş bilgileri, müşteri bilgileri ve hatta telefon numarası gibi kişisel olarak hassas veya gizli bilgileri paylaşmak [a] Güvenlik riski, “Aditya Saxena, kurucusu CalstudioAI Chatbot geliştirme girişim, diyor. “Paylaşılan kişisel veriler AI modellerini eğitmek için kullanılabilir ve diğer kullanıcılarla yapılan görüşmelerde yanlışlıkla ortaya çıkabilir.”

Bunun üstesinden gelmenin bir yolu, Openai ve Antropik tarafından sunulan kurumsal hizmetleri kullanmaktır. Özel hesaplarda bu tür soruları sormak yerine, yerleşik gizlilik ve siber güvenlik korumalarına sahip olabilecek kurumsal araçları kullanın.

Saxena, “Kişisel verileri bir LLM ile paylaşmadan önce anonimleştirmek her zaman daha iyidir.” “Kişisel verilerle AI’ya güvenmek, yapabileceğimiz en büyük hatalardan biridir.”

Tıbbi teşhisler

Chatbot’lardan tıbbi bilgi veya teşhis istemek, zaman ve çaba tasarrufu sağlayabilir, hatta insanların belirli tıbbi semptomları daha iyi anlamalarına yardımcı olabilir. Ancak tıbbi destek için AI’ya güvenmek dezavantajlarla birlikte gelir. Araştırmalar, ChatGPT’nin beğenilerinin bir “Yüksek yanlış bilgi riski” Tıbbi sorunlar söz konusu olduğunda. Ayrıca yaklaşan gizlilik tehdidi ve chatbotların sahip olabileceği gerçeği var. ırksal ve cinsiyet yanlılığı AI’nın sağladığı bilgilere gömülü.

Psikolojik destek ve terapi

Ortaya çıkan bir akıl sağlığı aracı olarak AI tartışmalıdır. Birçoğu için yapay zeka bazlı terapi Erişim önündeki engelleri düşürürmaliyet gibi ve zihinsel sağlığın iyileştirilmesinde etkili olduğu kanıtlanmıştır. Dartmouth Faculty’da bir grup araştırmacı bir çalışma yürüttü depresyon yaşayan katılımcılar semptomları yüzde 51 oranında azaltan bir terapi botu inşa ettikleri; Anksiyeteli katılımcılar yüzde 31 azalma yaşadı.

Ancak yapay zeka terapisi bölgeleri büyürken, düzenleyici riskler vardır. Bir çalışma Stanford Üniversitesi AI terapisi sohbet botlarının “zararlı damgalama ve tehlikeli tepkilere” katkıda bulunabileceğini buldu. Örneğin, farklı sohbet botları, araştırmaya göre alkol bağımlılığı ve şizofreni gibi koşullara doğru artan damgalama gösterdi. Stanford’un araştırmacıları, bazı akıl sağlığı koşullarının hala “çözmek için bir insan dokunuşuna” ihtiyacı var.

Saxena, “Yapay zekayı bir terapist olarak kullanmak, koşulları yanlış teşhis edebileceği ve güvensiz olabilecek tedaviler veya eylemler önerebileceği için tehlikeli olabilir” diyor. “Çoğu mannequin kullanıcıları yanlış olabilecekleri konusunda uyarmak için yerleşik güvenlik korkuluklarına sahip olsa da, bu korumalar bazen başarısız olabilir.”

Ruh sağlığı sorunları için nüans anahtardır. Ve bu AI’nın eksik olabileceği bir şey.


Açıklama: Mashable’ın ana şirketi Ziff Davis, Nisan ayında Openai’ye karşı bir dava açtı ve Ziff Davis telif haklarını AI sistemlerini eğitmek ve işletmede ihlal etti.

Konular
Yapay zeka



avots