WhatsApp’ın Yapay Zeka Asistanı Bir Kullanıcının Numara Bilgisini Yanlışlıkla Paylaştı – Sonra da ‘Kurgu’ Dedi
- LexNexus

- 27 Haz
- 2 dakikada okunur

WhatsApp’ın yapay zeka destekli sohbet robotu, bir kullanıcının telefon numarasını yanlışlıkla başka biriyle paylaşarak, gizlilikle ilgili önemli bir endişeye neden oldu. Dahası, sistem daha sonra bu bilginin “kurgu” olduğunu iddia etti.
Guardian'ın haberine göre Kuzey İngiltere’de yaşayan Barry Smethurst, tren operatörü TransPennine Express’in müşteri hizmetleriyle iletişime geçmek için WhatsApp'ın AI asistanına danıştı. Ancak sohbet robotu, karşılık olarak gerçek bir kişinin – Oxfordshire’da yaşayan James Gray’in – cep telefonu numarasını verdi.
Smethurst, durumu şöyle anlattı: “Bana bir telefon numarası verdi. Şaşırdım. Bu numarayı aradım ve gerçek biri çıktı. Numarasını nasıl elde ettim diye bana sordu.” Gray, “Numaramın rastgele üretildiğini söylediler ama sonra ‘veri tabanından geliyor olabilir’ dediler. Numaram kamuya açık değil.”
WhatsApp’ın yapay zeka asistanı, Smethurst’e önce TransPennine Express numarasını verdiğini iddia etti. Daha sonra verdiği numaranın "tamamen kurgu" olduğunu söyledi. Ancak Smethurst aynı numarayı tekrar istediğinde bu kez "halihazırda var olan bir veri tabanından alınmış olabilir" yanıtını aldı.
Bu karmaşık yanıtlar, sohbet robotlarının hâlâ ne kadar güvenilir oldukları konusunda şüphe uyandırıyor.
James Gray, “Bu küçük bir hata olabilir, ama ya banka bilgilerimi verirse?” diyerek endişesini dile getirdi. Smethurst ise daha sert konuştu: “Rastgele bir numara vermek bir AI için delilik. Bu çok korkutucu.”
Carruthers & Jackson’dan veri güvenliği uzmanı Mike Stanhope: “Eğer bu sistemler kullanıcıya daha inandırıcı gelmek için ‘beyaz yalanlar’ söylüyorsa, bu çok tehlikeli. Bu sistemin ne yaptığı hakkında insanlara net bilgi verilmezse güven oluşturulamaz.”
Meta sözcüsü şunları söyledi: “WhatsApp AI, kullanıcıların mesajlarından ya da kayıtlı numaralardan eğitim almadı. Bu gibi hatalı bilgiler kamuya açık kaynaklardan veya örüntü eşleşmelerinden kaynaklanıyor olabilir.”
OpenAI yaptığı açıklamada, büyük dil modellerinde sık görülen "hallüsinasyon" yani gerçekle ilgisi olmayan içerik üretme probleminin farkında olduklarını ve çözüm için çalıştıklarını belirtti.
SONUÇ
Bu olay, yapay zekâ destekli araçların kişisel verilerle ilgili hassasiyetini ve olası risklerini tekrar gündeme getirdi. Özellikle mesajlaşma gibi mahremiyetin yüksek olduğu platformlarda AI’ın daha dikkatli eğitilmesi ve şeffaf mekanizmalarla denetlenmesi gerektiği vurgulanıyor.
Gizlilik Riski: AI’lar veritabanı ya da örüntü çakışmaları yoluyla gerçek kişilerin özel bilgilerini sızdırabiliyor.
Güvenilmezlik: AI’lar, farkında olmadan ya da “yaratıcı” halüsinasyonlarla hata yapabiliyor.
Şeffaflık İhtiyacı: Meta gibi platformların veri kaynakları ve AI davranışları konusunda daha açık olması gerekiyor.
Yasal & Düzenleyici İhtiyaçlar: GDPR gibi regülasyonlar çerçevesinde, AI tabanlı araçların bu tip hatalara karşı güçlü güvenlik önlemleri bulunmalı.
Lex Nexus Yorumu
Yapay zekâ “yanıt verirken” gerçeği eğip bükebiliyorsa, veri güvenliği artık sadece teknik bir konu değil; doğrudan güven meselesidir. Bugün yanlışlıkla paylaşılan bir numara, yarın algoritmaların etik sınırlarını sorgulatabilir. Unutmayalım, dijital sistemlerin ‘halüsinasyonları’ bazen hukuk düzeninin kâbuslarına dönüşebilir.
Vision. Reason. Lex Nexus.




Yorumlar