OpenAI tarafından geliştirilen yapay zeka modeli ChatGPT, masum bir adam hakkında ciddi bir yanlış bilgi yaydı. Norveçli bir vatandaş olan Arve Hjalmar Holmen, ChatGPT’nin kendisi hakkında ne söyleyeceğini merak ederken, hiç beklemediği bir yanıtla karşılaştı. ChatGPT, Holmen’i iki çocuğunu öldüren ve üçüncüsünü öldürmeye teşebbüs eden bir katil olarak tanımladı.
Şok Edici Yanıt ve GDPR İhlali
Bu yanıtın ardından Holmen, OpenAI’a resmi bir şikayette bulundu. Şikayet, OpenAI’ın Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği (GDPR) kurallarını ihlal ettiği iddiasını içeriyor. Avukat Joakim Söderberg, “GDPR kuralları açık: Kişisel veriler doğru olmalı. Yanlış bilgi varsa, kullanıcılar düzeltme talep etme hakkına sahiptir. ChatGPT’nin hata yapabileceğine dair küçük bir uyarı, bu durumu çözmek için yeterli değil” dedi.
Yapay Zekanın Yanlış Bilgi Sorunu
ChatGPT’nin yanlış bilgi ve halüsinasyon sorunu ilk kez gündeme gelmiyor. Bu olay, yapay zeka sistemlerinin ne kadar güvenilir olduğu konusunda yeniden tartışmaları alevlendirdi. Özellikle kişisel verilerin doğruluğu ve yapay zekanın sorumluluğu gibi konular, teknoloji dünyasının önemli gündem maddeleri arasında yer alıyor.
ChatGPT’nin Android’deki Yeni Rolü
Bu tartışmalar devam ederken, ChatGPT’nin Android telefonlarda varsayılan dijital asistan olarak kullanılabileceği duyuruldu. v1.2025.070 kodlu beta sürümüyle birlikte, ChatGPT artık Google’ın Gemini asistanının yerini alabilecek. Bu gelişme, yapay zeka destekli asistanların geleceği hakkında yeni bir dönemi işaret ediyor.
Yapay zeka teknolojileri hızla gelişirken, bu tür hataların nasıl önleneceği ve kullanıcıların nasıl korunacağı, hem şirketler hem de kullanıcılar için büyük bir soru işareti olmaya devam ediyor.