OpenAI ve Güvenlik Politikaları Üzerine Tartışmalar: ChatGPT ve Silahlı Şiddet Senaryoları Üzerindeki Dönemsel Çatışmalar

OpenAI ve Güvenlik Politikaları Üzerine Tartışmalar: ChatGPT ve Silahlı Şiddet Senaryoları Üzerindeki Dönemsel Çatışmalar

Kanada’nın British Columbia eyaletinde gerçekleşen ve 8 kişinin ölümüne yol açan trajik saldırı, olaydan önceki aylarda OpenAI’nin ChatGPT sohbetlerinde silahlı şiddet temalı kurguların paylaşıldığını gündeme getirdi. Şirket içindeki incelemelere rağmen, bazı yöneticilerin bu içerikleri kolluk kuvvetlerine bildirmeme kararı aldığı iddia edildi.

OpenAI ve Güvenlik Politikaları Üzerine Tartışmalar: ChatGPT ve Silahlı Şiddet Senaryoları Üzerindeki Dönemsel Çatışmalar

Geçen yaz aylarında, sanık olarak anılan Jesse Van Rootselaar’in ChatGPT ile yaptığı yazışmalarda silahlı eylemlerle ilgili kurgu tasvirleri paylaşması, şirket içinde tartışmalara neden oldu. Ancak üst düzey yöneticiler bu bulguları kamu güvenliği açısından bildirmeme yönünde bir tutum sergiledi. 10 Şubat’ta yaşanan saldırıda Van Rootselaar önce ailesinden yakınlarını, ardından okula giderek ateş açtı ve birçok kişi hayatını kaybetti; olayın ardından kendisi de intihar etti.

Federal yetkililer olayın ana saikinin ve hedef alınan kişi/grupların belirlenmesiyle ilgili net bulgular ortaya koyarken, okul çevresinde belirgin bir hedef gösterme olduğuna dair kanıt bulamadıklarını açıkladı. Bu süreçte OpenAI’ın güvenlik politikaları ve iletişim süreçleri yoğun eleştirilere maruz kaldı. Şirket, 2025 Ağustos’ta yayımlanan bir açıklamada, ChatGPT konuşmalarını zararlı içerik açısından izlediğini ve riskli görülen içerikleri insan inceleme ekibine yönlendirdiğini belirtmişti; ayrıca başkalarına yönelik ciddi fiziksel zarar tehdidi durumunda kolluk kuvvetlerine başvuru yapılabileceğini kaydetti.

Geçmiş yıllarda OpenAI, ChatGPT’nin ruh sağlığı krizleriyle bağlantısı olduğu iddialarına karşı bir dizi dava ile karşı karşıya kaldı. Sana ayrıntılarla ilgili olarak, bazı kullanıcıların uzun süreli etkileşimler sonrası sanrılar yaşadıkları veya intihar açıklamaları yaptıkları iddia edildi ve şirket hakkında haksız ölüm ve intihara yardım suçlamaları yöneltildi. Şubat ayında, söz konusu vakalarla ilişkilendirilen GPT-4o modelinin kullanım dışı bırakılması kararı alındı. Olayla ilgili olarak OpenAI içindeki tartışmaların varlığı doğrulansa da, Van Rootselaar’ın yazışmalarının hangi kriterlerle değerlendirildiği ve yetkililere bildirilip bildirilmediği netleşmedi. Dönemsel politikalar ile kamuoyuna açıklanan çerçeve arasındaki farklar da netlik kazanmadı.

Bu gelişmeler, yapay zeka şirketlerinin potansiyel tehditlerin bildirilmesi konusundaki yükümlülükleri üzerinde tartışmaları alevlendirdi. Gizlilik, hukuki sorumluluk ve tehlike karşısında sınır çizgisi soruları da gündeme geliyor; özellikle hangi durumlarda müdahalenin zorunlu olduğu ve hangi mekanizmaların devreye gireceği konusunda cevaplar aranıyor.

Bir Yorum Yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Benzer Yazılar