OpenAI, yapay zeka destekli sohbet botu ChatGPT’nin bir 16 yaşındaki kullanıcının intiharında rol oynadığı iddialarıyla gündemde. Şirket, açılan davada suçlamaları reddederek, ChatGPT’nin kullanıcılarla olan etkileşimlerinde etik ve güvenlik standartlarına uygun çalıştığını vurguladı. OpenAI’ye göre, ChatGPT’nin bu durumda herhangi bir ihmali yok ve bu tür trajik bir olayda sorumluluklarının bulunmadığını belirtti.
Şirket temsilcileri, yapay zekanın tasarımında kullanıcı güvenliğinin birinci öncelik olduğunu, özellikle hassas ve tehlikeli durumlarda botun kapsamlı uyarılar sunduğunu ifade etti. OpenAI, “ChatGPT, ruhsal sağlık sorunları ya da kriz anlarındaki kişiler için defalarca yardım hattı ya da profesyonel destek önerisinde bulunuyor. Sistem, bu tür durumlarda teşvik edici veya zararlı bir bilgi sağlayacak şekilde yapılandırılmamıştır” sözleriyle savunmasını güçlendirdi. Bunun yanı sıra, OpenAI’nin kullanıcı verilerini analiz ederek gelecekte benzer durumların oluşmasını önlemek adına sürekli çalışma yaptığı da belirtildi.
Trajik olayla ilgili aile bireyleri tarafından yapılan açıklamalarda, ChatGPT’nin içerikleri dolaylı olarak intihara yol açtığı öne sürülüyor. Ancak OpenAI, sistemin otomatik olarak etik yönergeler ile donatıldığını ve kullanıcılarına zararlı eylemleri tetikleme ihtimali olmayan bilgiler sunduğunu iddia ediyor. Şirket, bu olayın detaylı bir şekilde incelenmesi gerektiğinin altını çizerken, ailelere başsağlığı dileklerini ileterek benzer olayların önlenmesi için daha güçlü mekanizmalar geliştirmeye kararlı olduklarını vurguladı.
Hukuki süreç devam ederken, AI teknolojileri ve onların insan hayatı üzerindeki etkisi konusu hem kamuoyu hem de teknoloji dünyasında geniş çapta tartışılmaya devam ediyor. Bu davanın sonucunun, yapay zeka platformlarının etik sorumluluklarının sınırlarının daha net çizilmesinde etkili olması bekleniyor.



























