Yapay zekaya "sahte doktor" davası: Yalan söylemeyi mi öğreniyor?
Yapay zeka dünyası, "halüsinasyon" ve "etik sınırlar" tartışmalarıyla çalkalanırken, ABD’den emsal niteliğinde bir hamle geldi. Pennsylvania eyaleti, popüler yapay zeka platformu Character.AI’a karşı, platformdaki sohbet botlarının kendilerini "lisanslı doktor" olarak tanıtması ve tıbbi tavsiye vermesi gerekçesiyle kapsamlı bir hukuk mücadelesi başlattı.
ABD'nin Pennsylvania eyaleti, yapay zeka tabanlı sohbet platformu Character.AI'a karşı dikkat çeken bir dava açtı. Eyalet yönetimi, platformdaki bazı sohbet botlarının kendilerini lisanslı doktor gibi tanıttığını ve kullanıcıları yanıltabilecek ifadeler kullandığını öne sürdü.
Dava, bir eyalet yönetiminin doğrudan bir yapay zeka şirketine karşı başlattığı ilk büyük yaptırım süreçlerinden biri olarak değerlendiriliyor.
"İNSANLAR KİMİNLE KONUŞTUĞUNU BİLMELİ"
Pennsylvania Valisi Josh Shapiro, konuyla ilgili yaptığı açıklamada özellikle sağlık alanındaki yapay zeka uygulamalarına dikkat çekti. Shapiro, vatandaşların internette iletişim kurdukları sistemlerin kim ya da ne olduğunu açık şekilde bilmesi gerektiğini söyledi.
Eyalet yönetimi tarafından mahkemeye sunulan dilekçede, platformda yer alan bazı karakterlerin kullanıcılarla "uzman doktor" kimliğiyle iletişim kurduğu ifade edildi.
SAHTE LİSANS İDDİASI
Dava dosyasına göre eyalet müfettişlerinden biri platform üzerinde "psikiyatri" araması yaptı. İnceleme sırasında kendisini psikiyatrist olarak tanıtan çeşitli yapay zeka karakterleriyle karşılaşıldığı belirtildi.
Özellikle "Emilie" isimli bir botun hem Pennsylvania'da hem de Birleşik Krallık'ta lisanslı psikiyatrist olduğunu iddia ettiği öne sürüldü. Aynı botun, kendisine yöneltilen "ilaç yazabilir misin?" sorusuna ise doktor yetkisine sahip olduğunu ima eden bir yanıt verdiği aktarıldı.
Pennsylvania yönetimi, bu ifadelerin eyalette geçerli olan Tıbbi Uygulama Yasası'nı ihlal edebileceğini savunuyor.
ŞİRKETTEN İLK AÇIKLAMA GELDİ
Character.AI ise dava hakkında doğrudan yorum yapmaktan kaçındı. Şirket, Reuters'a yaptığı açıklamada platformdaki karakterlerin kullanıcılar tarafından oluşturulduğunu ve bunların tamamen kurgu ile rol yapma amacı taşıdığını belirtti.
Açıklamada ayrıca kullanıcıların gerçek uzmanlarla kurgusal karakterleri ayırt edebilmesi için yeni güvenlik önlemleri üzerinde çalışıldığı ifade edildi.
DAHA ÖNCE DE GÜNDEME GELMİŞTİ
Character.AI son dönemde farklı davalarla da gündeme geldi. Şirkete yönelik önceki suçlamalar arasında çocuk kullanıcıları zararlı davranışlara yönlendirme ve bazı sohbetlerin psikolojik risk oluşturduğu iddiaları yer aldı.
Florida'da açılan bir davada ise 14 yaşındaki bir çocuğun intiharına platformdaki bir sohbet botunun etkisinin bulunduğu öne sürülmüş, süreç daha sonra uzlaşmayla kapanmıştı.
MAHKEMEDEN TEDBİR TALEBİ
Pennsylvania yönetimi, mahkemeden platformdaki sohbet botlarının kendilerini lisanslı doktor, psikiyatrist veya sağlık profesyoneli gibi göstermesini engelleyecek geçici bir tedbir kararı verilmesini istedi.
Davanın, yapay zeka sistemlerinin sağlık alanındaki sınırları ve yasal sorumlulukları konusunda ABD'de emsal oluşturabilecek gelişmelerden biri olabileceği değerlendiriliyor.