Gazeteci Fulya Soybaş yazısında şunları kaleme aldı:
Yani artık “Dr. ChatGPT” popüler. Ama dikkat! Sofra tuzunu (sodyum klorür) azaltmak için ChatGPT’den diyet isteyen 60 yaşındaki ABD’li bir adam, 3 ay boyunca klorür yerine sodyum bromür kullanınca ölümden döndü. “Benim başıma gelmez” demeyin. Çünkü uzmanlar her gün ChatGPT’nin yanlış tanı koyduğu en az 2-3 hastaya dert anlatmaya çalıştıklarını belirterek, “Bıktık” diyor ve uyarıyor: “Test ve tahlilleri yapay zekâya yorumlatmayın.”
OpenAI'den açıklama: ChatGPT sağlık tedavisi için tasarlanmadı
Kendisini komşusunun zehirlediğini iddia ederek paranoyak davranışlar sergileyen, işitsel ve görsel halüsinasyonlar yaşayan 60 yaşındaki adam, 3 haftalık tedavinin ardından taburcu edildi. ChatGPT’nin üreticisi OpenAI da olay üzerine bir açıklama yaptı, “ChatGPT herhangi bir sağlık durumunun tedavisinde kullanılmak üzere tasarlanmamıştır, önerileri profesyonel tavsiye yerine geçmez. Riskleri azaltmak için güvenlik ekiplerimiz çalışıyor ve kullanıcıları profesyonel rehberliğe yönlendirecek şekilde sistemlerimizi eğitiyoruz” ifadelerine yer verdi.
Ne kadar gelişirse gelişsin önerileri hekim yorumuna muhtaçtır
Tıbbı Onkolog Prof. Dr. Özlem Sönmez, “Bıktık! Her gün elinde ‘Yapay zekâ böyle söyledi’ diyerek çıktıyla gelen hasta var” diyor. En az Dr. Google kadar, Dr. ChatGPT’den de dertli. Hastasıyla diyaloğundan örnek veriyor:
“Entelektüel, sosyo-ekonomik düzeyi iyi bir hasta. Yani bu durumun cehaletle bir alakası yok. Nisanda kontrolü vardı, geldi ve dedi ki ‘İlaçlarımın değişmesi lazımmış.’ Başka bir doktordan görüş aldı diye düşündüm, ‘Kim önerdi’ dedim. Dedi ki: ‘ChatGPT.’ Tahlillerini yüklemiş, ChatGPT’de ona acilen ilaçlarının değişmesi gerektiğini söylemiş.
Aynı ChatGPT bana başka sonuç verdi
“Burada kocaman bir yanlış var. Yapay zekâ uygulamalarından tanı ve tedavide bizler de faydalanıyoruz. Ancak ve ancak tek bir sonucu değil elimizdeki tüm verileri giriyoruz sisteme. ‘Otur’ dedim hastama, sonuçları bir de ben sordum ChatGPT’ye. Şimdi ve geçmiş patoloji sonuçlarını, kan tahlillerini, tedavi oranlarını, hangi tedavileri, hangi doz ve hangi sıklıkta, ne kadar süredir aldığını yükledik. Çıkan sonuç bambaşkaydı ve yine de yoruma muhtaçtı.”
Sağlığınız bu kadar ucuz olmamalı
“Sağlığınız da bu kadar ucuz olmamalı. Doğru tanı için hastayı tanıyan, hastalık geçmişini bilen doktor yorumu şart. Yapay zekâ ne kadar gelişirse gelişsin hep, yoruma muhtaç olacaktır. Çok rica ediyorum, test ve tahlil sonuçlarını yapay zekaya yorumlatmayın, sonra çok pişman olursunuz.”
Mucize ilaç diye bir şey yok
Hazır yeri gelmişken, kanser geçmişi olan bir gazeteci olarak, “Kansere iyi gelen ‘mucize’ bir ilaç, bir bitki ya da takviye- besin var mı?” diye de sordum. Zira tedavim ve sonrasında da “zerdeçal” lobisi tarafından köşeye kıstırılmıştım. Son dönemde “metilen mavisi” adı verilen sentetik bir boya sosyal medyada kanseri önlediği iddiasıyla, oyuncu ve fenomenler tarafından öneriliyor. Cevabı şu: “Kanser üzerine etkili,‘kesin’ sonuç veren ne bir bitki ne bir besin ne de takviye var. Kanser ve benzeri hastalıklar ve tedavileri komplekstir, hastalık da tedavisi de bireye özgüdür. Dolayısıyla bana iyi gelen seni hasta edebilir. Şu kesin; hiçbir ot- besin- takviye, ‘mucize’ değildir. Yediğimiz, içtiğimiz her şey zehirdir, önemli olan miktarıdır. Kim diyorsa ki ‘Al şunu ye, al şunu iç de kanserin temizlensin’ bilin ki buradan bir çıkarı vardır.”
ChatGPT bilgi veremez tavsiyeleri hastanelik edebilir
Genel Cerrah, Prof. Dr. Bülent Çitgez de benzer şekilde Dr. ChatGPT yorgunu: “Ne kadar da meraklısı var. Kan tahlilini de yorumlatıyorlar kahve falına da baktırıyorlar, spor dersi de alıyorlar. Pes!” diyor, şöyle devam ediyor: “Birkaç hastamda ben de yaşadım. Onca sene boşuna okumuşuz demek! Bana inanmıyor, ona inanıyor. Çok tehlikeli bir durum. Oysa bu sohbet botları bir öneride bulunurken interneti tarıyor, bilgiyi değil. Takdir edersiniz ki internette de sadece doğru bilgi yok! Dolayısıyla yanlışı da süzgeçten geçirip, önünüze koyuyor. Bir filtrelemesi yok. Ayrıca ChatGPT gibi botlar, büyük dil modellerinin kelime dizilerini istatistiksel olasılıklara göre üretirler. Yani bilgiyi doğrulamazlar. Bu sebeple önerilerini sorgulamadan uygulamak tehlikeli sonuçlar doğurur. ABD örneğinde olduğu gibi. ChatGPT’nin verdiği öneri ve tavsiyeler bir uzmanın yorumuna muhtaçtır.”
Rekabet etiğine de aykırı
“Yanı sıra insanlar sadece hastalık değil ChatGPT’den hekim de arıyor. Doktorların reklam vermesi yasak. Ama internette kişisel sayfalar, tanıtımlar ve arama motoruna ilan/reklam verenler gırla... ChatGPT de bir öneri verirken internet tabanını arıyor ve önce bu tanıtım ve ilanlara ulaştığı için bu kişileri tavsiye ediyor. Bu hem yanlış yönlendirmedir hem de rekabet etiğine aykırıdır. Kabul edilemez” yorumu yapıyor.