Habertürk
    Takipde Kalın!
      Günlük gelişmeleri takip edebilmek için habertürk uygulamasını indirin
        Anasayfa Özel İçerikler İdris Kardaş Ansiklopedilerinizi eskicilerden geri alın...
        Sesli Dinle
        0:00 / 0:00

        Daha önce işe yaramadığını düşünerek eskicilere, sahhaflara verdiğimiz ansiklopedilere yeniden ihtiyacımız olabilir. Çünkü artık doğru bilgiye ulaşmak gitgide zorlaşıyor.

        Bir araştırmaya göre internette oluşan içeriğin yüzde 51’i, insan değil yapay zeka temelli yazılımlar tarafından otomatik oluşturuluyor. Yapay zekanın yanlış bilgiyi zaman zaman kasıtlı olarak ürettiğini biliyoruz. Dolayısıyla internet ortamındaki bilgilerin doğruluğuna güvenimiz gün geçtikçe azalacak demektir bu.

        Yapay zekanın ürettiği bilgiyi teyit edeceğimiz kaynaklar da internet ortamında olduğuna ve onlar da yavaş yavaş kirlendiğine göre dijitale mahkûm olan insanlığın temiz bilgiye, doğru bilgiye ulaşma imkânı birkaç yıla tamamen bitebilir.

        Ansiklopedilerdeki tahrip edilmemiş bilgi, bir süre sonra tek kaynağımız olabilir. Yalan bilgilerin tüm sistemi tıkadığı, internet ortamının ve yapay zekanın tamamen kirlendiği noktada Nuh Peygamberin gemisi misali, ansiklopedilerdeki bilgilerle insanlık yeni bir sayfa açmak durumunda kalabilir.

        Detaylandıralım. 2023 yılından iki örnekle yapay zekanın nasıl kirli bilgi üretebildiğine bakalım öncelikle?

        Birinci olay ABD’de geçiyor.

        Hukuk profesörü Jonathan Turley'in e-posta kutusuna, bir akşam oldukça can sıkıcı bir mesaj düşüyor.

        California Üniversitesi'nden bir meslektaşı, bir araştırma yaparken geçmişte tacizle suçlanmış hukukçuların listesini yapmasını yapay zekadan istiyor ve listede Turley'nin adı da yer alıyor.

        Yapay zekaya göre Turley, Alaska'ya yapılan bir sınıf gezisi sırasında bir öğrenciye imalı sözler etmiş ve sarkıntılığa kalkışmış. Hatta bunun için Mart 2018'de Washington Post'ta yayımlanmış bir haber kaynak olarak gösteriliyor. Yani kaynak da dünyanın en tanınan gazetelerinden biri. Ancak işin özü Turley ne Alaska’ya gitmiş ne de böyle bir olay yaşanmış.

        Yapay zeka uygulaması, araştırma yapan meslektaşına başka kişilerin de ismini tacizci olarak vermiş. Yine bu isimler için de Washington Post, LA Times, Miami Herald gibi gazetelerde taciz yaptıklarına dair sözde haberler yer almış. Ama aslında onların da ne taciz dosyaları varmış ne de referans gösterilen gazete haberi gerçekmiş. Burada yapay zekanın halüsinasyonları dışında kaynak gösterilen mecranın da gerçekte olmaması gibi sarsıcı bir durumla karşı karşıya kalıyoruz.

        İkinci örneğimiz de yine ABD’den.

        Roberto Mata adlı bir yolcu, uçuş sırasında servis arabasının çarpması sonucu dizini yaralıyor ve hava yolu firmasına tazminat davası açıyor.

        Mata’nın avukatı elindeki dosyayı güçlendirmek için geçmişte alınmış bir dizi benzer mahkeme kararını dava dosyasına emsal olarak ekliyor.

        Buraya kadar her şey normal. Hatta eklediği emsal kararlar da şunlar;

        Varghese-China Southern Airlines, Shaboon-Egyptair, Petersen-Iran Air, Martinez-Delta Airlines, Estate of Durden-KLM Royal Dutch Airlines ve Miller-United Airlines.

        Ancak havayolu şirketinin hukuk ekibi söz konusu kararları araştırdıklarında bu kararların ve olayların aslında hiç olmadığını keşfediyorlar. Yani avukatın kendi dosyasını güçlendirmek için eklediği kararlar hiç verilmemiş, olaylar hiç yaşanmamış.

        İşin özü avukatın kendini savunmasıyla ortaya çıkıyor. Avukat, dosyasını oluştururken işini kolaylaştırsın diye meğer yapay zeka kullanmış ve yapay zeka da avukatın işine yarayacak şekilde altı adet emsal karar uydurmuş. Evet, tamamen uydurmuş.

        Avukat da yapay zeka tarafından üretilen bilgileri doğru kabul ettiği için direkt dosyaya eklemiş. Otuz beş yıllık avukatın itibarı, olay New York Times gibi gazetelere düştüğü için de maalesef yerle bir olmuş.

        Bu son örnek, hukuk dünyası için çok büyük bir krizin işareti olabilir. Olmamış emsal mahkeme kararlarını veya yaşanmamış içtihatları kullanan hukuk sisteminin bir süre sonra nasıl kilitlenebileceğini düşünelim. Bu kararların gerçekte var olup olmadığını teyit edeceğimiz dijital kaynakların da zamanla kirlendiğini bildiğimizde, büyük bir kriz bizi bekliyor olabilir. Buna yönelik ayrıca önlemlerin alınması şimdiden faydalı olacaktır.

        Bu iki örnekte yapay zekanın kasıtlı şekilde, kullanıcıyla uyumlu olmak için dezenformasyon yaptığını, uydurma haberler ürettiğini ve daha da kötüsü gerçek gazetelerde olmayan haberleri referans gösterdiğini açıkça görüyoruz. Herkesin bildiği tanıdığı gazetelerin referans gösterilmesi, okuyan kişide asla kuşku bırakmıyor. Ama o haberi de yine yapay zeka uydurması olarak görüyoruz. Hatta kimi örneklerde sahte haberin sosyal medya paylaşımının görüntüsü de yapay zeka tarafından üretiliyor ve okuyucuda en ufak bir şüphe bırakmıyor.

        En baştaki araştırmaya tekrar dönelim.

        2025 Imperva Kötü Bot Raporu, 2024 yılında küresel internet trafiğinin yüzde 51'inin, bot olarak bilinen otomatik programlar tarafından oluşturulduğunu söylüyor. Bunların önemli bölümü kötü botlar. Yani uydurma haber üretimi artık kötü botların kontrolüyle hızla artıyor. İnsan faktörü gitgide azalıyor.

        Malum, yapay zeka internette üretilen bilgiden besleniyor. Yani hammaddesi internet ortamı. Ama aynı zamanda internetteki bilgiyi de daha çok yapay zeka üretmeye başlıyor. Bu tam bir kapalı devre sistemi. Dolayısıyla bir Frankenstein ile karşı karşıyayız. Büyük bir kısır döngü, büyük bir paradoks içerisindeyiz.

        İşte bu noktada doğru bilgi üreten medya mecralarına, teyit konusunda araştırmacı gücü yüksek insan gücüne ihtiyacımız olacak. Endüstriyel bilgi üretimi çok yüksek olsa da el işçiliğine ihtiyacımız olacak. Daha iyi araştıran, kadim bilgiyi, temiz bilgiyi bu devasa bilgi kirliliği içerisinden çekip alacak insanlara ihtiyacımz olacak. Ne kadar hız dünyasında olursak olalım, insanlığın artık hızlı haber verene değil, doğru haber verene ihtiyacı olacak. Elbette mübalağa ile söylüyorum ama bir süre sonra elimizde kaynak olarak sadece ansiklopediler kalabilir.