
'Yapay zekaya gazetecilik etiği şekil vermeli'
- 09:01 2 Eylül 2025
- Güncel
Melike Aydın
İZMİR - Erkek egemenliğinin bir yansıması olan dezenformasyonu, yalan haber üretimini yapay zekanın daha da kolaylaştırmasına karşılık, hak savunuculuğun yükseltilmesi gerektiğini ifade eden teyit.org kurucularından Gülin Çavuş, gazetecilere düşen görevin işin etik tarafını dile getiren aktörlere söz vermek olduğunu ifade etti.
Yapay zekanın gelişmesi gazeteciliğin yeni bir forma girmesini beraberinde getirirken, halkın haber alma ve ifade özgürlüğüne dair sorunlara da farklı boyutlar ekliyor. Yapay zeka, erkek egemenliğinin yansıması olarak dezenformasyonun, “deep fake” görsellerin, yalan haber üretiminin giderek daha kolay hale geldiği gibi, bu türden sahteciliklerin tespitini sağlayabilecek şekilde gelişime açık bir uygulama. Bu alanda hak savunuculuğunun geliştirilmesi gerektiğini dile getiren teyit.org’un kurucularından Gülin Çavuş, bağımsız, açık kaynaklı kodlarla geliştirilen, topluluk kontrolünde yapay zeka sistemleri kurmaya çalışan kuruluşların varlığına işaret ediyor.
Buradaki etik sorunların altını çizen, bu modelleri yakından inceleyen, belirli kontrol mekanizmaları talep eden aktörleri güçlendirmek gerektiğine dikkat çeken Gülin Çavuş, gazetecilere düşen en büyük payın, sesi bastırılmaya çalışılan ama işin etik tarafını dile getiren aktörleri göstermek olduğunu belirtiyor.
“Günün sonunda yapay zeka da burada başka bir katmanını oluşturuyor. Ama nasıl etkileyecek? İşin doğası değişecek, buna hazırlıklı olmak gerekiyor. Çünkü oradaki bazı gazeteciler için de zor olan süreçlerin kolaylaşabileceği bir yapıyı da görüyoruz.”
*Yapay zeka gazeteciliği nasıl etkileyecek; gazetecilik biter mi yoksa başka bir forma mı girer? Araştırma, teyit etme, yazım gibi süreçler nasıl etkilenir bu durumdan? Gazeteci eskiden bilgiyi edinir ve sunardı; yapay zeka ile gazeteci denetleyen konumuna mı geliyor? Sahanın önemi ne olacak? Gazeteciler yapay zekadan nasıl faydalanmalı, gazeteciliğin etiği ne olmalı bu anlamda?

Yapay zeka gazeteciliği bitiremez. Zaten en başta sınırı çizmemiz gereken yer, sınır gazetecilik nedir, biz bundan ne anlıyoruz? Bugün zaten o ideal gazeteciliği yapıyor muyuz? Ya da ulaşabiliyor muyuz? Ve insanlar bu tür yayıncılığı gazetecilik olarak görüyor mu, görmüyor mu? O yüzden temel başka sorunlar da var. Tek başına yapay zeka ya da gelişen teknolojiler gazeteciliği bitirebilecek bir güçte değil ama bunu zaten hem ideolojik sebepler hem gelir modelleri sıkıntıları gibi nedenler zaten bunları besliyor. Günün sonunda yapay zeka da burada başka bir katmanını oluşturuyor. Ama nasıl etkileyecek? İşin doğası değişecek, buna hazırlıklı olmak gerekiyor. Çünkü oradaki bazı gazeteciler için de zor olan süreçlerin kolaylaşabileceği bir yapıyı da görüyoruz. Burada işte çok büyük verilerle uğraşan, verilerle ilgilenen gazeteciler için örneğin o verilerin kazanılması, derlenmesi, anlamlı bir veri setine ulaşılması gibi konularda kesinlikle gazetecilere hız kazandırır.
En önemli şey yine bu AI’ın ortaya çıkardığı çıktılar ya da sonuçlar tek başına hiçbir zaman değerlendirilmemesi gerekiyor. Pek çok kurum da gazetecilik üzerine çalışan ve AI gelişmelerini değerlendiren kurum da özellikle buranın altını çiziyor. Buradaki denetleyen konumda insanın kalması her zaman önemli. Zaten o editöryal bakış açısı, editöryal pozisyon gazeteciliği gazetecilik yapan şey bir yandan da, sizin nereden baktığınız, kim olduğunuz. O yüzden AI da bu şekilde kullanıldığında gazetecilik için çok faydalı olabilecek bir şey. O yüzden de gazetecilik bundan nasıl faydalanacak, buraya bakmak lazım. Bundan yararlanan birçok medya kuruluşu var zaten. Bunları belki örnek almak ve neler yapılabileceğini keşfetmek gerekiyor. Ama orada da yapay zekaya bir teslimiyet olmaması gerekiyor. Daha çok bir denetleme ve daha teknik konularda destek gibi algılamak lazım.
Sahadaki gözlem ve gazetecinin gazeteci olarak fiziksel olarak bir yerde olmasının yaratabildiği o bağ, o iletişim biçimi bence şu an herhangi başka bir teknolojik gelişmenin yapabileceği bir şey değil. Mesela Gazze’de bir olay yaşandığında insanların çektiği acıyı, oradaki katliamı bize gösteren, oradaki sahanın önemi giderek artacak. Sahadan o bilgiyi kaynağından alan ve ulaştıran kişiler önem kazanacak. O yüzden saha haberciliği de bitmez ama oradaki verileri yine anlamlandırmak, toparlamak için AI kullanılabilir. Örneğin birden çok video çekildiğinde bir alanda, diyelim kriz ortamından bahsediyoruz. Bu görüntülerin birleştirilmesi ve bir bütünlük sağlaması ve analiz edilebilmesi için mesela yapay zeka araçlarından yararlanılabilir.
“Bugün yine haberlerin çoğunluğu daha hâkim olduğu ataerkil bir bakış açısıyla, daha ayrımcı bir bakış açısının birleştiği bir dünyadan bahsediyoruz.”
*Yapay zekaya yazdırılan haberlere güvenebilir miyiz? Doğru bilgiyi etik bir dille, insani değerler çerçevesinde sunabilir mi? Özellikle kadın odaklı haberlerde çok önemli bir şey bu. Yapay zeka ile otomatik olarak haber yazılmasını etik olarak nasıl değerlendirmek gerekir?
Yapay zekaya kesinlikle koşulsuz güvenemeyiz. Yapay zeka bizden bağımsız, geliştirdiğimiz içeriklerden beslendiği için neyle besleniyorsa o sonuçları verecek. Özellikle yapay zekanın etik tartışmalarından biri de bu. Yapay zeka modeli ne kadar cinsiyetçi bir dili var gibi şeyler birçok araştırmacı tarafından tespit edilmeye çalışılıyor. O yüzden de şunu akılda tutmak lazım; yani o filtreleri, o modelleri çalıştıracak ve bunları besleyecek verilerin bizim tarafımızdan da kesinlikle müdahaleye açık olması gerekiyor. Açık kaynaklı modeller her zaman daha sağlıklı.
O modeli alıp kullandığımızda, bugünkü haberlere bakıp karşınızda nasıl bir tablo varsa yine yapay zekanın size sunabileceği bu kadar. Bugün yine haberlerin çoğunluğu daha hâkim olduğu ataerkil bir bakış açısıyla, daha ayrımcı bir bakış açısının birleştiği bir dünyadan bahsediyoruz. O yüzden oradaki verilen neyse, bize onu verecek. O yüzden yine gazetecinin perspektifi, bu yapay zekayı kullanırken onu sürekli değerlendirmesi mutlaka gerekiyor.
Bunu arama motorlarında da görüyoruz. Hep daha popüler olanın algoritmanın öne çıkardığını görüyoruz. Yapay zeka modelleri de böyle. Popüler olanın, daha çok tekrarlananın karşımıza çıktığı bir yer. O yüzden de bizim oradaki haber de, yapay zekayı kullanırken içine düşebileceğimiz sıkıntılardan birisi; o bilgi dönüşümünün içerisinde kalıp durmak. Yani yeni kaynakları okuyamamak gibi.
AI modellerinin kendisi zaten çok şeffaf değil. Yine hangi verilerle besleniyorlar bunu bilmiyoruz. Bunları kara kutu algoritması olarak ifade edebiliriz. O yüzden de gazeteciler de o tip yapay zekaları kullanıyorlarsa mutlaka haberlerinde belirtmeleri gerekiyor. Çünkü zaten okuyucu ile gazeteci arasında bulunması gereken bir güven ilişkisi var ve bu çok zedelenmiş durumda.
Bunu eğer tekrardan yapay zeka gibi teknolojilerle bir yere doğru gideceksek, en azından gazetecinin o güveni tekrardan hatırlatması lazım ve insan denetimi nerede, yapay zeka hangi yerlerde rol oynadı gibi... Bunları bilmek ve aktarabilmek gerekiyor. İlla ki AI bir taslak hazırlayabilir, siz veriler verirsiniz, bunların üzerine bir metin hazırlayabilir, bunlarda bir sorun yok. Çeviri de yapabilir. Türkiye'nin en büyük sorunu yanlış çeviridir zaten. Yanlış çeviriler sonucu yanlış haberler yayınlanabiliyor. O yüzden hani o editörlük süzgecinin net ifade edilmesi lazım ve şeffaf bir şekilde yansıtılması gerekiyor.
“Dezenformasyondan rahatsızlık duymuyorsak ya da buna ilişkin bir pozisyon almıyorsak, bunun engellenmesiyle ilişkili biraz daha anlamaya çalışmıyorsak bu durumun da incelenmesi gerekir.”
*Yapay zeka dezenformasyonu besler mi? Yapay zekaya deep fake ile yalan haber veya manipülatif haber yazdırılması riski çok yüksek. Ya da yapay zeka aksi yönde, yani yalan haberi tespit edebilir mi? Buna ne kadar güvenebiliriz?
Yapay zeka dezenformasyonu besleyebilir, tespit edebilir, engelleyebilir de. İkisinin de belli sınırlılıkları var. Çünkü teknoloji niyete bağlı bir şey. Kim bunu hangi niyetle kullanıyor? Büyük dil modelleri çok inandırıcı, çok sahte haber yazabilirler. Deep fake içerik zaten hazırlıyorlar. Kötüye kullanıldığı sürece kötü bir sonuçla karşılaşıyoruz. Bu daha olumlu amaçlar için de kullanılabilir, özellikle kriz anlarında. Seçim dönemlerinde sahte ses kayıtları ya da bir siyasetçinin sahte bir görüntüsünün ortaya çıkarılması gibi sorunlarla karşılaşmaya başladık bile. Ki modeller geliştikçe bence daha tehlikeli olacaktır.
Önemli şeylerden birisi de, bu teknolojik kapasite ve güç kimlerde odaklanıyor? Altı özellikle çizilmesi gereken şey büyük teknoloji şirketleri; modellerini nasıl kullandıkları, nasıl yararlandırdıkları ya da bunları denetleme aşamasında nasıl adımlar attıkları, regülasyonlara ne kadar açık oldukları... O nedenle Çin–ABD arasındaki gerilim biraz da buradan doğuyor. Eğer siz yapay zekanın kullanımına ilişkin belirli önlemler alamazsanız bu yaygınlaşabilir.
Ama aksi yönde çalışanlar da var. Yapay zeka araçlarını teyit sistemleriyle entegre etmeye çalışan birçok kuruluş var. Gazeteciler yine bu yapay zeka sistemlerinin yanlışlarını tespit etmek, kullandığı ayrıştırıcı dili ortadan kaldırmak gibi konuların üzerinde çalışıyorlar. O yüzden yanlış dil, deep fake tespitinde kullanılıyor.
Burada önemli olan buraya ne kadar para yatırıldığı, ne kadar uğraşıldığı veya engellemek/engellememek için çaba sarf edildiği. O yüzden buradaki denge bize bağlı. Biz haber tüketicileri ya da internet kullanıcıları olarak karşımıza çıkan bu tür sahte içeriklerden, dezenformasyondan rahatsızlık duymuyorsak ya da buna ilişkin bir pozisyon almıyorsak, bunun engellenmesiyle ilişkili biraz daha anlamaya çalışmıyorsak bu durumun da incelenmesi gerekir.
Biraz savunuculuğun artırılması gerekir. Çünkü bunun en nihayetinde bir hak olduğunu anlamak gerekiyor. Artık dijital her yerde ve her şeyimiz bu sistemlere bağlı. Ve bu bir insan hakkı sorunu, bir ifade özgürlüğü sorunu. O yüzden buna bu yönden bakıp belki biz biraz daha teknoloji şirketlerine, hükümetlere baskı uyguladığımızda olumlu sonuçlar daha hızlanabilir ve daha iyi sonuçlar alınabilir.
“O yüzden buradaki odakları iyi algılayabilmek lazım. Yani teknoloji şirketlerini hafife almamak gerekiyor. O yüzden meşru olan bazı söylemlerin buralarda engellenmesi çok mümkün.”
*Yapay zeka sansürden nasıl etkileniyor? Yapay zekaya sansür uygulanabilir mi? Algoritmalar ne kadar halkın tarafında bir basın anlayışı üretebilir? Sonuçta bu algoritmaları yöneten, düzenleyen devletler ve sermaye grupları olduğunu unutmamak gerekir. Buna karşı gazeteciler nasıl bir örgütlülük ya da çözüm üretebilir? Dünyada bir yapay zekaya dair yarış mevcut. Bu rekabetten faydalanılabilir mi ya da üçüncü bir taraf üretilebilir mi?
Kesinlikle sansür, büyük şirketlerin kontrolünde olan her yerde gelişiyor. Bunlar yapay zeka öncesinde sosyal medya platformlarının sahipleriydi, şimdi yapay zeka teknolojilerini üreten en büyük aktörlere dönüştüler. O yüzden aynı mesele burada da tekrar ediyor.
Bunların en sonunu zaten ABD seçimlerinde gördük. Donald Trump seçildikten sonra bütün büyük teknoloji şirketleri, yöneticileri ve sahipleri el pençe Trump’ın önünde duruyorlardı. Sonradan gerilimler yaşandı tabii ama bu bence çok önemli. Çünkü onun sonrasında bu şirketler kendi politika belgelerinde pek çok değişiklik yaptılar.
O yüzden de ABD’deki regülasyonları bu şirketlerin istememe sebeplerinin en başında da kendi kararlılıkları geliyor. Kâr perspektifi burada her şeyi belirliyor. O yüzden de sansür, iplerin kimin elinde olduğuna bağlı bir şey olduğundan; kârlılığı önemsediği sürece bu şirketlerde sansür de gerçekleşecek.
Yakın zamanda bunların sonuçlarını gördük. Hükümet politikalarına ters düşebilecek tartışmalara girmediklerini ve bunların arama sonuçlarından çıkarıldıkları gibi sonuçlar var. Çin'in Deep Seek aracında Tayvan Meydanı Olayı’na dair yanıt alınamadı. Çin yapay zekası sansür uyguluyor gibi bir pozisyon alındı. Ama orada bu yapılıyorken, ABD merkezli OpenAI’ın ABD seçimleri sonrası Elon Musk’ın Grok’la yaptıklarını düşününce burada herhalde inkâr edilemez bir politik angajman olduğunu görüyoruz.
O yüzden buradaki odakları iyi algılayabilmek lazım. Yani teknoloji şirketlerini hafife almamak gerekiyor. O yüzden meşru olan bazı söylemlerin buralarda engellenmesi çok mümkün. Yani bu böyle hani ülke tanımıyor, biraz paraya bakıyor gibi görünüyor.
Haberlerden bahsediyoruz, belki sosyal medya, gündelik hayatlarımızdan bahsediyoruz. Ama bu şirketler çok ciddi biçimde savunma sanayine yatırım yapan yerler. En son savunma sanayine yatırım yapanlardan birisi Spotify’ın CEO’su. Gündelik hayatımızdaki bu araçların aslında ne kadar güçlü olduklarını biraz daha iyi anlamak lazım.
Umut tabii ki var. Halkının yanında ya da toplumsal fayda odaklı modeller geliştirilebilir, böyle bir yapay zeka dönemi mümkün, kesinlikle mümkün. Kâr maksimizasyonu merkeze koyan birkaç adam var. Ama bunların karşısında da bir sürü bağımsız, açık kaynaklı kodlarla geliştirilen, topluluk kontrolünde yapay zeka sistemleri kurmaya çalışan, buralara yatırım yapmaya çalışan da kurumlar ve kuruluşlar var.
Bu perspektifi geliştirmek ve genişletmek lazım. Buradaki etik sorunların altını çizen, bu modelleri yakından inceleyen, belirli kontrol mekanizmaları talep eden aktörleri güçlendirmek gerekiyor.
Bence gazetecilere düşen en büyük pay, o sesleri yukarıya çıkartmak. Böyle bir yapay zekanın her iki türlü de anlatımı bana biraz orantısız geliyor. Yani bu böyle bizim hayatımızı karartacak bir kâbus ya da işte bize harika günler vadeden bir ilahlaştırılmış bir şey... Bir araç, bir yol gibi aktarılması da anlamsız geliyor.
O yüzden gazetecilerin en önemli görevi, bu aradaki dengeyi kurabilmek olmalı ve genel olarak da sesi bastırılmaya çalışılan ama işin etik tarafını sürekli dile getiren aktörleri göstermek olmalı.
Ben "eleştirel umut" kavramını kullanıyorum. Yani biz böyle boş umutlarla değil ama sorumluluk alarak, riskleri gören, potansiyelleri anlayan bir perspektiften bir umut beslemeliyiz. Bu gelişen teknolojiler dair de bunu sürekli dillendirmeliyiz. Çünkü bu bir yandan da bir yarış. Bu teknolojiler böyle. İyiler, kötüler gibi bir yarıştan bahsetmiyorum. Ama toplumsal fayda odaklı bu işleri yapmaya çalışan aktörler var. Neyse ki var.
“İnsanların yüzlerini, kendi yüzlerini telifleyebilmesi, copyright hakkı alabilmesi konusunda bir çalışma başlattılar ve bunun Avrupa'da yaygınlaşmasını umut ettiklerini söylediler.”
*Yapay zekanın ürettiği haberlerin telif hakkı kime ait olacak ya da yapay zeka yaptığı yanlış veya yalan haberlerden hesap verebilecek mi? Muhatap kim olacak?
Telif hakkı meselelerinde ülkeden ülkeye değişen uygulamalar var. AI'ların çıktısı teliflenemez deniliyor bazı yerlerde, bazı yerlerde model geliştiren şirketlere yönelik bir telif hakkı düzenlemesi ihtiyacı konuşuluyor. Son döneminde, bugüne kadar hiç olmamış şeylerden birisi AI sonrasında Danimarka'da gündem olan deep fake ile yüz oluşturma, özellikle kadınların karşılaştıkları pornografik içerikler, rıza alınmayan cinsel istismar dokümanları üretilmesi gibi konular çok ciddi konular.
İnsanların yüzlerini, kendi yüzlerini telifleyebilmesi, copyright hakkı alabilmesi konusunda bir çalışma başlattılar ve bunun Avrupa'da yaygınlaşmasını umut ettiklerini söylediler. Yani bunlar önemli. Ama biraz böyle hâlâ belirli tartışmaların çok başındayız. Nereye gideceğine zaman içerisinde görülecek. Ama böyle çok tipik davalardan bir tanesi de OpenAI – New York Times arasında olan dava. 2023 yılında başlayan bir davaydı. OpenAI, New York Times'ın aslında ödememe duvarı arkasındaki haberlerin içeriklerini izinsiz şekilde kendi modelini beslemek için kullandı.
Bunun gibi pek çok bilimsel makaleyi de aslında kullanıyorlar. Bununla ilişkin de çalışmalar var. Orada adil kullanım sınırlarını aşma meselesiyle alakalı bir durum değerlendirmesi var. Davanın seyri tam en son nerede, ne durumda çok iyi bilmemekle birlikte, bunun sonucu bir şekilde o AI şirketlerini ya da AI modellerini geliştiricilerin habercilerle, büyük medya kuruluşlarıyla nasıl bir ilişki kuracaklarına emsal teşkil edeceğini gösterecek bence.
Bu ödeme duvarlarının aşılması meselesi, bunlardan, oralardan bilgilerinin çıkarılması meselesi ciddi bir suç oluyor. O yüzden biraz zaman gösterecek ve buradaki sürecin o hesap verilebilirlik açısından ciddi bir önemi var. Yapay zeka şirketlerinin hangi verileri nasıl kullandığını şeffaf bir şekilde açıklaması gerekiyor. Lisanslı veriler varsa bunları ödemesi gerekiyor.
Ben genel olarak bütün kaynaklar açık olmalı diyorum ama bugünün dünyasında bir gerçeklik var. İçeriklerle ben para verirken AI gibi bir şirketin, buradaki medya kuruluşlarına, gazetecilere herhangi bir ödeme yapmadan bunları kullanabilmesi bence de kabul edilemez.
O yüzden de haber kuruluşları ve yapay zeka şirketleri nasıl bir pozisyon alacak göreceğiz ama bir lisanslama yöntemi illa ki uygulanacaktır.