ANKARA (AA) - ŞEYMA GÜVEN - Uzmanlar, üretken yapay zekayla oluşturulup dijital platformlarda hızla yayılan manipülatif içeriklere karşı uyararak, bu içeriklerin denetim altına alınması için teknoloji şirketlerinin daha fazla sorumluluk üstlenmesi ve kapsamlı yasal düzenlemelerin hayata geçirilmesi gerektiğini vurguladı.
Anadolu Ajansının (AA) 'Yapay Zekanın Etik Sınavı' başlıklı dosyasının bu haberinde, yapay zeka üretimi görsel ve videoların dezenformasyondaki rolü, algoritmaların gerçeklik algısı üzerindeki etkisi, mahremiyet ihlalleri ve içerik denetiminde teknoloji şirketlerine düşen sorumluluklar ele alındı.
Ankara Üniversitesi İletişim Fakültesi Yeni Medya ve İletişim Bölümü Öğretim Üyesi Doç. Dr. Şafak Etike, AA muhabirine yaptığı açıklamada, sosyal medya algoritmalarının, insanların ilgili platformda daha fazla vakit geçirmesini sağlamaya dayandığını, duygulara ve hassas konulara yönelik dikkat çekici içeriklerin, yanlış ya da sahte olsalar bile yüksek etkileşim alarak hızla yayıldığını anlattı.
Bu durumun gerçeklik algısı üzerinde önemli etkileri olduğunu, sahte içeriklerin doğru zannedilmesi ve insanların manipülatif yönlendirmeler karşısında savunmasız kalması anlamına geldiğini ifade eden Etike, 'Artık neyin gerçek, neyin sahte olduğuna ilişkin değerlendirme yapmak çok zor hale geliyor.' dedi.
Etike, medya kuruluşlarının herhangi bir görsel ya da yazılı içeriği kullanmadan önce kesinlikle doğrulatması, yanlış bilgi içeren ya da sahte bir içeriği asla paylaşmaması gerektiğini belirtti.
Dünya genelinde üretken yapay zekayla oluşturulan içeriklere yönelik çeşitli düzenlemeler geliştirilmeye çalışıldığını ifade eden Etike, 'Bu sorunlar karşısında sorumluluğu ve doğabilecek olumsuz sonuçların yükünü bireysel kullanıcıya bırakmak maalesef çok ciddi riskler taşıyor. Bu görselleri ve içerikleri üreten, bu içerikleri üretebilecek araçları üreten şirketlere çok önemli sorumluluklar düşüyor ve bu sorumlulukların yasalarla düzenlenmiş olması gerekiyor.' diye konuştu.
- 'İnsan becerisinin çok üstünde bir hızla ilerliyor'
Doç. Dr. Etike, teknoloji şirketlerine düşen sorumluluklara değinerek, üretken yapay zekayla oluşturulmuş görsellere filigran koyulması gerektiğini vurguladı.
Sosyal medya platformlarında üretken yapay zekayla üretilen içeriklerin bu doğrultuda etiketlenmesi ve içerikleri oluşturan kişilerin de bu bilgiyi vermesinin önemine işaret eden Etike, 'Tabii ki medya okuryazarlığı, dijital okuryazarlık ya da yapay zeka okuryazarlığının da geliştirilmesi bunun bir parçası. Ama sahte ya da yönlendirme amaçlı içeriklerin tespit edilmesinde esas sorumluluk, bu teknolojiyi üreten ve bunların dağıtılmasını sağlayan şirketlere düşüyor.' dedi.
Etike, medya okuryazarlığı eğitimlerinin yeni gelişmeler çerçevesinde güncellenmesi gerektiğini ifade ederek, bu teknolojinin toplumsal sonuçlarının neler olabileceği ve bilgiyle kurulan ilişkinin nasıl dönüştürebileceğinin öğretilmesinin önemine dikkati çekti.
Üretken yapay zeka içerikleriyle ortaya çıkabilecek hak ihlallerine de değinen Etike, 'Sıradan bir vatandaşın görüntüsünü alıp onun kişisel haklarına, mahremiyetine zarar verecek şekilde kullanmayı da mümkün hale getirdiği için asla geri dönülemeyecek, insanın itibarını ortadan kaldırabilecek ve uzun süre tamir edilemeyecek olaylar da yaşanabilir.' uyarısında bulundu.
Etike, söz konusu içerikleri gerçekliğini bireysel olarak ayırt etmenin çok zor olduğunu belirterek, şunları kaydetti:
'Ne kadar bilgi sahibi olursanız olun, çıplak gözle bunu ayırt edemeyebilirsiniz. Bu teknoloji hızla ilerlediği için ayırt etmek yakın zamanda tamamen imkansız hale gelecek. Bazı teknik olanaklardan, yine yapay zeka algoritmalarından faydalanılarak, doğrulama, teyit algoritmaları, dedektörlerden faydalanılarak yapılabilir. Fakat bu kısır döngüye giriyor, doğrulama algoritmaları geliştiriliyor ve onu aşacak bazı algoritmalar gelişiyor, kısır döngü içinde bu teknoloji çok ciddi bir hızla ilerliyor. Bu ilerlemeye bizim kişisel olarak adapte olmamız çok zor çünkü bu insan becerisinin çok üstünde bir hızla ilerliyor bu teknoloji. Dolayısıyla bunu doğrulamanın yapılmasında teyit platformlarına, doğrulama platformlarına ve haber kuruluşlarına çok önemli işler düşüyor.'
- 'Gerçek, ticari amaçlar karşısında görünmez hale geliyor'
Etike, üretken yapay zekada kullanılan verilerin ön yargılı ve ayrımcı olmaması, algoritmaların şeffaf olması, hesap verilebilirlik gibi bazı etik ilkelerin sağlanması gerektiğini belirtti.
Etik standartların düzenleme için yeterli olmadığını vurgulayan Etike, şu açıklamalarda bulundu:
'Algoritmik ayrımcılık, ön yargı ya da dezenformatif bazı içeriklerin üretilmesi gibi sorunlar, sadece teknik meseleler değil. Yani sadece etik standartlar belirleyerek ya da teknik birkaç önlem alarak bunları düzeltmek mümkün olmuyor. Çünkü bu algoritmaların geliştirilmesinde tamamen tasarımcıların kendi dünya görüşleri ve kendi kavramsal setleri belirleyici oluyor. Dolayısıyla burada teknik düzenlemeler yerine daha çok bu teknolojinin ne için, hangi amaçla ve kim tarafından kullanılmak üzere tasarlandığı ve geliştirildiği önemli hale geliyor.
Büyük teknoloji şirketleri medya ya da gazetecilik için teknoloji ürettiğinde bunu kendi amaçları ve kendi kavramsal çerçevesinde yapıyor. Dolayısıyla bizim gazetecilik amaçlarımız, kamusal fayda, bilgi, doğruyu, gerçeği göstermek gibi birtakım amaçlarımız bu ticari amaçlar karşısında görünmez hale geliyor. Eğer algoritmalar bu işte belirleyici hale gelirse, bu algoritmaların kim tarafından tasarlandığı önemli bir sorun olarak karşımıza çıkıyor. Sadece etik rehberleri hazırlamak ya da etik standartlar oluşturmak değil, aslında bu 'teknolojinin sahipliği' sorununa kadar uzanıyor.'
- 'Etik ve medya okuryazarlığı kavramını geliştirmemiz gerekiyor'
Ankara Üniversitesi İletişim Fakültesi Yeni Medya ve İletişim Bölümü Başkanı Prof. Dr. Onur Dursun da üretken yapay zekayla oluşturularak sansasyon yaratan ya da doğruları çarpıtan, dezenformasyon kapsamında değerlendirilebilecek içeriklerin, gerçeklere dayanan görüntülü medya içeriklerini de sorunlu hale getirdiğini söyledi.
Dursun, 'İnsanlarda 'Bu kim tarafından üretildi, gerçekten bir insan tarafından mı yoksa yapay zeka uygulamaları tarafından mı?' şeklinde bir algı var. Yaş ayrımı yapmaksızın hemen hemen herkesin kafasında artık bu tür soru işaretleri oluşuyor.' dedi.
Manipülatif içeriklerin, kitlesel patolojiye neden olabildiğine ve doğal afetler, toplumsal krizler söz konusu olduğunda insanlarda tedirginliği artırabildiğine işaret eden Dursun, 'Sadece yapay zeka ile üretilen içeriklerin tümüyle toplumları manipüle ettiği çok totalist bir yaklaşım, bu doğru değil ama manipüle eden ve insanları etkileyen içerikler de söz konusu.' ifadesini kullandı.
Üretken yapay zekanın kullandığı verinin özgünlüğünün de tartışmalı noktalardan biri olduğunu belirten Dursun, üretilen içeriklerin manipülatif olabilmesinin yanı sıra, emek hırsızlığı ve intihale de yol açabileceğini vurguladı.
Mahremiyet ihlalinin medyada sorun teşkil ettiğini ifade eden Dursun, 'Gözetim toplumu, gözetim kavramı çıktı, dijital izlerimiz oluşuyor, internette her hareketimiz birileri tarafından görülüyor. Bunlar zaten başlı başına mahremiyet ihlalleriydi. Yani buna sadece yapay zeka neden oluyor demek istemiyorum, bu zaten vardı. Ama yapay zeka bunu üst noktalara çıkardı. İnsanlarda teknolojiyle ilgili kaygılar geliştirdi.' diye konuştu.
Dursun, sansürün doğru yaklaşım olmadığını ancak hak ihlallerini önleyecek ve dezavantajlı grupları koruyacak çeşitli yasal önlemlerin alınması gerektiğini ifade ederek, bilinçli kullanımın önemine dikkati çekti.
Karşı propaganda, itibarın zedelenmesi gibi amaçlarla kişilere ya da gruplara zarar verecek içeriklerin üretilebileceğinin altını çizen Dursun, 'Etik eğitim, değer eğitimi, insan kavramı, bunların öğretilmesi gerekiyor. Bu eğitim de ilkokuldan başlamalı. Medya okuryazarlığı kavramını geliştirmemiz gerekiyor, dijital okuryazarlığı, insani ve ahlaki değerleri öğretmemiz gerekiyor.' açıklamasında bulundu.




