1. Ana Sayfa
  2. Yapay Zeka
  3. Yapay Zekanın Etik Sorunları

Yapay Zekanın Etik Sorunları

yapay zeka

Yapay zeka insan işçilerin yerini alacak mı?

Abone Ol

Birçoğu için en acil endişe, AI özellikli sistemlerin çok çeşitli sektörlerdeki işçilerin yerini alacağıdır. AI, işler bağlamında atıfta bulunulduğunda karışık duygular ve görüşler getirir. Ancak, yapay zekanın bir iş katili olmadığı,daha ziyade, bir iş kategorisi katili. Her teknoloji dalgasında olduğu gibi, erken sanayi devriminin otomatik dokuma tezgâhlarından günümüzün bilgisayarlarına kadar, işlerin yok olmadığını görüyoruz, daha ziyade istihdam bir yerden başka bir yere kayıyor ve tamamen yeni istihdam kategorileri yaratılıyor. Yapay zeka destekli ekonomide aynı şeyi bekleyebiliriz ve beklemeliyiz. Araştırma ve deneyim, AI’nın özellikle ulaşım, perakende, devlet, profesyonel hizmet istihdamı ve müşteri hizmetlerinde tüm çalışma kategorilerinin yerini almasının kaçınılmaz olduğunu göstermektedir. Öte yandan şirketler, insan kaynaklarını siparişlerini almak, basit müşteri hizmeti talepleri veya şikayetleri veya veri girişi ile ilgili görevler yerine çok daha iyi, daha değerli işlere koymak için serbest kalacaklar. 

Gerçekten de, dijital dönüşümün bu yeni çağına geçiş, yapay zekanın gücü olsun olmasın, işgücü yerinden edilmesiyle ilgili endişeler yaratmaktadır. Yapay zekanın yaptığı tek şey belirli iş süreçlerinde dijital dönüşümü hızlandırmak. Özellikle, deneyim ve araştırmalar, yapay zekanın insanı tamamen değiştirmek yerine insanların işlerini daha iyi yapmasına yardımcı olduğu ve artırdığı istihbarat yaklaşımlarını benimseyen şirketlerin sadece kuruluşlar için daha hızlı ve daha tutarlı bir yatırım getirisi göstermediğini gösteriyor.  İnsanlar makinelerin yerini almak yerine makinelerle çalışmak konusunda kendilerini daha rahat hissederler.

Sahte medyanın yükselişi ve dezenformasyon: Yapay zeka bunu daha da kötüleştirecek mi?

Yapay zeka sistemleri, sahte görüntüler, videolar, sohbetler ve her türlü içerik oluşturmada gerçekten iyi oluyor. Duyduğumuz, gördüğümüz ve okuduğumuz her şeye inanmakta zaten zorlanıyoruz. Artık bir görüntünün gerçek mi yoksa yapay zeka tarafından mı oluşturulduğunu ya da bir botla mı yoksa gerçek bir kişiyle mi konuştuğunuzu anlayamıyorsanız ne olur? Siyasi propaganda yapan 2016 ABD Başkanlık seçimlerinde botların oynayacağı bir rol olduğu yaygın olarak bildirildi. Bu otomatik sosyal medya hesapları, seçmenleri manipüle etmeye ve partizan anlaşmazlığının ateşini körüklemeye çalışan internette yanlış bilgi yaratmaya ve yaymaya yardımcı oldu. İnsanlardan farklı olarak, botları asla 7/24 çalışmak yormaz ve çok kısa sürede çok miktarda içerik üretebilir. Başkalarıyla paylaşılıp tekrar tweetlendikten sonra, bu haber viral, doğru ya da değil olmaya başlar ve neredeyse durdurulamaz. Bu botlar, yanlış veya ağır şekilde değiştirilmiş gerçekleri yaymada, mesajları güçlendirmede ve düşünce ve fikirleri insanların kafalarına koymada etkilidir. Suçlular ve devlet aktörleri, kişisel veya ticari zarara neden olmak veya hükümet operasyonlarına müdahale etmek için sahte görüntüler veya sesler kullanabilirler. Şimdi gereken tek şey, kamuoyunu travmatik olarak değiştirmek ve halkın görüşünü hızla değiştirmek için yanlış iddialarda bulunan birkaç kötü niyetli aktör.

Hükümetler ve şirketler, yapay zeka destekli içerik yaratmanın getirdiği potansiyel zararda nasıl hüküm süreceklerini düşünmek zorunda kalacaklar. Aslında, şirketleri ve hükümetleri sahte içeriği siber güvenlik tehditleri kadar kötü niyetli olarak görmeye ve uygun şekilde yanıt vermeye teşvik ediyoruz. Propaganda, dezenformasyon, kötü niyetli müdahale, şantaj ve diğer “bilgi suçu” biçimleri, sistemlere yönelik fiziksel ve elektronik saldırılar kadar zararlı olabilir. Dünya, AI’nın korunmasız vatandaşları serbest bırakması için hazırlıksızdır. Kullanıcı tarafından oluşturulan içerikte serbestçe trafik çeken şirketler, hükümetler kadar kötüye kullanımı engellemekle yükümlüdür.

[mailpoet_form id=”1″]

Kötü insanların AI teknolojisine kolay erişimini istiyor muyuz?

Yapay zeka çok iyi bir iş yapabilirken, kötü niyetli kullanıcıların elinde Yapay Zeka konusunda dikkatli olmalıyız. Teknoloji daha güçlü olmaya devam ettikçe, AI kötü niyetli olarak kullanılırsa ciddi hasara neden olabilir. Bireyler, suç örgütleri ve haydut ülkeler AI’yı kötü amaçlara uyguladığında ne olur? Birçok şirket zaten bu soruları soruyor ve kötü niyetli AI saldırılarına karşı korunmak için harekete geçmeye başlıyor. Yeni teknolojiler yapay zekaya ve makine öğrenim teknolojilerine bağımlı sistemlerin güvenlik açığından yararlanabilir. Bu yapay zeka sistemleri daha akıllı hale geldikçe, tehditlerin doğasını değiştirerek tespit edilmelerini zorlaştırır, görünüşleri daha rasgele, sistemlere ve ortamlara daha uyumlu hale gelir ve sistemlerdeki güvenlik açıklarını belirleme ve hedefleme konusunda daha verimli olurlar. Bu korkunç olmalı. Derhal dijital altyapımızı nasıl inşa ettiğimizi ve yönettiğimizi, ayrıca AI sistemlerini nasıl tasarladığımızı ve dağıtacağımızı düşünmeye başlamamız gerekiyor. Bu kötü niyetli saldırıları tespit etmek zamanla zorlaşacaktır.

Ayrıca, makine öğrenimi hizmet sağlayıcıları, özellikle isteğe bağlı bulut tabanlı hizmetler, müşterilerinin kim olduğuna dikkat etmelidir. Kötü niyetli kullanıcılar platformlarını yapay zeka destekli saldırıları veya diğer cezai eylemleri gerçekleştirmek için kullanıyorsa, finans kurumları gibi, hükümetler bu sağlayıcılara zarar vermeye başlayacak ve yeni “Müşterinizi Tanıyın (KYC)” düzenlemeleri uygulayacaklardır. Bu platform sağlayıcıları düzenleyici döngünün yanlış ucunda olmak istemiyorsa, müşterilerinin kim olduklarını ve platformlarında ne yaptıklarını bildiklerinden emin olmak için eğrinin önüne geçmeli ve kendi çabalarını başlatmalıdırlar.

Yaygın gözetim zaten burada mı? AI yeni Büyük Kardeşimiz mi?

Yapay zeka, şirketlerin ve hükümetlerin insanların otomatik ve akıllı bir şekilde yaptıklarını sürekli takip etmelerini sağlar. Yapay zeka ile bir gelecek, gizliliğin sona ermesi anlamına mı gelecek? “Big Brother” gerçekten her zaman izleyecek mi? Yüz tanıma teknolojileri ilerlemeye devam ettikçe, stadyumlar, parklar ve kamusal alanlardaki büyük bir kalabalığın bireylerini izinleri olmadan tespit etmek daha kolay hale geliyor. Microsoft 2018’de Kongreyi araştırmaya ve yüz tanıma teknolojisinin kullanımını denetlemeye çağırdı. Şirketin başkanı Bradford Smith, “Bir yasalar ülkesinde yaşıyoruz ve hükümetin yüz tanıma teknolojisinin düzenlenmesinde önemli bir rol oynaması gerekiyor” dedi. Bu açıklamada dikkat çeken şey, teknoloji devlerinin yeniliklerinin düzenlenmesini nadiren savunmasıdır, bu nedenle Microsoft’un ABD Kongresini yüz tanımalarını düzenlemeye çağırması için bu teknolojinin nasıl kötüye kullanılabileceğini görmeleri gerekir.

Yapay zeka destekli bir gelecekte, herkesin ve her şeyin herkes hakkında bilgi sahibi olacağını varsayarız. Bu, varsayımın herkesin kim olduğumuzu, ne istediğimizi, nerede olduğumuzu ve ne yaptığımızı zaten bildiği anlamına gelir. Bu yaygın bilgi, nerede olduğumuz varsayımının bir parçası olacak, tıpkı şimdi, mazeret olmadan, ihtiyaç duyduğumuz her yerde ve zamanda İnternet, elektrik ve bilgi edinmeyi umduğumuz gibi. Artık bir süreliğine “fişini çekemeyeceğiz”. Çok az şirketin ve hükümetin herkesin yaşamı üzerinde rahatsız edici bilgi ve kontrol düzeyine sahip olduğu bir dünyaya hızla geçebiliriz.

Akıllı makinelerin hakları olacak mı?

Makineler daha akıllı hale geldikçe ve makinelerimize giderek daha fazla soru sordukça, bunlar toplumda nasıl ele alınmalı ve incelenmelidir? Makineler gerçekte duyguları simüle edip insanlara benzer şekilde hareket ettiklerinde, nasıl yönetilmeleri gerekir? Makineleri insanlar, hayvanlar veya cansız nesneler olarak mı düşünmeliyiz? Bu noktaya kadar, cihazların kendilerine, sözde kontrol sahibi oldukları insanlar üzerindeki sorumluluk ve sorumluluklarını ne düzeyde yüklüyoruz? Mart 2018’de otonom bir araç çarptı ve bir yayayı öldürdü. İnsanlar bir makinenin bir insanı öldürdüğü için öfkelendi.

Ama insanlar bu kazadan neden öfkelendiler? Her gün binlerce insan, direksiyonda insanların neden olduğu motorlu taşıt kazalarında öldürülüyor. Aracı sürenin bir makine olması ne fark ettiriyor? Bu öfkenin nedeni, bir makine bir insanı öldürdüğünde toplumun kabul etmemesi ve asla kabul etmemesidir. Bununla birlikte, trafikle ilgili tüm ölümleri ortadan kaldırma olasılığı neredeyse kesinlikle yüzde sıfırdır. Bu şekilde, yolda özerk araçlar istiyorsak, bu senaryo tekrar tekrar gerçekleşecektir. Makine güdümlü araçların insan güdümlü taşıtlardan çok daha düşük ölüm oranlarına sahip olduğuna dair belki de çarpıcı kanıtlara rağmen, sorumluluk ve kontrol konusu öncelikle etik unsurlardan biridir. Bu yüzden bu soruları sormalıyız, neyi kabul edebileceğimizi ve neyin etik olduğunu bulmalıyız,

AI karar vermede şeffaflık oluşturma

Makine öğreniminde kullanılan birçok yaklaşım vardır, ancak hiçbir makine algoritması AI pazarını derin öğrenme gibi yeniden canlandırmamıştır. Ancak derin öğrenme “kara kutu” dur. Derin öğrenmenin nasıl çalıştığından tam olarak emin değiliz ve kredi uygulamaları, paroliz alan ve kimin işe alındığı gibi kritik kararlar almak için bu teknolojiye güvendiğimizde bu büyük bir sorun olabilir. Açıklanamayan AI sistemleri, özellikle yüksek riskli durumlarda kabul edilebilir olmamalıdır. Güvenebileceğimiz AI sistemlerine sahip olmak istiyorsak, açıklanabilir AI denklemin bir parçası olmalıdır.

Derin öğrenme ağırlıklı olarak eğitim verilerine dayanır. Bu nedenle, bu sistemleri öğretmek için önyargılı eğitim verileri kullanıldığında sonuçların önyargılı AI sistemleri olması şaşırtıcı değildir. İnsanlar yanlış bir şekilde eğitim verilerinin büyük bir havuzdan her zaman “temiz” olduğunu ve toplumu bir bütün olarak temsil ettiğini varsaymaktadır, ancak sonuçlar bunun böyle olmadığını kanıtlamıştır. Google’ın görüntü tanıma sistemi, azınlıkların görüntülerini yanlış sınıflandırdı , Goldman Sachs tarafından yönetilen Apple Kartı, cinsiyet yanlılığı için son zamanlarda incelemeye girdi ve suçluları mahkum etmek için kullanılan yazılımın azınlıklara karşı önyargılı olduğu bulundu. Herhangi bir değerli karar vermek için makine öğrenimi algoritmalarını kullanacaksak, kendisini açıklayabilmesini talep etmeliyiz. Bir insan sürücünün arabanıza çarpmasına gerçekten izin verir misiniz ve neden yanıt vermediklerini sorguladığınızda? Elbette istemezdin. Bunu makinelerden de kabul etmemeliyiz!

Bu sorunları çözmek için adımlar atma

Şimdi kendimize bu soruları sormazsak ve etik yapay zeka inşa edersek, yoldaki çıkarımlar insanların anladığından çok daha korkunç olabilir. Doğru şeyi yapma konusunda şirketlere gerçekten güveniyor muyuz? Hükümetlerin doğru olanı yapmalarına güveniyor muyuz? Toplumsal girdiler ve etik soruların ve endişelerin gündeme getirilmesiyle, bu kadar acımasız olmayan bir gelecek yaratabileceğimizi düşünmek isteriz. Her zaman etkilemeye, sızmaya ve manipüle etmeye çalışan kötü aktörler olacaktır. İşletmeler, kuruluşlar ve vatandaşlar soru sormaya devam etmeli, etik yapay zeka oluşturma yolunda çalışmaya devam etmeli ve otomatik botlar ve kötü niyetli saldırılarla savaşmaya devam etmelidir çünkü yapay zeka hazır olsun ya da olmasın geliyor.

Yorum Yap