1. Ana Sayfa
  2. Yapay Zeka
  3. Derin Öğrenmeye Aşırı derecede Eğilmiş miyiz?

Derin Öğrenmeye Aşırı derecede Eğilmiş miyiz?

Deep Learning791x445
Abone Ol

Yapay zeka (AI) yatırımında, araştırmalarında ve ilgili bilişsel teknolojilerde bu son patlama için sıklıkla kredilendirilen faktörlerden biri, derin öğrenme sinir ağlarının, makine algoritmalarının bir evrimi olarak ortaya çıkması ve buna karşılık gelen büyük miktarda büyük verinin ortaya çıkmasıdır. ve derin öğrenmeyi pratik bir gerçeklik haline getiren hesaplama gücü. Derin öğrenme son derece popüler olsa da ve birçok makine öğrenimi problemini çözmek için gerçek bir yetenek göstermiş olsa da, derin öğrenme, makine öğrenimi (ML) için sadece bir yaklaşımdır, Giderek, derin öğrenme yeteneklerinin sınırlarını ve derin öğrenme yaklaşımının bazı dezavantajlarını gösteren haberleri ve araştırmaları görmeye başlıyoruz.

Derin Öğrenmenin Kökenleri

Yapay zeka araştırmacıları, beynin yapay zeka alanının gelişiminin başlangıcından nasıl öğrendiğini anlamak için mücadele ettiler. Beyin esas olarak birbirine bağlı nöronların bir koleksiyonu olduğu için, AI araştırmacıları beynin yapay nöronlar aracılığıyla yapılandırılma şeklini ve bu nöronların yapay sinir ağlarındaki bağlantılarını yeniden yaratmaya çalıştılar. 1940 yılında Walter Pitts ve Warren McCulloch, biyolojik nöronların çalışma şeklini taklit etme girişimi olan ilk “eşik mantık birimini” oluşturdular. Pitts ve McCulloch modeli sadece bir kavram kanıtıydı, ancak Frank Rosenblatt 1957’de Perceptron’un gelişimi ile bu fikri aldı.bu kavram mantıklı bir boyut kazandı. Bugünün standartlarına göre ilkel olsa da, Perceptron hala yazılı başarıları ve yazılı sayıları ve harfleri tanıyabilen ve hatta erkekleri kadın yüzlerinden ayırt edebilen yeteneklere sahipti. Bu 60 yıl önceydi!

Rosenblatt, 1959’da Perceptron’un vaatleri konusunda o kadar hevesliydi ki, o zaman algılayıcının “[beklediğimiz] yürüyebileceği, konuşabileceği, görebileceği, yazabileceği, çoğaldığı ve bilincinde olacağı bir elektronik bilgisayarın embriyosu olduğunu belirtti. ”Tanıdık geliyor mu? Ancak, coşku fazla sürmedi. Yapay zeka araştırmacısı Marvin Minsky, algılayıcının görüntülerdeki küçük değişikliklere ne kadar duyarlı olduğunu ve ayrıca ne kadar kolay kandırılabileceğini belirtti. Belki de algılayıcı hiç de o kadar akıllı değildi. Minsky ve AI araştırmacısı akranı Seymour Papert, Perceptrons kitaplarındaki tüm algı fikrini temel olarak ayırdı ve algılayıcıların ve bunun gibi sinir ağlarının temel olarak belirli tür problemleri çözememelerinde kusurlu oldukları iddiasını yaptı – özellikle, doğrusal işlevlerde . Yani, erkek / kadın veya sayı türleri gibi sınıflandırmalara veri koymak için bir algılayıcı gibi bir sinir ağını eğitmek kolaydı. Bu basit sinir ağları için, bir grup veriyi çizebilir ve bir çizgi çizebilir ve çizginin bir tarafındaki şeylerin bir kategoride olduğunu ve çizginin diğer tarafındaki şeylerin farklı bir kategoride olduğunu söyleyebilir ve böylece bunları sınıflandırabilirsiniz. Ancak, konuşma tanıma veya birçok karar alma şekli gibi böyle çizgiler çizemediğiniz bir sürü sorun var. Bunlar, Minsky ve Papert’in algılayamayacak algılayıcılarının kanıtladığı doğrusal olmayan fonksiyonlardır.

[mailpoet_form id=”1″]

Bu dönemde, yapay sinir ağına sinir ağı yaklaşımları yapay zekada sonradan düşünülmeye başlamışken, bilgi grafikleri, karar ağaçları, genetik algoritmalar, benzerlik modelleri ve diğer yöntemler de dahil olmak üzere ML’ye yönelik diğer yaklaşımlar dikkat çekmiştir. Aslında, bu dönemde IBM’in DeepBlue tarafından geliştirilen AI bilgisayar, kaba kuvvetli bir alfa-beta arama algoritması (“İyi Eski Moda AI” olarak adlandırılan) kullanan ilk bilgisayar olan satranç maçında Gary Kasparov’u yendi. [GOFAI]) Yine de, bazıları bu sistemin hiç de akıllı olmadığını söylediğinden, öğrenmeye yönelik bu yaklaşım bile ileri gitmedi.

Ancak, sinir ağı hikayesi burada bitmiyor. 1986’da AI araştırmacısı Geoff Hinton, David Rumelhart ve Ronald Williams ile birlikte “Geri yayılan hatalarla temsili öğrenme” başlıklı bir araştırma makalesi yayınladı. Bu yazıda Hinton ve mürettebat, algılayıcıların karşılaştığı sorunların üstesinden gelmek için nöronların birçok “gizli katmanını” nasıl kullanabileceğinizi detaylandırdı. Yeterli veri ve hesaplama gücüyle, bu katmanlar, sınıflandırabilecekleri veri kümelerindeki belirli özellikleri tanımlamak için hesaplanabilir ve bir grup olarak, “evrensel yaklaşım teoremi” olarak bilinen doğrusal olmayan fonksiyonları öğrenebilir. Yaklaşım, ağın daha yüksek katmanlarından alt katmanlara (“backprop”) hataları çoğaltarak ve eğitimi hızlandırarak çalışır. Şimdi, yeterli katmanınız varsa, bu katmanları eğitmek için yeterli veri varsa, ve tüm ara bağlantıları hesaplamak için yeterli bilgi işlem gücü, neredeyse her şeyi tanımlamak ve sınıflandırmak için bir sinir ağı eğitebilirsiniz. Araştırmacı Yann Lecun, 1998 yılında AT&T Bell Laboratuarlarında LeNet-5’i geliştirdi , Konvolüsyonel Sinir Ağları (CNN) olarak bilinen bu yaklaşımın yinelemesini kullanarak çeklerdeki el yazısı görüntüleri tanıdı ve araştırmacılar Yoshua Bengio ve Jürgen Schmidhube daha da ileri gitti.

Yine de, yapay zekada işler giderken, bu erken sinir ağları ölçeklenemediğinde araştırmalar durdu. Şaşırtıcı bir şekilde, Hinton’un denetimsiz ön eğitim ve derin inanç ağları fikirleriyle yeniden ortaya çıktığı 2006 yılına kadar çok az gelişme oldu. Buradaki fikir, parametreleri denetimsiz bir şekilde eğitilen basit bir iki katmanlı ağa sahip olmak ve daha sonra yeni katmanları üst üste koymak, sadece bu katmanları eğitmek. Düzinelerce, yüzlerce, hatta binlerce katman için tekrarlayın. Sonunda karmaşık bir şeyi öğrenebilen ve anlayabilen birçok katmana sahip “derin” bir ağa sahip olursunuz. Derin öğrenmenin amacı budur: en azından belirli kısıtlamalar dahilinde, hemen hemen her şeyi öğrenmek için çok sayıda eğitilmiş sinir ağı katmanı kullanmak.

2010 yılında Stanford araştırmacısı Fei-Fei Li, milyonlarca etiketli görüntünün büyük bir veritabanı olan ImageNet’in yayınlanmasını yayınladı. Görüntüler, hayvan veya araç gibi sınıflandırma hiyerarşisi ile, husky veya trimaran gibi çok ayrıntılı seviyelere etiketlendi. Bu ImageNet veritabanı, hangi bilgisayar görme sisteminin en az sayıda sınıflandırma ve tanıma hatasına sahip olduğunu görmek için Büyük Ölçekli Görsel Tanıma Zorluğu (LSVRC) adı verilen yıllık bir yarışma ile eşleştirildi. 2012 yılında Geoff Hinton, Alex Krizhevsky ve Ilya Sutskever, önceki kazanan tüm girişlerin neredeyse yarısı kadar hataya sahip olan “AlexNet” girişlerini sundular. Yaklaşımlarını kazanan şey, sıradan bilgisayarları CPU’larla kullanmaktan uzaklaşmalarıydı, Makul sürede çok daha büyük modelleri eğitebilecek özel grafik işlem birimlerine (GPU). Ayrıca, aşırı sığdırma (ağ örnek veriler üzerinde çok sıkı bir şekilde eğitildiğinde ve daha geniş veriler için genelleştirilemediğinde) sorunu azaltmak için “bırakma” gibi standart derin öğrenme yöntemleri ve düzeltilmiş doğrusal aktivasyon birimi adı verilen bir şey sundular. Hızlandırma eğitimi. Rekabetlerinin başarısından sonra, herkes fark etti ve Derin Öğrenme yarışmaları başladı .

Deep Learning’in Eksiklikleri

Derin Öğrenme yangınlarını kükreyen yakıt veri ve hesaplama gücüdür. Özellikle, Derin Öğrenme ağlarını eğitmek için büyük hacimlerde iyi etiketlenmiş veri setleri gereklidir. Daha fazla katman, daha iyi öğrenme gücü, ancak katmanlara sahip olmak için, bu katmanları eğitmek için zaten iyi etiketlenmiş verilere sahip olmanız gerekir. Derin sinir ağları öncelikle aynı anda yapılması gereken bir dizi hesaplama olduğundan, çok sayıda ham bilgi işlem gücüne ve özellikle sayısal bilgi işlem gücüne ihtiyacınız vardır. Sistemin beslenen milyonlarca veri parçasına göre sistemin öğrenmesini sağlayacak en uygun kombinasyonu bulmak için aynı anda bir milyon düğmeyi ayarladığınızı düşünün. Bu yüzden 1950’lerde sinir ağları mümkün değildi, ama bugün öyle.

Derin öğrenme, doğal dil işleme, bilgisayarla görme, makine çevirisi, biyoinformatik, oyun ve sınıflandırma, örüntü eşleştirme ve otomatik olarak ayarlanan derin sinir ağı yaklaşımının kullanımı gibi diğer birçok uygulama gibi çok çeşitli durumlarda başarıyla uygulanmaktadır. iyi çalışıyor. Bununla birlikte, bu aynı avantajların bir takım dezavantajları vardır.

Bu dezavantajların en göze çarpanı, derin öğrenme, her biri farklı ağırlıklarla ve diğer parametrelerle yapılandırılmış birçok katmandan oluştuğu için, derin bir öğrenme ağını denetlemenin ve belirli bir kararın, kümelemenin veya sınıflandırmanın nasıl olduğunu anlamanın hiçbir yolu olmadığıdır. aslında yapılır. Kara bir kutu, yani derin öğrenme ağları doğası gereği açıklanamaz. Birçoğunun Açıklanabilir AI (XAI) konusunda yazdığı gibi , önemli kararlar vermek için kullanılan sistemlerin güven, uyumluluk, doğrulanabilirlik ve anlaşılabilirlik konularını karşılamak için açıklanabilirliğe sahip olması gerekir. DARPA ve diğerleri, derin öğrenme sinir ağlarını açıklamanın yolları üzerinde çalışırken, açıklanamazlık çoğu için önemli bir dezavantajdır.

İkinci dezavantaj, derin öğrenme ağlarının bilginin sınıflandırılmasında ve kümelenmesinde gerçekten büyük, ancak diğer karar verme veya öğrenme senaryolarında gerçekten iyi olmamasıdır. Her öğrenme durumu, bir kategorideki bir şeyi sınıflandırmak veya bilgileri bir kümede gruplandırmak değildir. Bazen daha önce öğrendiklerinize dayanarak ne yapmanız gerektiğini çıkarmanız gerekir. Tümdengelim ve akıl yürütme, derin öğrenme ağlarının bir kalesi değildir.

Daha önce de belirtildiği gibi, derin öğrenme de çok veri ve kaynak açtır. Bir sinir ağının karmaşıklığının bir ölçüsü, öğrenilmesi ve ayarlanması gereken parametrelerin sayısıdır. Derin öğrenme sinir ağları için yüz milyonlarca parametre olabilir. Eğitim modelleri, bu parametreleri ayarlamak için önemli miktarda veri gerektirir. Örneğin, bir konuşma tanıma sinir ağı genellikle üzerinde çalışmak için terabayt temiz, etiketli veriler gerektirir. Yeterli, temiz, etiketlenmiş bir veri setinin olmaması, bu problem alanı için derin bir sinir ağının gelişmesini engelleyecektir. Verilere sahip olsanız bile, önemli miktarda zaman ve işlem gücü gerektiren modeli oluşturmak için bu verileri kullanmanız gerekir.

Derin öğrenmenin bir başka zorluğu, üretilen modellerin bir problem alanına çok spesifik olmasıdır. Belirli bir kedi veri seti üzerinde eğitilmişse, sadece bu kedileri tanıyacak ve hayvanlar üzerinde genelleme yapmak için kullanılamaz veya kedi olmayanları tanımlamak için kullanılamaz. Bu sadece makine öğrenimine yönelik derin öğrenme yaklaşımlarının bir sorunu olmamakla birlikte, yukarıda bahsedilen aşırı uydurma problemini çarpanlarına ayırırken özellikle zahmetli olabilir. Derin öğrenme sinir ağları, örneğin görüntülerdeki küçük pertürbasyonlar bile, görüntülerin çok yanlış bir şekilde sınıflandırılmasına yol açabilecek şekilde eğitim verilerine çok sıkı bir şekilde kısıtlanabilir (takılabilir). Silah olarak yanlış tanınan kaplumbağaların iyi bilinen örnekleri varveya kutup ayıları, görüntü verilerindeki küçük değişiklikler nedeniyle diğer hayvanlar olarak yanlış tanınmaktadır. Açıkçası bu ağı kritik görev durumlarında kullanıyorsanız, bu hatalar önemli olacaktır.

Makine Öğrenimi (sadece) Derin Öğrenme değildir

İşlerinde bilişsel teknolojiler kullanmayı düşünen işletmelerin tüm resme bakmaları gerekir. Makine öğrenimi sadece bir yaklaşım değil, farklı senaryolarda geçerli olan farklı türlerin farklı yaklaşımlarının bir koleksiyonudur. Bazı makine öğrenimi algoritmaları, çok az miktarda veri ve belirli durumlar için çok uygun olan anlaşılır bir mantık veya kesinti yolu kullanarak çok basitken, diğerleri çok karmaşıktır ve daha karmaşık durumları işlemek için çok fazla veri ve işlem gücü kullanır. Gerçekleşmesi gereken en önemli şey, yapay zeka değil derin öğrenmenin makine öğrenimi olmadığıdır. “Derin öğrenmenin Einstein’ı” Geoff Hinton bile derin öğrenmenin temel unsurlarını ve sınırlarını yeniden düşünmeye başlıyor .

Kuruluşlar için anahtar, hangi makine öğrenme yöntemlerinin hangi sorun alanları için en uygun olduğunu ve uygulamada bu makine öğrenme yaklaşımının nasıl planlanacağını, geliştirileceğini, dağıtılacağını ve yönetileceğini anlamaktır. İşletmelerde AI kullanımı hala benimsenmeye devam ettiğinden, özellikle bu daha gelişmiş bilişsel yaklaşımlara, bilişsel teknolojilerin başarılı bir şekilde nasıl kullanılacağına dair en iyi uygulamalar hala olgunlaşmaktadır. 

Yorum Yap