2 Temmuz 2021 Cuma

Bilimde Devrim Yaratan On Algoritma

 Bilimde Devrim Yaratan On Algoritma


Algoritma, belli bir problemi çözmek veya belirli bir amaca ulaşmak için tasarlanan yoldur. Genellikle bilgisayar programlamada kullanılır ve tüm programlama dillerinin temeli algoritmaya dayanır. Aynı zamanda algoritma tek bir problemi çözecek davranışın, temel işleri yapan komutların veya deyimlerin adım adım ortaya konulmasıdır ve bu adımların sıralamasına çok dikkat edilmelidir.


Astronomi, biyoloji veya iklim araştırmalarındaki büyük atılımlar söz konusu olduğunda, neredeyse hiç kimse bunlara katkıda bulunan algoritmaları düşünmez. Ancak hemen hemen her araştırma sonucunun arkasında güçlü bir program kodu bulunur. 


2019 yılında Event Horizon Telescope ekibi, dünyanın ilk kara delik görüntüsünü canlı yayında bütün dünyaya gösterdi. 


Ancak grubun ortaya çıkardığı parlayan, halka şeklindeki nesnenin görüntüsü geleneksel bir fotoğraf değildi. Amerika Birleşik Devletleri, Meksika, Şili, İspanya ve Antarktika'daki radyo teleskopları tarafından yakalanan büyük miktarda veriden hesaplandı. Fizikçiler, temel alınan program kodunu yayınladılar ve sonuçlarını birkaç uzmanın makalesi ile de belgelediler . Bunu yaparken, diğer bilim adamlarının yaklaşımlarını anlamalarını ve kontrollerini bunun üzerine inşa etmelerini sağlamak istediler.


Bilgisayar bilimi sadece bu bilimsel buluşta önemli bir rol oynamadı. Astronomiden zoolojiye, modern zamanların her büyük keşfinin arkasında artık bir bilgisayar var. 


Bugünün bilgisayarları yaklaşık 10.000 kat daha fazla belleğe ve 50 yıl öncesine göre çok daha yüksek bir saat frekansına sahip, bu da araştırma için tamamen yeni olanaklar sunuyor. 


Kimyasal yapıları modelleme çalışmaları nedeniyle 2013 yılında Nobel Kimya Ödülü'nü alan California'daki Stanford Üniversitesi'nden biyolog Michael Levitt, "Sorun programlamanın hâlâ çok fazla uzmanlık bilgisi gerektirmesidir" diyor. Bu yüzden "bilimsel bilgisayar bilimcilerine" ihtiyacımız var. Çünkü güçlü bilgisayarlar doğru yazılım ve onları kullanmayı bilen araştırmacılar olmadan işe yaramaz.


Bu makalede, büyük başarıların perde arkasına bir göz atıyoruz ve son birkaç on yılda ileri araştırmalara sahip bilgisayar bilimindeki en büyük on gelişmeyi okuyuculara sunuyoruz. 


1. Dil Öncüsü: Fortran Derleyicisi (1957)


İlk modern bilgisayarlar tam olarak kullanıcı dostu değildi. Devreleri kablolarla bağlayarak kelimenin tam anlamıyla elle programlandılar. Daha sonra makine ve montaj dilleri, kullanıcıların program kodu yazmasına izin veriyordu. Fakat bu son derece karmaşıktır. Çünkü, altında yatan bilgisayar mimarisini son derece hassas bir şekilde anlamanız gerekiyordu. Bu, birçok bilim insanının bilgisayarlarla çalışmasını engelliyordu.


1950'lerde sembolik programlama dillerinin ortaya çıkmasıyla birlikte bu durum değişti. Özellikle bilgisayar bilimcisi John Backus San José, California'daki IBM'deki meslektaşlarıyla birlikte geliştirdiği Fortran ile sembolik programa dilleri, bilim insanlarının işini daha bir kolaylaştırdı. Fortran sayesinde kullanıcılar bilgisayara x = 3 + 5 gibi anlaşılır talimatlar verebildiler. Daha sonra bir derleyici talimatları bilgisayarların işleyebileceği verimli makine koduna çevirdi. 


Bu buluştan önce kodu girmek çok karmaşıktı. Tek bir simülasyon için on binlerce delikli karta ihtiyacınız vardı. Yine de, New Jersey'deki Princeton Üniversitesi'nden klimatolog Syukuro Manabe o günleri çok iyi hatırlıyor, Fortran bilgisayarları bilgisayar bilimcisi olmayan araştırmacılar içinde bilgisayarları erişilebilir hale getirdi. "İlk kez bilgisayarları kendi başımıza programlayabildik." dedi. 


70 yıldan fazla bir süre sonra bile, Fortran, karmaşık lineer cebir içeren ve güçlü bilgisayarlar gerektiren, örneğin iklim modellemesi veya akışkanlar dinamiği gibi araştırma alanlarında hâlâ yaygın olarak kullanılmaktadır. Çünkü dil hızlıdır ve birçok bilgisayar bilimci bu dilde ustalaşmıştır. Dünya çapında eski Fortran kodlarının hala güvenilir bir şekilde çalıştığı çok sayıda süper bilgisayar ve laboratuvar bulunmaktadır.


2. Sinyal İşleme: Hızlı Fourier Dönüşümü (1965)


Radyo astronomları gökyüzünü taradıklarında, zamanla değişen çok sayıda karmaşık sinyal yakalarlar. Radyo dalgalarını incelemek için araştırmacıların rotalarına zamanın değil, frekansın bir fonksiyonu olarak ihtiyaçları vardır. Bunu yapmak için verileri "Fourier dönüştürmeleri" gerekir. Bununla birlikte, bu matematiksel işlem,  bir milyon hesaplama adımına karşılık gelen 1000 veri noktası için N boyutundaki bir veri kümesi için N 2 hesaplamaları gerektirdiğinden oldukça verimsizdir .


1965'te Amerikalı matematikçiler James Cooley ve John Tukey, süreci hızlandırmanın bir yolunu buldular. Bunu yapmak için, asıl sorunu verimli bir şekilde çözene kadar daha küçük alt görevlere böldüler. Sözde Hızlı Fourier Dönüşümü (FFT) , N veri için yalnızca N log 2 (N) adıma ihtiyaç duyuyor. Bu, işlem hızını büyük ölçüde artırdı. 1000 puan için artış yaklaşık 100 kat, bir milyon için 50.000 kattı. 


Ancak bu yöntemin tamamen yeni olmadığı ortaya çıktı. Ünlü matematikçi Carl Friedrich Gauß, 1805 gibi erken bir tarihte üzerinde çalışmıştı ama hiçbir yerde yayınlamamıştı. Sadece Cooley ve Tukey tarafından yazılan makale, dijital sinyal işleme, görüntü analizi, yapısal biyoloji ve daha pek çok alandaki uygulamaları açtı. Oxford Üniversitesi'nden Nick Trefethen, "Uygulamalı matematik ve mühendislikteki en önemli yöntemlerden biri, hızlı fourier dönüşümüdür" diye açıkladı.


3. Biyolojik Veritabanları (1965)


Veritabanları bilimsel araştırmanın çok önemli bir parçası olduğundan, karmaşık yazılımlar tarafından kontrol edildikleri gerçeğini gözden kaçırmak kolaydır. Son birkaç on yılda, elektronik sistemler daha büyük ve daha güçlü hale geldi ve özellikle biyoloji olmak üzere birçok alanı etkiledi.


Devasa genom ve protein veritabanlarını, Silver Spring ve Maryland'deki Ulusal Biyomedikal Araştırma Vakfı'nda biyoinformatikte öncü olan Margaret Dayhoff'un çalışmalarına borçluyuz. 


1960'ların başında, biyologlar proteinlerin amino asit dizilerini deşifre etmeye çalıştılar. Dayhoff o zaman farklı türler arasındaki evrimsel ilişkilere dair ipuçları aramak için bu bilgileri toplamaya başladı. 


1965 yılında üç meslektaşıyla birlikte yayınladığı "Protein Dizisi ve Yapısı Atlası" 65 proteinin dizileri, yapıları ve benzerlikleri hakkında bilgi içeriyordu. Tarihçi Bruno Strasser, 2010'da verdiği bir demeçte, "Belirli bir araştırma sorusuna bağlı olmayan ilk genom ve protein koleksiyonuydu.Dayhoff, verilerini delikli kartlarla kodladı, bu da bilgisayardaki veritabanını aramayı ve genişletmeyi mümkün kıldı."dedi. 


170.000'den fazla makromoleküler yapıyı kaydeden Protein Veri Bankası, 1971'de faaliyete geçti. On yıl sonra, San Diego'daki California Üniversitesi'nden evrimsel biyolog Russell Doolittle, Newat adında başka bir protein veritabanı oluşturdu. 1982'de ABD Ulusal Sağlık Enstitüleri tarafından sürdürülen ve bugün "GenBank" olarak bilinen DNA arşivi yayınlandı.


Temmuz 1983'te bu kaynakların özellikle değerli olduğu görüldü. Doolittle ve Londra'daki Imperial Cancer Research Fund'dan biyokimyacı Michael Waterfield liderliğindeki iki ekip bağımsız olarak şaşırtıcı bir keşifte bulundular. 


Bir insan büyüme faktörünün dizileri ile maymunlarda kansere neden olan bir virüsteki protein arasındaki benzerliği fark ettiler. Bu durum, virüsler tarafından onkogenez (malign tümörlerin gelişimi) için nasıl bir mekanizma geliştirilmesi gerektiğini gösterdi. ABD Ulusal Biyoteknoloji Bilgi Merkezi'nin (NCBI) eski direktörü James Ostell, bunun sonucunda biyologların dizileri karşılaştırarak kanseri incelemeye başladığını açıkladı. 


Ayrıca Ostell, bunun "nesnel biyolojinin başlangıcı" olduğunu da söylüyor. Bu gelişme sayesinde, hipotezlerini test eden deneylere ek olarak, araştırmacılar, veri toplayıcıların asla düşünmemiş olabileceği belirli ilişkiler için serbestçe erişilebilen veri kümelerini inceleyebildiler. 1991'de NCBI programcıları, mevcut bilgileri birbirine bağlayarak olasılıkları genişletti. Örneğin, "Entrez " veri tabanı birkaç biyokimya veri tabanıyla birbirine bağlıdır .


4. Hava ve İklim Tahmini: Genel Dolaşım Modeli (1969)


İkinci Dünya Savaşı'nın sonunda, bilgisayar bilimi öncüsü John von Neumann, birkaç yıl önce hava durumunu tahmin etmek için yörüngeleri ve silah tasarımlarını hesaplayan bilgisayarları kullanıyordu . Princeton Üniversitesi'nden klimatolog Manabe, o zamana kadar bunun tamamen ampirik olarak yapıldığını söylüyor. Bu çalışmadan önce geleceğe yönelik tahminlerde bulunmak için ampirik değerlere ve varsayımlar yapılıyordu. Von Neumann'ın ekibi ise fiziksel yasalara dayalı sayısal bir tahmin geliştirmeye çalıştı.


Hava tahmini ile ilgili denklemler on yıllardır biliniyordu, ancak pratikte çözülemiyordu. Kesin hava koşullarını belirlemeniz, ardından çok kısa bir süre içinde nasıl değişeceğini hesaplamanız ve bu prosedürü tekrar tekrar uygulamanız gerekiyordu. O kadar zaman alıcıydı ki, hava bilim adamlarının çok zamanını alıyordu. 1922'de Lewis Fry Richardson, önümüzdeki altı saat için bir tahmin hesaplamak için aylar harcadı. Yinede sonucun, son derece yanlış olduğu ve gerçekte gerçekleşemeyecek fenomenler içerdiği ortaya çıktı.


Ancak bilgisayar teknolojisinin ilerlemesi, bu soruna ulaşılabilecek bir çözüm getirdi. 1940'ların sonlarında, Princeton'daki İleri Araştırma Enstitüsü'nden von Neumann hava durumu tahminleri için bir araştırma grubu kurdu. 


Yaklaşık 15 yıl sonra, Princeton'daki Jeofizik Akışkanlar Dinamiği Laboratuvarı'ndaki ikinci bir ekip, şimdi iklim modellemesi olarak bilinen bir "sonsuz tahmin" üzerinde çalışmaya başladı. 1958 yılında araştırmacılara katılan Manabe, kendisini atmosferik modellere adadı; meslektaşı Kirk Bryan, okyanus simülasyonlarıyla uğraştı. 1969'da her iki yaklaşımı birleştirdiler ve klimatoloji alanında bir dönüm noktası oluşturdular.


Manabe ve Bryan'ın birleşik okyanus-atmosfer modeli, dünyanın altıda birini 500'e yani 500 kilometrelik karelere ve atmosferi ise dokuz katmana böldü. 


Günümüzün iklim modelleri 25'e 25 kilometre karelerden ve onlarca atmosfer seviyesinden oluşuyor. Yine de, Jeofizik Akışkanlar Dinamiği Laboratuvarı'ndan jeofizikçi Venkatramani Balaji, Manabe ve Bryan' ın modelleriyle harika bir iş çıkardıklarını söylüyor. Manabe ve Bryan'ın sayesinde ilk kez, bir simülasyonda yükselen karbondioksit seviyelerinin etkilerini araştırmak mümkün oldu. 


5. Rakam Kırıcı: BLAS (1979)


Birçok farklı bilimsel alanda, vektörler ve matrisler ile nispeten basit matematiksel işlemlere geri dönülür. Bu karmaşık olmasa da, söz konusu nesneler genellikle çok büyük olduğundan ve çok fazla sayıda hesaplama yapılması gerektiğinden genellikle zaman alıcıydı. 


1970'lerde bu sorunu aşabilecek genel bir yöntem yoktu. Bu nedenle birçok bilim insanı, içerik sorularına odaklanmak yerine temel hesaplama adımlarını gerçekleştiren algoritmalar geliştirmek için zaman harcadı.


1979'da programcılar nihayet " Temel Lineer Cebir Alt Programları "nı veya kısaca BLAS'ı geliştirdiler. 


Bu program kütüphanesi vektör ve daha sonra matris cebiri için onlarca çözüm yolu tanımladı. Austin'deki Texas Üniversitesi'nden bilgisayar bilimcisi Robert van de Geijn, "BLAS muhtemelen bilimsel hesaplama için en önemli programdı" diyor. Ortak işlevler için standartlaştırılmış adlara ek olarak, araştırmacılar algoritmanın her bilgisayarda aynı şekilde çalıştığından emin olabiliyorlar. 40 yıldan uzun bir süre sonra, BLAS, bilimsel yazılımların çalışmasını sağlayan bir kod olan Scientific Computing Stack'in kalbinde hâlâ yer almaktadır.


6. Mikroskopide Olması Gerekenler: NIH Görüntüsü (1987)


1980'lerin başında, programcı Wayne Rasband, Maryland'deki ABD Ulusal Sağlık Enstitüleri'nde bir beyin görüntüleme laboratuvarında çalışıyordu . Ekibin X-ışını filmlerini dijitalleştirmek için bir tarayıcısı vardı, ancak bunları bir bilgisayarda incelemenin bir yolu yoktu. Rasband bunun için bir program geliştirdi.


Algoritmayı özellikle 150.000 dolarlık bir PDP-11 bilgisayarı için yazdı. Apple 1987'de Macintosh II'yi piyasaya sürdüğünde, cihazın çok daha kullanıcı dostu ve uygun fiyatta olduğu görüldü. Rasband, “Apple'ın yazılımı görüntü analizi için çok daha uygundu” diye hatırlıyor. Yazılımını yeni makineye uyarladı ve bu da "NIH Image" ile sonuçlandı.


Bu sistem ve ardılları ile araştırmacılar, herhangi bir bilgisayardaki her türlü görüntüyü analiz edip ve değiştirebildiler. 


Massachusetts, Cambridge'deki Broad Enstitüsü'nden biyoinformatikçi Beth Cimini, "Sahip olduğumuz en temel araç" diyor. "Mikroskop kullanıp, NH ImageJ kullanmayan bir biyologla hiç konuşmadım." dedi. 


Hücre çekirdeği için ImageJ bilgisayar programı, mikroskop görüntülerinde hücre çekirdeklerini otomatik olarak tanımlayabilir, sayabilir ve renklendirebilir. Ayrıca programa erişim ücretsizdir. 

Rasband emekli olduğundan beri ImageJ'in geliştirilmesine öncülük eden Wisconsin-Madison Üniversitesi'nden biyomedikal mühendisi Kevin Eliceiri, bunların kullanıcıların ihtiyaçlarına göre uyarlanabileceğini ekliyor. Program, 30 yılda neredeyse hiç değişmeyen minimalist bir kullanıcı arayüzüne sahip.


Yerleşik bir makro kaydedici, çeşitli dosya formatlarıyla kapsamlı uyumluluk ve esnek eklenti mimarisi sayesinde, yazılımı herhangi bir kullanıcı tarafından kolayca genişletilebilir. Örneğin, videolardaki belirli nesneleri izlemek veya biyolojik hücreleri otomatik olarak tanımlamak artık mümkün. Eliceiri, "Photoshop ve diğer programların aksine, ImageJ istediğiniz her şeyi yapabilir" diyor.


7. Sıralama: BLAST (1990)



Araştırmacılar, özellikle proteinlerde - benzerlikler arayarak bağlantıları keşfedebilir ve genlerin işlevi hakkında bilgi edinebilirler. Bunun için hızla büyüyen biyokimyasal veri tabanları mevcuttur.


Margaret Dayhoff, 1978'de iİki protein arasındaki ilişkinin yalnızca dizilerinin benzerliği temelinde değil, aynı zamanda evrimsel mesafeleri temelinde de değerlendirilebildiği "Nokta Kabul Edilen Mutasyon" matrisi (kısaca PAM matrisi) geliştirdi. .


Yedi yıl sonra, Charlottesville'deki Virginia Üniversitesi'nden William Pearson ve NCBI'den David Lipman, Dayhoff'un matrisini hızlı arama yapma yeteneğiyle ilişkilendiren FASTP algoritmasını sundu. 1990'da Liman ve bazı meslektaşları ek bir uzantı yayınladı. Temel Yerel Hizalama Arama Aracı (BLAST). Son derece hızlı ve aynı zamanda evrimsel olarak daha uzak eşleşmeleri de buluyor. Aynı zamanda, maçların tesadüfen meydana gelme olasılığının ne kadar olduğunu gösterebiliyor.


Harvard Üniversitesi'nde biyoinformatikçi, Sean Eddy, "Program inanılmaz hızlıydı." dedi. Aynı zamanda NCBI'den bilgisayar bilimcisi Stephen Altschul'u da hatırlıyor. "Aramanızı yazabilir, bir yudum kahve içebilir ve sonuca ulaşabilirsiniz." Kullanımı da kolaydı."


Kısacası genom biyolojisinde büyük sıçrama bu algoritma sayesinde oldu. 


8. Ön Baskı Deposu: arXiv.org (1991)


1980'lerin sonlarında, yüksek enerjili fizikçiler, sundukları araştırmaların kopyalarını meslektaşlarına rutin olarak postalardı. Bu ya nezakettendi ya da yorum istedikleri içindi. Ancak, bu büyük bir çaba gerekiyordu. Bu nedenle , onları yalnızca birkaç seçkin kişiye gönderilirdi. 


Bu sorun yüzünden, Fizikçi Paul Ginsparg, 2011'de elit olmayan üniversitelerdeki hevesli araştırmacılar genellikle tamamen dışlanırdı ”diye yazdı .


Bu nedenle, 1991'de New Mexico'daki Los Alamos Ulusal Laboratuvarı'nda, abonelerine her gün her biri bir makale tanımlayıcısı olan ve ön baskı listeleri alan bir e-posta dağıtım listesi geliştirdi. Tek bir e-posta ile dünyanın her yerinden kullanıcılar bir çalışma gönderebilir, laboratuvarın bilgisayar sisteminden e-postaya erişebilir, yeni makalelerin listesini alabilir veya belirli yazarları ve başlıkları arayabilirlerdi.


Başlangıçta, Ginsparg ön baskıları üç ay boyunca saklamak ve içeriği yüksek enerjili fizikle sınırlamak istedi. Ancak bir meslektaşı onu sınırsız olarak kullanmaya ikna etti. "O anda konsept bir ilan tahtasından bir arşive dönüştü" diyor. Aniden, uzak disiplinlerden makaleler geldi. 1993 yılında Ginsparg World Wide Web sistemi, 1998 yılında arXiv.org adıyla araştırmacılar arasında muhteşem bir ağ bağlantısı sağladı.


Bugün, varlığının 30. yılında, web sitesi, aylık 15.000'den fazla başvuru ve yaklaşık 30 milyon indirme ile tümüne ücretsiz olarak erişilebilen yaklaşık 1.8 milyon ön baskıya ev sahipliği yapıyor. 


Nature Photonics editörleri arXiv'in 20. yıl dönümü vesilesiyle “Hizmetin neden bu kadar popüler olduğunu anlamak zor değil” diye yazdı : “Araştırmacılara neyi ne zaman yaptıklarını göstermeleri için hızlı ve kolay bir yol sunuyor ve güçlükleri ortadan kaldırıyor."


Bu başarı, biyoloji, tıp veya sosyoloji gibi diğer birçok disiplinde de benzer projelere yol açtı. Etkiler şu anda koronavirüs aracılığıyla oluşturulan on binlerce ön baskıdan okunabilir. Ginsparg, "30 yıl önce parçacık fiziği topluluğu dışında heterodoks olarak kabul edilen bir metodolojinin artık, doğal olarak kabul edildiğini görmek sevindirici."


9. Veri işleme: IPython Notebook (2011)


Fernando Pérez, 2001 yılında yaygın olarak kullanılan bir programlama dili olan Python'un temel bir bileşenini incelemeye karar verdiğinde "dikkati dağıtma arayışında" bir doktora öğrencisiydi . 


REPL (Oku-Değerlendir-Baskı-Döngüsü) adı verilen bir sistem zaten sıklıkla kullanılır. Kodunuzu girersiniz, program onu ​​satır satır yürütür ve bir sonuç verir. Bu, güvenilir ve hızlı bir şekilde çalışır. Ancak Pérez, Python'un bunun bilimsel çalışma için geliştirilmediğini fark etti. Örneğin, belirli kod modüllerini basit bir şekilde önceden yüklemek veya veri görselleştirmelerini açık tutmak mümkün değildi. Böylece Perez böyle bir versiyonu kendisi yazmaya karar verdi.


Sonuç, Pérez'in Aralık 2001'de tanıttığı ve yalnızca 259 satırdan oluşan Python programlarını geliştirmek ve çalıştırmak için etkileşimli bir program paketi olan IPython oldu . Fizikçi Brian Granger ve matematikçi Evan Patterson ile on yıl sonra sistemi web tarayıcısına taşıyarak IPython notebook'u piyasaya sürdü ve böylece veri biliminde bir devrimi tetikledi.


Bilgisayarlı defterler yalnızca program kodlarından oluşmaz, aynı zamanda metin ve grafikleri tek bir belgede birleştirir. Bu türdeki diğer sistemlerin (Mathematica veya Maple gibi) aksine, IPython açık kaynaktı ve diğer geliştiricilerin katkılarına izin verdi. Ayrıca bilim adamları arasında çok popüler olan Python programlama dilini de destekledi.


2014 yılında IPython , artık 100'den fazla programlama dilini destekleyen ve kullanıcıların uzak süper bilgisayarlarda verileri kendi dizüstü bilgisayarlarında olduğu kadar kolay bir şekilde işlemesini sağlayan Jupyter'a dönüştü. 


Nature, 2018'de "Jupyter, veri bilimcileri için standart bir araç haline geldi" dedi. O zamanlar kod paylaşım platformu GitHub'da 2,5 milyon Jupyter not defteri vardı. Bu arada bu sayı şuan dört katına çıktı.


Bunlar, 2016'da yerçekimi dalgalarının keşfini ve 2019'da bir kara deliğin haritalanmasını belgeleyen defterleri içeriyor. Pérez, "Bu çığır açan çalışmaya küçük bir katkıda bulunduğumuz için çok gururluyuz" diyor.


10. Hızlı Öğrenen: AlexNet (2012)


Yapay zeka (AI) farklı versiyonlara sahip. Eski okullardaki kodlanmış kurallarla yapay zeka geliştirildi. Günümüzde baskın olan "derin öğrenme", düşünme organının sinirsel yapısını simüle ederek bilgisayarların kendi kendilerine "öğrenmelerini" sağlar. Toronto Üniversitesi'nden bilgisayar bilimcisi Geoffrey Hinton, yapay zeka araştırmacılarının onlarca yıldır ikinci yaklaşımı saçma bularak reddettiğini açıklıyor. Ancak 2012'de doktora öğrencileri Alex Krizhevsky ve Ilya Sutskever »AlexNet« ile bunun tam tersini kanıtladı.


Mekan, araştırmacıların günlük nesnelerin milyonlarca görüntüsüyle nesne tanıma algoritmalarını eğittikleri ve ardından bunları ayrı bir veri seti ile test ettikleri yıllık bir yarışma olan ImageNet idi. Hinton, 2012 itibariyle, görüntülerin yaklaşık dörtte birini yanlış bir şekilde kategorize eden programların, en iyi programlar olduğunu hatırlıyor. AlexNet sinir ağı , hata oranını şaşırtıcı bir şekilde yüzde 16'ya düşürdü.


Hinton'a göre büyük miktarda eğitim verisi, iyi programlama ve grafik işlemcilerin artan gücü bu başarıya yol açtı. "Birden programımızı 30 kat daha hızlı çalıştırabilir veya 30 kat daha fazla veriden öğrenebileceğimiz duruma geldik" diyor.


Gerçek atılım üç yıl önce gerçekleşmişti. O zamanlar laboratuvarda, dili geleneksel yapay zekadan çok daha iyi işleyebilen bir sinir ağı yaratıldı. 


Bu ilerlemeler derin öğrenmenin yükselişinin habercisiydi. Bu tür algoritmalar, cep telefonlarının konuşulan istekleri anlamasını ve görüntü analiz programlarının biyolojik hücreleri tanımasına neden oldu. İşte bu yüzden AlexNet, son yıllarda bilimi ve dolayısıyla dünyayı kökten değiştiren bilgisayar programları arasında yerini alıyor.


Çeviri :İnanç Kaya 

Kaynak :  https://www.spektrum.de/news/zehn-algorithmen-die-die-wissenschaft-veraendert-haben/1836355

Hiç yorum yok:

Yorum Gönder

Venüs'te Yaşam İzleri Bulundu

  Venüs'te Yaşam İzleri Bulundu 450 dereceden fazla sıcaklığı bulunan, güneş sisteminin yaşama en düşman gezegeni Venüs`te, nasıl olurda...