fbpx

Bilim & Teknik

Published on Ağustos 20th, 2020 | by Avrupa Forum 2

0

Yapay zeka aracı GPT-3 internet sitesi tasarlayıp reçete yazabiliyor

Zamanında “yayımlanmak için fazla tehlikeli” diye nitelendirilen yapay zekanın sonraki aşaması GPT-3 artık piyasaya sürüldü. İnternet sitesi tasarlama, reçete yazma ve soru cevaplama gibi etkileyici yetenekleriyle, yapay zeka aracı GPT-3 internette heyecana neden oluyor.

Adam Smith

GPT-3 adı, üçüncü nesil makine öğrenmesi modelinden ve Üretken Ön Eğitken Dönüştürücü‘nün (Generative Pre-training Transformer) kısaltmasından geliyor. Programlamak zorunda kalmaksızın, bilgisayarların deneyimlerinden otomatik olarak ders çıkarabilmesine makine öğrenmesi deniyor.

GPT-3’ün selefi GPT-2, insanların yazdıklarından ayırt edilemediği görülen metinler yaratma yeteneğinden dolayı “piyasaya sürülmesi çok tehlikeli” olarak addedilince manşetlere çıkmıştı.

GPT-2’de ayarlanabilir 1,5 milyar parametre bulunurken, GPT-3’te 175 milyar parametre var. Parametreler, verilerin makine öğrenmesi aracındaki ağırlığını etkiliyor ve bunları değiştirmek aracın ortaya koyduğu ürüne etki ediyor.

GPT-2, yayımlanmak için “fazla tehlikeli” kabul edildiği dönemde 124 milyon parametre kullanıyordu.

An itibarıyla kapalı erişimde olan GPT-3’ün sergilediği hünerler sosyal medyada paylaşılıyor.

Yazılımcı Şerif Şamim, kod yazmak için eğitilmemiş olsa bile, yapay zekanın tanımlanan tasarımları nasıl oluşturabildiğini gösterdi. Tasarımcı Jordan Singer uygulama tasarımları için benzer bir süreç yaratırken, Kings College London’dan tıp öğrencisi Kasım Munye programın tıbbi soruları yanıtlamak için bilgiye nasıl erişebildiğini gösterdi.

Eksik bir görüntü verilen yapay zeka, veri tabanına dayanarak görüntüde hangi piksellerin “olması gerektiğini” önermek için kendi araçlarından yararlanıyor ve bu görüntüyü “otomatik olarak tamamlamak” için kullanılabiliyor.

GPT-3 bu tür yetenekleri, yaklaşık bir trilyon kelimelik veri tabanı içeren Common Crawl (Ortak Tarama) isimli internet arşiviyle eğitilmiş olduğu için gösterebiliyor.

Söz konusu aracı, bir yapay zeka araştırma laboratuvarı olan OpenAI sağlıyor. OpenAI iki kısımdan, yani OpenAI LP adlı kâr amaçlı bir şirket ile kâr amacı gütmeyen ana kuruluş OpenAI Inc’ten oluşuyor.
 

Ürün geçen ay ticari olarak piyasaya sürülürken, aracın nasıl kullanılması gerektiğini görmek için hala yapılacak işler var.

Grubun politika başkanı Jack Clark geçen ay “Neyi yapıp neyi yapamayacaklarını bulmak için deneyler yapmamız gerekiyor” dedi. “Bir modelin tüm yeteneklerini önceden sezemezseniz, ne yapacağını görmek için onu dürtmeniz gerekir. Kötü amaçlarla neler yapabileceğini düşünme konusunda bizden daha iyi olan çok fazla kişi var.”

Başarı görsel olarak etkileyiciyken, bazıları bu aracın endüstri için bir tehdit olacağını, hatta kendi varlığının farkında olduğunu gösterdiğini öne sürecek kadar ileri gidiyor.

Bununla birlikte OpenAI CEO’su Sam Altman, bu “abartılı heyecanı” “çok aşırı” olarak nitelendirdi: “Etkileyici (güzel iltifatlar için teşekkürler!) ama hala ciddi zayıflıkları var ve bazen çok aptalca hatalar yapıyor. Yapay zeka dünyayı değiştirecek ama GPT-3 sadece ilk alametlerden biri. Keşfedecek daha çok şeyimiz var.

Dahası, GPT-3’ün elde ettiği başarıların tam olarak ne olduğuna dair sorular da ortaya atıldı.

Daha önce Facebook ve Google’da çalışmış olan bilgisayar bilimcisi Kevin Lacker, yapay zekanın “sağduyulu” sorulara yanıt verebildiğini ancak bir insan için bariz olan cevapların makinede mevcut olmayabileceğini ve “saçma” sorularınsa sanki saçma değilmiş gibi yanıtlandığını gösterdi.

Örnekler arasında, GPT-3’ün “Ayağımın kaç gözü var” sorusuna verdiği “Ayağının iki gözü var” ve “Hawaii’den 17’ye atlamak için kaç gökkuşağı gerekir” sorusuna verdiği “Hawaii’den 17’ye atlamak için iki gökkuşağı gerekir” yanıtları da var.

Bu durumu şöyle yazan OpenAI araştırmacıları da kabul ediyor: “GPT-3 örnekleri yeterince uzun pasajlarda tutarlılığı kaybedebilir, kendisiyle çelişebilir ve zaman zaman ilgisiz cümle ya da paragraflar içerebilir.”

Bu tarz makine öğrenmesi algoritmalarının “düşünmesi” ya da hatta cevap verirken kullandığı dili anlaması şart değildir. Bu algoritmalar, devasa söz dizimi (cümle yapısı) veritabanlarını inceleyerek doğru sonucu içerebilecek bir cevabı yeniden oluşturabilse de insanların yaptığı gibi sonuçlara varmaz.

UCLA bilgisayar bilimlerinden doktor öğretim üyesi Guy Van den Broeck, VentureBeat’e yaptığı açıklamada şu ifadeleri kullandı:

“Sanıyorum en iyi benzetme, petrol zengini bir ülkenin çok yüksek bir gökdelen inşa edebilmesi olur. Kuşkusuz bunları inşa etmek çok fazla para ve mühendislik çabası gerektirir. Yüksek binaların inşasında ‘son teknolojiyi’ kullanırsınız. Ama… bunda kendi başına bilimsel bir gelişme yoktur. Bu soruna daha fazla para saçmaya istekli bir başkası var diye kimse ABD’nin yüksek binalar inşa etme konusundaki rekabetçiliğini kaybetmesinden kaygı duymuyor… Akademisyenlerin ve diğer şirketlerin bu büyük dil modellerini akıntı yönündeki görevlerinde kullanmaktan mutlu olacağından eminim ama bunların yapay zekadaki ilerlemeyi temelden değiştirdiğini düşünmüyorum.”

Kaynak: Independent Türkçe 24.07.2020, çeviri: Kerim Çelik

Tags: , , , , , , , , , ,


About the Author



Bir cevap yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Back to Top ↑