
Hala fark etmediyseniz, günümüzde yapay zekâ her yerdedir. Sonunda, etkileşimde bulunduğumuz hemen hemen her şeyde olduğu bir noktaya geldik; Amazon ürün önerilerinden Netflix önerilerine, otonom olarak araba sürmeye, mükemmel blog gönderileri yayınlamaya kadar. Birçok insan yapay zekanın nasıl kullanıldığını görüyor, ancak nasıl çalıştığını hiç merak ettiniz mi?
İlk olarak, yapay zekanın temel bir özetini inceleyelim. Yapay zekâ, belirli bir görevi öğrenebilen ve benzer görevler hakkında tahminler yapabilen bir dizi algoritmadır. Örnek bir görev olarak bir görüntünün kedi ya da köpek resmi olup olmadığını tahmin edebilir. Bu örnekte, kedilerin ve köpeklerin çok sayıda görüntüsünü topluyoruz ve onları bir algoritmaya besliyoruz. Daha sonra her görüntüyü “bu bir köpeğin fotoğrafı” veya “bu bir kedi fotoğrafı” şeklinde etiketliyoruz. Algoritma daha sonra hangi görüntülerin bir köpek veya kedi içerdiğini “öğrenir” ve model bir köpeği (büyük kulaklar, kabarık kuyruk) ve bir kediyi (bıyık, göz şekli) neyin oluşturduğuna dair varsayımlar yapar ve bu farklılıkları gelecekteki kullanım için öğrenebilir.
Modelimize “eğitim” olarak bilinen bir uygulamada yüzlerce görüntü veriyoruz. Bununla birlikte, model bir köpek ve kedinin neye benzediğine dair iyi bir fikir oluşturur. Son olarak, bir modele bir test olarak yeni bir görüntü vereceğiz ve bir köpek ya da kedi görüntüsü olup olmadığını bize söyleyebilmelidir. Örneklerle (kedilerin ve köpeklerin görüntüleri) bir model eğitimi ve yeni görüntüler hakkında tahminler yapabilme fikri, yapay zekanın bir alt kümesi olan derin öğrenme olarak bilinir.
Bu yazı için bir modelin nasıl eğitileceğine bakmayacağız, ancak daha ilginç şeyler yapabilen çok popüler bir modele bakacağız;
Haziran 2020’de, OpenAI adlı bir şirket, az sayıda girdi Verisi örneği göz önüne alındığında, yeni içerik üretebilen GPT-3 adlı yeni bir model yayınladı.
GPT-3, sinir ağı destekli bir dil modelidir. Dil modeli, bir cümlenin dünyada var olma olasılığını öngören bir modeldir. Örneğin, bir dil modeli, “Köpeğimi yürüyüşe çıkarırım” cümlesini, var olma olasılığı (yani internette), “Muzumu yürüyüşe çıkarırım” cümlesinden daha olası olarak etiketleyebilir. Bu, cümlelerin yanı sıra ifadeler ve daha genel olarak herhangi bir karakter dizisi için de geçerlidir.
Çoğu dil modeli gibi, GPT-3 de etiketlenmemiş bir metin veri kümesi (bu durumda, Ortak Tarama) üzerinde zarif bir şekilde eğitilmiştir. Kelimeler veya tümcecikler metinden rastgele çıkarılır ve model, bağlam olarak yalnızca çevreleyen kelimeleri kullanarak bunları doldurmayı öğrenmelidir. Bu, güçlü ve genelleştirilebilir bir modelle sonuçlanan basit bir eğitim görevidir. GPT-3 model mimarisinin kendisi, dönüştürücü tabanlı bir sinir ağıdır. Bu mimari yaklaşık 2–3 yıl önce popüler oldu ve popüler NLP modeli BERT ‘in temelini oluşturuyor. Mimari açıdan bakıldığında, GPT-3 aslında çok yeni değil. Peki onu bu kadar özel ve büyülü yapan nedir?
GERÇEKTEN BÜYÜK. 175 milyar parametreyle, şimdiye kadar oluşturulmuş en büyük dil modeli (GPT-2’nin yalnızca 1,5 milyar parametresi vardı!) Ve herhangi bir dil modelinin en büyük veri kümesi üzerinde eğitildi. Görünüşe göre bu, GPT-3’ün bu kadar etkileyici olmasının ana nedeni.
Ve işte büyülü kısım. Sonuç olarak, GPT-3 başka hiçbir modelin yapamadığını yapabilir ve herhangi bir özel ayar yapmadan belirli görevleri gerçekleştirebilir. GPT-3’ten çevirmen, programcı, şair veya ünlü bir yazar olmasını isteyebilirsiniz ve bunu 10’dan az eğitim örneği ile yapabilir.
Diğer modellerin çoğu (BERT gibi), nasıl çeviri yapılacağını öğretmek için Fransızca-İngilizce cümle çiftlerinin binlerce örneğini (örneğin) topladığınız ayrıntılı bir ince ayar adımı gerektirir. GPT-3 ile, bu ince ayar adımını yapmanız gerekmez. İnsanları GPT-3 konusunda asıl heyecanlandıran şey işte budur.
Peki günlük hayatımızda GPT-3’ü nasıl kullanabiliriz?
Birkaç örnek vermek gerekirse
Önümüzdeki günlerde GPT hakkında daha çok şey duyacağımıza eminim.


