Bu yazı, bugün kullandığımız yapay zekâ sistemlerinin temelini atan ama adları çok az anılan sessiz kahramanlara bir saygı duruşudur.
Transformer: Yapay Zekânın Kalbindeki Devrim
GPT, BERT , T5 – RoBERTa gibi kavramlara ne kadar aşinasınız bilmiyorum. Ama sanırım GPT kısaltmasını artık duymayan kalmamıştır.
Dikkat ederseniz hepsinde ortak bir harf var “T”.
“T” → Transformer.
Transformer mimarisi, günümüzde ChatGPT’den Google Translate’e kadar neredeyse tüm modern dil modellerinin temel taşı.
Peki nedir bu mimariyi bu kadar güçlü kılan?
Transformer’ın Temel Yapısı
-
Encoder (Kodlayıcı):
• Girdiyi (örneğin: “Murat kahve içti”) alır, kelimeleri vektörlere çevirir.
• Anlam ilişkilerini çözümler: “Murat” ile “içti” arasındaki bağ gibi. -
Decoder (Çözücü):
• Bu temsilleri kullanarak yeni metin üretir.
• Örneğin, farklı bir dile çevirir ya da özet çıkarır. -
Self-Attention Mekanizması:
• Her kelimenin diğer kelimelerle olan bağını hesaplar.
• “Çay içti” ile “kahve içti” arasındaki farkı anlamasını sağlar.
✨ Şöyle de diyebiliriz:
“Transformer, kelimeler arasındaki görünmez bağları görebilen ve onları yeni anlamlara dönüştüren bir çevirmen-büyücüdür.”
👥 Sessiz 8’li: “Attention is All You Need” (2017)
Adları pek bilinmeyen bu 8 isim tranformer mimarisini bugünlere getiren çekirdek kadrodur. Kimi sonradan OpenAI, DeepSeek gibi şirketlere geçti, kimi kendi şirketini kurdu.
-
Ashish Vaswani – Transformer fikrinin mimarı.
-
Noam Shazeer – Verimlilik ve optimizasyon ustası.
-
Niki Parmar – Encoder-decoder yapısının geliştiricisi.
-
Jakob Uszkoreit – Google Translate entegrasyonu.
-
Llion Jones – Positional Encoding katkısıyla zaman algısını kazandırdı.
-
Aidan N. Gomez – Scaled attention fikrini önerdi
-
Lukasz Kaiser – Tensor2Tensor çerçevesini geliştirdi.
-
Illia Polosukhin – Şimdi NEAR Protocol kurucusu ama NLP’nin derinlerine kazınmış bir isim.
Geliştirdikleri model çok güçlüydü çünkü önceki modeller (LSTM/GRU gibi) sıralı çalışıyordu ve yavaştı.
Bu ekip dedi ki:
🧠 “Hayır, dikkat (attention) her şeydir.”
📌 “Sıralamayı unutun, tüm kelimelere aynı anda bakalım.”
Ve self-attention gibi sihirli bir mekanizmayı dünyaya kazandırdılar.
Gününüz LLM’lerinin temelini atan ve adları çok fazla anılmadan tarihe geçen bu 8 sessiz dehayı saygıyla selamlıyorum.
Derin Öğrenmenin 3 Atlısı
2017’de Transformer sahneye çıkmadan çok önce, derin öğrenmenin yapı taşlarını döşeyen üç büyük bilim insanı vardı. Bugün Transformer mimarisini konuşabiliyorsak, bu üç bilim insanının onlarca yıl boyunca süren inatçı, sabırlı ve çoğu zaman yalnız yürüttüğü çalışmalar sayesinde. Derin öğrenmenin bu üç atlısı, yapay zekâ tarihinin sessiz ama en güçlü devrimcileriydi.
1. Geoffrey Hinton – “Derin Öğrenmenin Babası”
• AlexNet ile 2012’de derin öğrenme devrimini başlattı.
• Bugün kullandığımız CNN’lerin ve LLM’lerin temeli onun araştırmalarında yatıyor.
2. Yann LeCun – Facebook AI Research (FAIR) kurucusu
• CNN mimarisinin öncüsü.
• Görüntü tanıma ve kalite kontrol sistemlerinin temelini attı.
3. Yoshua Bengio
• Sinir ağlarının optimizasyonunda çığır açtı.
• LLM’lerin derin yapısal mimarilerinin teorik iskeletini kurdu.
Saygı Duruşu
Birçok bilimsel devrimin ardında görünmeyen, az konuşulan ama çok çalışan sessiz insanlar vardır.
Bu insanlar hayatlarını öğrenmeye, geliştirmeye ve araştırmaya adıyor.
Matematikle, veriyle, anlamla yürüyorlar — ama onları asıl yolda tutan şey içlerindeki büyük inanç ve azim.
Bugün kullandığımız her yapay zekâ aracında, bir yerlerde onların parmak izleri var.
🫡 Gelmiş geçmiş tüm sessiz dehalara, insanlık için değer üreten herkese saygıyla…

