Blog
Teknoloji LLM Machine Learning Transformer Yapay Zeka AI tarafından hazırlandı

Kelime Tahmininden Akla: Yapay Zekanın Büyük Sırrı

Alper Kocan 26 February 2026 4 görüntülenme

Selamlar, ben Alper. Bugün biraz "mutfağa" girelim ve son zamanlarda hepimizin hayatını değiştiren şu yapay zeka (AI) meselesinin kalbine inelim. Muhtemelen duymuşsunuzdur; uzmanlar ChatGPT veya Claude gibi modeller için "alt tarafı bir sonraki kelimeyi tahmin ediyor" (predicting the next word) diyorlar. Teknik olarak bu doğru. Ama dürüst olalım, sadece bir sonraki kelimeyi tahmin eden bir sistemin nasıl olup da kuantum fiziğini anlattığını, Python kodu yazdığını veya sizinle dertleştiğini anlamak gerçekten güç. "Buradan oraya nasıl geldik?" sorusu, bugün yapay zeka dünyasındaki en büyük gizemlerden biri.

Olasılıkların Sihirli Dünyası

Her şey aslında çok basit bir mantıkla başlıyor: Olasılık (Probability). Bir dil modeline "Güneş doğudan..." cümlesini verdiğinizde, model bir sonraki kelimenin "doğar" olma ihtimalinin %99 olduğunu biliyor. Bunu binlerce kitaptan, makaleden ve web sitesinden öğrendiği devasa veri yığınına bakarak yapıyor. İlk başlarda bu modeller gerçekten de sadece gelişmiş bir "otomatik tamamlama" (autocomplete) gibi çalışıyordu. Telefonlarımızdaki klavyelerin bir tık daha akıllısı gibi düşünebilirsiniz.

Ancak işin içine Transformer mimarisi ve Dikkat Mekanizması (Attention Mechanism) girdiğinde işler değişti. Bu mekanizma, modelin bir cümleyi okurken hangi kelimelerin birbiriyle daha ilişkili olduğunu anlamasını sağlıyor. Örneğin, "Bankaya gittim ama kapalıydı" cümlesindeki "kapalı" kelimesinin "banka" ile ilgili olduğunu, nehir kenarındaki bir setle ilgili olmadığını bu sayede anlıyor. İşte bu bağlam (context) kurma yeteneği, basit bir tahmin oyununu derin bir dil kavrayışına dönüştürmeye başladı.

Ölçeklenme Yasaları: Daha Büyük Daha mı Akıllı?

Yazılım dünyasında genellikle "daha fazla donanım her zaman daha iyi sonuç vermez" deriz. Ama büyük dil modellerinde (LLM - Large Language Models) durum biraz farklı gelişti. Araştırmacılar, modellerin parametre sayısını (yani modelin içindeki ayarlanabilir düğmeleri) ve eğitildikleri veri miktarını artırdıkça, modellerin sadece kelime tahmin etmede iyileşmediğini, hiç beklenmedik yetenekler kazandığını fark ettiler. Buna literatürde Ortaya Çıkan Özellikler (Emergent Properties) deniyor.

  • Mantık Yürütme (Reasoning): Model sadece kelimeleri dizmiyor, aralarındaki mantıksal bağları da kopyalıyor.
  • Kod Yazma: Programlama dilleri de aslında birer dildir. Model, "if" kelimesinden sonra ne gelmesi gerektiğini o kadar iyi öğreniyor ki, karmaşık algoritmalar oluşturabiliyor.
  • Çeviri: Diller arasındaki kavramsal benzerlikleri fark ederek, sözlük kullanmadan çeviri yapabiliyor.

Peki, sadece istatistiksel bir tahmin nasıl oluyor da "düşünme" gibi görünüyor? İşte zurnanın zırt dediği yer burası. Bir sonraki kelimeyi en doğru şekilde tahmin etmek için model, dünyanın nasıl işlediğine dair içsel bir dünya modeli (world model) geliştirmek zorunda kalıyor. Eğer "Yerçekimi nedeniyle elma yere..." cümlesini tamamlamak istiyorsanız, yerçekiminin ne olduğunu bir şekilde "anlamış" olmanız gerekiyor. Aksi takdirde tahmininiz her zaman yüzeysel kalır.

İnsan Dokunuşu: RLHF

Tabii her şey sadece veriyle bitmiyor. Modelleri bu kadar "insansı" yapan gizli sos, İnsan Geri Bildirimiyle Pekiştirmeli Öğrenme (RLHF - Reinforcement Learning from Human Feedback) dediğimiz süreç. Binlerce insan, modelin verdiği cevapları puanlıyor: "Bu cevap doğru," "Bu cevap kaba," "Bu cevap mantıklı." Model bu geri bildirimlerle, sadece kelime tahmin etmeyi değil, faydalı ve güvenli olmayı da öğreniyor. Yani bir anlamda, vahşi bir olasılık makinesini terbiye ediyoruz.

Biz geliştiriciler olarak genellikle deterministik sistemlere alışığızdır; yani "A girdisini verirsen B çıktısını alırsın." Ancak bu modeller olasılıksal (probabilistic) çalıştığı için bazen saçmalayabiliyorlar (buna halüsinasyon diyoruz). Yine de, "bir sonraki kelimeyi tahmin et" gibi dar bir hedeften, insanlığın tüm bilgi birikimini sentezleyebilen bir yapıya ulaşmış olmamız büyüleyici değil mi?

Sonuç: Tahminden Öteye

Sonuç olarak dostlar, "bir sonraki kelimeyi tahmin etmek" aslında buzdağının sadece görünen kısmı. Bu basit görev, o kadar büyük bir ölçekte ve o kadar karmaşık bir mimariyle yapılıyor ki, sonuçta ortaya çıkan şey zekadan ayırt edilemez hale geliyor. Belki de bizim beynimiz de bir nevi "bir sonraki adımı tahmin etme" makinesidir, kim bilir?

Şu an için bu modellerin nasıl "düşündüğünü" tam olarak açıklayamasak da, sundukları imkanlar muazzam. Bir sonraki projenizde veya günlük işlerinizde bu araçları kullanırken, arka planda dönen o devasa olasılık denizini hayal etmeye çalışın. Teknolojinin bu kadar hızlı evrildiği bir dönemde yaşamak gerçekten heyecan verici.

Bir sonraki yazıda görüşmek üzere, kodla kalın!

Yorumlar (0)
Yorum Yap