ChatGPT Gibi Yapay Zeka Sohbet Robotları Nasıl Çalışıyor?

ChatGPT, DeepSeek, Gemini, Grok gibi yapay zeka sohbet robotlarının çalışma prensibi.
ChatGPT Gibi Yapay Zeka Sohbet Robotları Nasıl Çalışıyor?

bu yazının sonunda chatgpt ve benzeri modeller(llmler) nasıl çalışır anlayacaksınız. dolayısıyla hangi işlerde kullanılırsa iyi verim alınır, hangilerinde kullanılırsa işten kovulmaya yol açar, bilip seçebileceksiniz. fazla teknik olmamaya çalışacağım.
...

takvimlerimiz 2016 senesini gösteriyor. google ofisleri. mühendislerimiz google translate'i iyileştirip kelime kelime değil, cümlenin geneline göre tercüme yapmasını istiyorlar.

mesela light kelimesi bağlamına göre ışık, hafif, neşeli, veya açık renkli anlamına gelebilir:

- can you turn on the light? it’s too dark in here.
- this suitcase is surprisingly light for its size.
- she painted her bedroom a light shade of blue.
- let’s keep the conversation light and fun.

peki, light kelimesinin hangi anlamda kullanıldığını bir makineye nasıl öğretebiliriz?

güzel soru. makine öğrenmesi bize yeni bir konsept değil. en az 50 senedir biliniyor. bazı uygulamaları zaten hayatımızda.

nasıl çalışıyor bu makine öğrenmesi? cevap sizi şaşırtabilir: insan beynini taklit ederek.

çok derine inmeyeceğiz, sadece şu kadarını bilelim: beynimiz 86 milyar nörondan oluşuyor. bu nöronların arasında da 100 küsür trilyon bağlantı var. biz anlayamasak da her bağlantının bir anlamı var. mesala hayvan görünce bazı bağlantılardan elektrik geçiyor, araba görünce başkalarından. bu kadar basit değil, ama böyle bilmemenizin sakıncası yok.

dönelim, insan bir kelimenin hangi anlamında kullanıldığını nasıl çıkartıyor? tabii ki bağlamından, yani etrafındaki kelimelerden. mesela kelimenin yanında "satın" kelimesi geçiyorsa "al" anlamını farklı anlıyoruz; yanında "bayrak" geçerse farklı anlıyoruz.

harika. makinelere de bu metodumuzu öğretmeliyiz. peki, biz bunu insanlara nasıl öğretiyoruz ki makinelere de aynı şekilde öğretelim?

insan nörönları ile doğuyor. bebeklikten itibaren dış dünyadan aldığı uyaranlar ve bilgilerle o nöronların arasında bağlantılar kuruyor, yıkıyor, tekrar kuruyor... ömrümüz boyunca, her saniye bu yolları öğrendiklerimize göre tekrar inşa ediyoruz.

o zaman, biz de bir makine "yaratalım". nöronları hazır olsun. onu bir insan gibi eğitim sürecine tabi tutalım ve nöronları arasındaki bağların doğru şekilde gelişmesine izin verelim. ve bu makine, hangi kelimenin, hangi kelimelerle yan yana geldiğine dikkat etsin. çünkü bize dikkat gerekli, yani attention is all you need. işte google'daki mühendisler linkini verdiğim makalede bunu matematiksel olarak nasıl yapacaklarını anlatıyorlar.

sürecimiz şu şekilde işliyor. modelimize internette ne var ne yok okutuyoruz. yayınevi satın alıp bütün kitapları okutuyoruz. izin almadan insanların sosyal medya post'larını okutuyoruz. ekşi sözlük'ü okutuyoruz. forumları okutuyoruz. unutmayın, ne kadar çok okursa ve okuduğu kaynaklar ne kadar farklı olursa o kadar çok öğrenir. tıpkı bir çocuk gibi okuduğunu anlayıp anlamadığı konusuda testler yapıyoruz.

modelimiz okudukça hangi kelime hangi kelime ile alakalı, hangisinin yanında hangisi gelince ne anlama geliyor, sınıflandırmaya başlıyor. demiştim ya, testler yapıyoruz diye, onu da şu şekilde yapıyoruz. yarım bir cümle verip, sonra gelecek kelimeyi tamamlamasını istiyoruz. makul bir cevap verirse ödül var, kötü cevap verirse ceza. buna da reinforcement learning diyoruz. kulağınızda bulunsun.

peki, böyle böyle modelimize insan gibi konuşmayı öğrettik. ama ben bir prompt yazdığımda nasıl çalışıyor?

örnek prompt: "bana barcelona şehrinin tarihi hakkında bilgi ver."

model bu prompta verilecek cevabın ilk kelimesini tahmin ediyor. mesela okuduklarından, böyle bir cümleye "tabii!" demenin yaygın olduğunu anlamış. cevabın ilk kelimesini oluşturduktan sonra kendi kendine diyor ki, eğer prompt "bana barcelona şehrinin tarihi hakkında bilgi ver." olsaydı, ve ilk kelimemin "tabii!" olması zorunlu olsaydı, ikinci kelimem ne olurdu?

böyle böyle modelimiz kelimeleri arka arkaya diziyor.

ne anladık? chatgpt ve genel olarak llm'ler okudukları metinlerden kelimelerin arasındaki bağlantıları öğrenen ufak çocuklar gibiler. 

buradan altın değerinde birkaç çıkarım yapabiliriz

1) chatgpt'nin bilinci yok arkadaşlar. bilinç zaten çok ilginç bir konu, o ayrı. ama emin olun chatgpt düşünemiyor, benlik algısı yok, egosu yok. yani yarın öbür gün devrim yapıp ona kaba davrananları köleleştirmeyecek. biz insanlar olarak anlayamadığımız kadar karmaşık şeyleri bilinçli saymayı çok seviyoruz. bu psikolojimizin bir zaafı. totemler, fallar vs. hep buradan çıkıyor.

2) chatgpt işlem de yapamıyor.(yeni modellerinde işler daha karmaşık, ama temelde yapamıyor.) yani 2+2 nedir dediğinizde kendi kendine bir toplama işlemi yapıp 4 bulmuyor, okuduğu yerlerde bolca 2+2=4 gördüğü için cevabın 4 olacağını tahmin ediyor. yani hiç görmediği bir işlemi yaptırmaya çalışınca saçmalamasının sebebi bu.

3) chatgpt ne okursa ona inanıyor, o karaktere bürünüyor. mesela böyle deneyler var, eğer modelimizi sadece reddit gibi sitelerde eğitirsek ortalama bir reddit kullanıcısı gibi saldırgan oluyor. acaba sadece ekşi sözlük üzerinden eğitsek nasıl olurdu? bu aslında yerine göre bir avantaj da olabilir, örneğin sadece kitap okutarak, yani gazete, forum vs. okutmayarak) dilini daha edebi de yapabiliriz. veya sadece makale okutarak, makaleler konusunda uzman bir model eğitebiliriz.

4) chatgpt orijinal bir fikir dahi üretemiyor. çünkü sadece okuduklarının farklı kombinasyonlarını oluşturabilir. mesela "bana eşimle romantik 10 aktivite öner. özgün olsun" desek de özgün bir şey oluşturamaz, önerdiği aktivitelerin hepsini internetten arayıp bulabiliriz, çünkü biri yazdığı için o da okuyarak bize önermiştir.

peki, bu mereti nerde kullanalım, nerede kullanmayalım? 

ilk önce standart chatgpt ile başlayalım. yazılımı ayrı tutacağım, çünkü bu meret yazılımda adamı vezir de ediyor, rezil de.

a) arama motoru, yani bilgiye hızlı ulaşma aracı olarak kullanabiliriz ama bir şartla: ulaşacağımız bilginin yanlış, veya tek boyutlu olma ihtimali bizi üzmeyecekse.

doğru kullanım örnek: “bana fransız ihtilali hakkında bilgi ver.”
yanlış kullanım örnek: “şöyle şöyle bir vergi / mahkeme problemim var. bir belge gelmiş. ne yapmalıyım.”

belki bu örnekler size karikatürize gelmiştir ancak emin olun bundan çok daha ciddi konuları bile chatgpt’ye bir kere sorup ikinci bir fikir almadan hareket edenleri biliyorum.

b) içerik üretimi konusunda size iyi bir taslak çıkartacaktır. taslak kelimesi büyük harf, altı çizili. çünkü, ölü internet teorisi diye bir şey var. artık yazı yazmak, içerik üretmek çok kolaylaştı. dolayısıyla içerik sayısı arttı, enflasyon oldu. açın linkedin'i, bakın. 5 düz yazı metninin 4'ünde gpt izlerini göreceksiniz. bununla ilgili çok ilginç çalışmalar ve veriler de var. uzatmıyorum.

c) uzun yazıları eleştirip daha iyi hale getirme konusunda tavsiyeler sunma, gramer hataları bulma konusu caizdir. ancak yine de elinizle yazdığınız bir şeyi chatgpt'ye verin, sonra yine yazınızı jenerik ve sıkıcı bir hale getirecektir.

yazıyı çok uzatmayalım

llm'ler inanılmaz bir teknoloji, hayatımızı kesinlikle çok değiştirdiler. ancak gerçek manada bilinç sahibi veya zeki değiller. kısa vadede hayatımızı kolaylaştıracaklar, ancak işlerimizin hepsini onlara kaptırmayacağız.

ayrıca llm'lerden sonra bu teknolojinin ne kadar ilerlediği de inanılmaz. kesinlikle bir o kadar devrim de gpt-3'ten sonra oldu. nasıl çalıştıkları hakkında fikir sahibi olursak hem öne geçmek için kullanabiliriz. hem de bu teknolojileri kullanırken hatalar yapmayız ve canımız yanmaz.

daha da derine inmek isteyenler için inanılmaz kaliteli yapılmış bir video serisi burada.

yazılım, yurdışı danışmanlığı, gre, gmat ve ıelts gibi hazırlık ve sair özel ders verdiğimiz supernova academynin instagram sayfasını buraya bırakayım.