Markalar ürünlerinin işlevleriyle içselleştirilir ve adeta dilimizin bir parçası olur. “Bana bir selpak verir misin?” veya “Orkid’in var mı?” gibi soruları hepimiz kullanırız. Aslında Selpak’tan kastımız peçete, Orkid’ten kastımız da hijyenik peddir. Sözlükte değil algılarda karşılığı olan bu kavramlara hepimiz aşinayız. Peki teknolojide durum nasıl? Akıllı telefonlardan bahsederken iPhone, internette arama yapmaktan bahsederken de Google’lamak diyoruz. Peki şimdi de “Yapay zekâlamak” gibi bir kavrama mı dönüşecek? Ve bunun isim babası ChatGPT mi olacak dersiniz?Yapay zekâyla uyumlanma biçimlerimiz dilimizde ve dolayısıyla düşünme biçimlerimizde bazı değişikliklere sebep olacak. Bu değişiklikleri "insan" olma özelliklerimizi kaybetmeden hayatımıza katmak değerli. Uzun yıllardır iletişim hâlinde olduğumuz teknoloji cihazlarının içinden yepyeni bir dil modeli doğdu. Bu dil modeliyle zihnimizin düşünme biçimlerine doğru bir köprü kurarken, yapay zekânın varlığının ve bizimle iletişim kurabilmesinin arkasındaki dil modellerine dair bilgi vermek ve bu model dönüşürken zihnimizde neler olabileceğine dair düşündürmek istiyorum.Bilinçaltının Yapay Zekâ HâliFarklı alışkanlıklar oluşturabilmek de bir davranış rutininin sonucu. Durum böyleyken, rutinleşen davranışı biraz daha parçalara ayırdığımızda karşımıza tutum ve algılarımız çıkıyor. Yani zihinsel süreçler devreye giriyor. Robert Heath’in Bilinçaltını Ayartmak kitabının satırlarında gezinirken öğrenmenin aktif, pasif ve örtülü üç hâli olduğunu ve bunları kavramanın çok uzun yıllar sürdüğünü fark edersiniz. İşin ilginci, zihnimiz reklamları işlerken, örneğin, siz bir reklamı dikkatinizi vermiş bir şekilde izlerseniz reklamın aklınızda kalacağı ve size verdiği mesajın size geçtiği kabul edilir diye düşünebilirsiniz. Bu “ideal işleme” senaryosu. Fakat daha sonra örtülü öğrenmeyle yani sizin dikkatinizi çok da vermeden zihninize girmeyi başarmış reklamların veya diğer iletişim faaliyetlerinin daha çok aklınızda kaldığı ve markanın sizden istediği davranışa yönelttiği anlaşılmış. Örtülü öğrenmenin bilgiyi çektiği hafıza örtülü hafızadır. Bu tıpkı araba kullanıp sohbet ederken aniden fren yapabilmeniz, aynı anda silecek çalıştırmanız ve karşıdan karşıya geçen birine yol verebilmeniz gibi. Yani bazı şeyler farkında olmadan öğrendiğiniz ve aynı anda yönettiğiniz algısal durumlardan geçiyor.“Melis ne diyorsun?” demeyin. Hafızamızın kodlarını oluşturan zihin algılarıyla bilinç ve bilinçdışı (aslında bilinçaltı değilmiş), annemizin karnına düştüğümüz andan beri çevresel birçok faktörden etkilenerek düşünme patikalarını geliştiriyor. Ayrıca hem görme hem de eksikleri tamamlama patikalarını da. İnsan anadili çerçevesinde düşünüp, dünyayı algılıyor. Algıları da iletişim biçimleriyle yaşam biçimini oluşturuyor.Son ChatGPT-4o lansmanı ve hemen akabinde Google Gemini toplantısıyla art arda düşen yenilikler silsilesini neresinden tutup kullanacağını bilmeyen bir kitleyle karşı karşıyayız. Yine her durumda olduğu gibi, kolay anlaşılır ve en popüler olan kısmı tüketecek bir kesim var. Hemen denedik ve sunulan yeniliklere şaşırdık mesela. Ama ne kadarını ne kadar faydalı ve iş verimi yaratacak şekilde kullanacağımızı tam anlamıyla biliyor muyuz? Evet, bu yolculuk uzun, her gün yeni bir gelişme yaşanıyor. Ama ardındaki hikâyeyi derinlemesine anlamak olmasa da fikir sahibi olmak isteyenler için aşağıda bu sistemlerin arkasındaki dil modellerini kaleme alıyorum.Dil Modelleri ve İnsan Hafızası: Beyin İşleyişi Üzerindeki Etkileriİşte, büyükten küçüğe sıralanmış hâliyle günümüzdeki en büyük dil modelleri (LLM’ler):OpenAI GPT-4: Yüz milyarlarca parametreye sahip ve geniş bir veri kümesiyle eğitilmiş.Anthropic Claude: Yüksek parametre sayısı ve geniş veri setleriyle eğitilmiş.Meta LLaMa: Meta’nın geliştirdiği büyük dil modeli.Microsoft Research ORCA: Microsoft tarafından geliştirilen büyük dil modeli.Cohere: Gelişmiş dil modellerinden biri.Google Gemini: Google’ın geliştirdiği dil modeli.PaLM (Pathways Language Model: Google’ın bir diğer büyük dil modeli.Dil modellerini eğitmek ve geliştirmek için kullanılan makine öğrenmesi algoritmalarının durumuna göz atalım. 2003-2023 arasında makine öğrenmesi modellerinin coğrafi dağılımı ABD’nin açık ara lider olduğu, Çin ve Avrupa ülkelerininse önemli katkılarda bulunduğunu ortaya koyuyor. 2003-2023 arasında coğrafi bölgelere göre öne çıkan makine öğrenmesi modellerinin sayısı. Kaynak: Epoch, 2023 | Grafik: 2024 AI Index raporuBir sonraki grafikse 2012'den 2023'e kadar önemli makine öğrenmesi modellerinin eğitimi için gereken kaynağı (saniyede bir katrilyon işlem anlamına gelen petaFLOP cinsinden) gösteriyor. Örneğin, GPT-3 175B modelinin eğitimi 364 milyon petaFLOP gerektirirken, Google'ın Gemini Ultra modeli için bu gereksinim 50 milyar petaFLOP'a çıkıyor. Bu artış, büyük veri merkezleri ve süper bilgisayarlar gibi altyapılara ihtiyaç duyan "hesaplama kaynağı" gereksiniminin arttığını, yapay zekâ araştırma ve geliştirme süreçlerinde daha fazla maliyet ve yatırım gerektirdiğini ve bu durumun ülkeler ve şirketler arasında daha yoğun teknolojik üstünlük mücadelesi anlamına geldiğini gösteriyor.2012-2023 arasında öne çıkan makine öğrenmesi modellerinin eğitimi için gereken enerji başlıklı grafik. Kaynak: Epoch, 2023 | Grafik: 2024 AI Index raporuDil modelleri, eğitildikleri veriler ve makine öğrenmesi algoritmalarının gücüyle doğal dili anlamdırabiliyor, üretebiliyor ve çevirebiliyor. Tam da insan gibi yanıtlar verebiliyor.Peki hiç büyük dil modelleriyle insan hafızası arasındaki paralellikleri düşündünüz mü? İşte bazıları:1. Veri İşleme ve DepolamaLLM’ler,çok büyük miktarda veriyi işleyip depolayabilir. Eğitim sürecinde metinler ve diğer veriler üzerinden öğrenirler. Modeller, parametreler aracılığıyla bilgiyi saklar ve gerektiğinde bu bilgiyi kullanarak tahminler yapar. İnsan hafızasıysa büyük miktarda bilgiyi işleyebilir ve depolayabilir. Beyin sinapslar ve nöronlar aracılığıyla bilgiyi saklar. Bellek aktif (çalışma belleği) ve pasif (uzun süreli bellek) olarak işlev görür.2. Öğrenme YöntemleriLLM’ler denetimli öğrenme, denetimsiz öğrenme ve pekiştirmeli öğrenme gibi yöntemlerle eğitilir. Veri setlerinden kalıpları öğrenir ve bu kalıpları kullanarak yeni veri tahminlerinde bulunur. İnsan hafızasıysa deneyim, gözlem, tekrar ve eğitim yoluyla öğrenir. Öğrenme süreçleri aktif (dikkat gerektiren), pasif (dikkat düşük) ve örtük (farkında olmadan) olabilir.3. Bilgi Erişimi ve KullanımıLLM’ler bir sorguya yanıt verirken, model daha önce öğrendiği kalıpları ve istatistikleri kullanarak en olası yanıtı üretir. Tahminler modelin parametrelerine ve eğitildiği verilere dayanır. İnsan hafızasıysa bilgiyi geri çağırırken önceki deneyimlerini ve öğrenimmlerini kullanır.4. Enerji TüketimiLLM’ler çok büyük enerji tüketimine sahiptir. Örneğin, ChatGPT gibi bir modelin eğitimi yıllık ortalama bin ABD hanesinin elektrik tüketimine eşdeğer enerji harcar. İnsan beyniyse görece düşük enerji tüketimiyle yüksek verimlilikle çalışır. Ortalama bir insan beyni yaklaşık 20 ila 50 watt enerji tüketir.Dil modellerini anlamak ve doğru kullanmak etkili etkileşimler kurmanın anahtarı. Tokenizasyon süreci, dil modellerinin metni anlamasına ve işlemelerine yardımcı olur. Bu süreç insan hafızasının bilgi işleme ve saklama süreçlerine benzer. İnsanlar yapay zekâya doğru komutlar vererek daha etkili ve anlamlı etkileşimler kurabilir.Köşe yazarları tarafından burada paylaşılan görüşler, incturkiye.com’a değil, yazara aittir.Çok daha fazlası için Inc. Türkiye bültenlerine kaydolun.