Home Teknoloji Microsoft’un Phi-3 mini

Microsoft’un Phi-3 mini

36
0

Neden önemlidir: Gelişmiş yapay zeka yetenekleri genellikle milyarlarca, hatta trilyonlarca parametreye sahip, bulutta barındırılan devasa modeller gerektirir. Ancak Microsoft, telefonunuzda veya dizüstü bilgisayarınızda çalışabilen ve piyasadaki en büyük dil modellerinden bazılarına rakip olabilecek performans sunan küçük boyutlu bir yapay zeka gücü olan Phi-3 Mini ile bu duruma meydan okuyor.

Yalnızca 3,8 milyar parametre ağırlığına sahip olan Phi-3 Mini, Microsoft’un üzerinde çalıştığı üç kompakt yeni yapay zeka modelinden ilkidir. Küçük olabilir, ancak Microsoft bu küçük üstün başarılının kendi ağırlık sınıfının çok üzerinde performans gösterebileceğini ve kendi boyutunun 10 katı bir modelden alacağınız yanıtlara yakın yanıtlar üretebileceğini iddia ediyor.

Teknoloji devi, Mini’yi daha sonra Phi-3 Small (7 milyar parametre) ve Phi-3 Medium (14 milyar parametre) ile takip etmeyi planlıyor. Ancak Microsoft’un rakamlarına göre 3,8 milyar parametreli Mini bile önemli bir oyuncu olmaya hazırlanıyor.

Bu rakamlar, Phi-3 Mini’nin, ücretsiz ChatGPT’ye güç veren 175 milyardan fazla parametreli GPT-3.5’in yanı sıra Fransız yapay zeka şirketi Mistral’in Mixtral 8x7B modeli gibi ağır sıkletlere karşı kendini koruduğunu gösteriyor. Bulut bağlantısı gerektirmeden yerel olarak çalışacak kadar kompakt bir model için hiç de fena değil.

Peki konu yapay zeka dil modelleri olduğunda boyut tam olarak nasıl ölçülür? Her şey parametrelere bağlıdır; sinir ağındaki, metnin nasıl işlendiğini ve oluşturulduğunu belirleyen sayısal değerler. Daha fazla parametre genellikle sorgularınızın daha akıllıca anlaşılması anlamına gelir, ancak aynı zamanda artan hesaplama talepleri anlamına da gelir. Ancak OpenAI CEO’su Sam Altman’ın açıkladığı gibi durum her zaman böyle olmuyor.

OpenAI’nin GPT-4’ü ve Anthropic’in Claude 3 Opus’u gibi devasa modellerin birkaç yüz milyar parametreyi barındırdığı söylenirken, Phi-3 Mini’nin maksimum rakamı yalnızca 3,8 milyardır. Ancak Microsoft’un araştırmacıları, eğitim verilerinin iyileştirilmesine yönelik yenilikçi bir yaklaşımla şaşırtıcı sonuçlar elde etmeyi başardılar.

Nispeten küçük 3,8 milyar parametreli modeli, yüksek kaliteli web içeriğinden ve önceki Phi modellerinden geliştirilen sentetik olarak oluşturulmuş materyalden oluşan son derece seçilmiş bir veri kümesine odaklayarak, Phi-3 Mini’ye zayıf yapısı nedeniyle büyük beceriler kazandırdılar. Aynı anda 4.000’e kadar token bağlamını işleyebilir ve ayrıca 128k token’lık özel bir sürümü de mevcuttur.

Microsoft, “Ders kitabı benzeri materyallerden, her şeyi çok çok iyi açıklayan kaliteli belgelerden okumak olduğundan, dil modelinin bu materyali okuma ve anlama görevini çok daha kolay hale getiriyorsunuz” diye açıklıyor.

Etkileri çok büyük olabilir. Phi-3 Mini gibi küçük yapay zeka modelleri gerçekten günümüzün milyarlarca parametreli devleriyle rekabet edebilecek düzeyde performans sunabilirse, günlük görevler için enerjiyi tüketen bulut yapay zeka çiftliklerini geride bırakabiliriz.

Microsoft, modeli halihazırda Azure bulutunun yanı sıra açık kaynaklı AI model sunucuları Hugging Face ve Ollama aracılığıyla ilerlemek için kullanılabilir hale getirdi.

Kaynak

LEAVE A REPLY

Please enter your comment!
Please enter your name here