İçindekiler
1 Giriş
Büyük Dil Modellerinin (LLM'ler) ve Çok Modlu Büyük Dil Modellerinin (MLLM'ler) evrimi, yapay zeka muhakeme yeteneklerinde devrim yarattı, ancak doğal dil anlama önyargısı ve hesaplama verimliliğinde önemli zorluklar devam etmektedir. Mevcut Yapay Zeka Ajanı çerçeveleri, Düşünce Zinciri (CoT) ve Düşünce Yinelemesi (IoT) gibi harici muhakeme mekanizmalarına ağırlıklı olarak güvenmekte ve bu da önemli token maliyetleri oluşturmakta ve LLM sınırlamalarını miras almaktadır.
Önerdiğimiz Düşüncenin İç Gözlemi (INoT) çerçevesi, LLM'nin kendi içinde programatik diyalog muhakemesi yoluyla öz yansıma yapmasını sağlayarak bu sınırlamaları ele almakta, harici yinelemeleri ve ilişkili hesaplama yükünü azaltmaktadır.
7.95%
Ortalama Performans İyileştirmesi
58.3%
Token Maliyeti Azalması
6
Değerlendirilen Kıyaslama
2 INoT Çerçeve Tasarımı
2.1 LLM-Okunabilir Kod İstemi
INoT'nin temel yeniliği, LLM-Okunabilir kod istemi tasarımında yatmaktadır; bu tasarım, doğal dil muhakemesini programatik yürütme kalıplarına dönüştürür. Dilsel varyasyonlara dayanan geleneksel istem mühendisliğinin aksine, INoT, LLM'lerin doğrudan yorumlayıp yürütebileceği yapılandırılmış kod şablonları kullanır.
2.2 Kendini Reddetme Mekanizması
INoT, LLM'nin harici doğrulama döngüleri olmadan kendi muhakeme sürecini değerlendirdiği dahili bir öz yansıma uygular. Bu dahili eleştiri mekanizması, çoklu ajan etkileşimlerine veya yinelemeli harici doğrulamaya olan ihtiyacı azaltır.
3 Teknik Uygulama
3.1 Matematiksel Temel
INoT çerçevesi, muhakeme sürecini biçimsel olasılık modelleri aracılığıyla optimize eder. Verilen $x$ girdisi ve istenen $y$ çıktısı için geleneksel yöntemler şunu hesaplar:
$P(y|x) = \prod_{t=1}^{T} P(y_t|x, y_{ INoT bunu dahili yansıma yoluyla geliştirir: $P_{INoT}(y|x) = \prod_{t=1}^{T} P(y_t|x, y_{ Burada $R_t$, $t$ adımındaki dahili yansıma durumunu temsil eder ve şu şekilde hesaplanır: $R_t = f_{reflect}(x, y_{ $f_{reflect}$ yansıma fonksiyonu, LLM'nin gizli uzayında çalışarak, harici token tüketimini en aza indirirken muhakeme bütünlüğünü korur. PDF açık kod sağlamasa da, INoT çerçevesi bu sahte kod yapısı aracılığıyla kavramsallaştırılabilir: INoT, matematiksel muhakeme, programlama görevleri ve çok modlu soru cevaplamayı kapsayan altı kıyaslama üzerinde değerlendirildi. Çerçeve, CoT, IoT ve ProgCo gibi temel yöntemlere kıyasla ortalama %7.95'lik bir performans iyileştirmesi elde etti. INoT'nin en önemli başarısı, en iyi performans gösteren temel yönteme kıyasla %58.3'lük bir token maliyeti azalmasıdır. Bu verimlilik kazancı, yansıma sürecinin içselleştirilmesinden ve çoklu harici doğrulama döngülerine olan ihtiyacın ortadan kaldırılmasından kaynaklanmaktadır. INoT sadece bir başka artımsal iyileştirme değil—LLM muhakemesine nasıl yaklaştığımız konusunda temel bir değişimdir. Çerçeve, karmaşık muhakemenin çoklu harici doğrulama döngüleri gerektirdiği yaygın dogmayı başarıyla sorgulamaktadır. Yansımayı modelin içine taşıyarak, yazarlar mevcut Yapay Zeka ajanı mimarilerindeki çok önemli bir verimsizliği tespit etmişlerdir. Araştırma, zorlayıcı bir mantıksal ilerleme izlemektedir: Mevcut yöntemler → Tespit edilen verimsizlikler → Dahili yansıma hipotezi → Uygulama → Doğrulama. Zincir güçlü durmaktadır çünkü performansı iyileştirirken temel bir kısıtlamayı (token maliyetleri) ele alarak yapay zeka optimizasyonunda nadir görülen bir kazan-kazan senaryosu yaratmaktadır. Artılar: %58.3'lük token azalması anıtsal bir başarıdır—orijinal Transformer mimarisinin RNN'ler üzerindeki iyileştirmesi gibi optimizasyon atılımlarında görülen verimlilik kazanımlarıyla karşılaştırılabilir. Çerçevenin birden fazla kıyaslama üzerindeki çok yönlülüğü, sağlam bir genelleme göstermektedir. Eksiler: Yaklaşım, LLM'lerin etkili öz yansıma için yeterli dahili temsil kapasitesine sahip olduğunu varsayar. Orijinal CycleGAN makalesinde belirtildiği gibi, mimari kısıtlamalar bu tür dahili optimizasyon yaklaşımlarını sınırlayabilir. Ek olarak, yöntem, modelin eğitim dağılımının ötesinde gerçekten yeni muhakeme gerektiren görevlerde zorlanabilir. Bu araştırma, sektör genelinde muhakeme çerçevesi tasarımlarının derhal yeniden değerlendirilmesine yol açmalıdır. Yapay Zeka ajanları inşa eden şirketler, harici doğrulama döngüleri yerine dahili yansıma mekanizmalarını önceliklendirmelidir. Sonuçlar, istem mühendisliğinin doğal dil varyasyonları yerine programatik yapılara doğru kayması gerektiğini göstermektedir. DeepMind'ın model tabanlı optimizasyon üzerine yaptığı araştırmanın öne sürdüğü gibi, uygun şekilde yapılandırıldığında dahili muhakeme genellikle harici doğrulamadan daha iyi performans gösterir. INoT çerçevesi, gelecekteki gelişim için birkaç umut verici yön açmaktadır: Gelecekteki çalışmalar, farklı görev türleri arasında optimal performans için INoT'nin dahili yansımasını seçici harici doğrulama ile birleştiren hibrit yaklaşımları araştırmalıdır.3.2 Kod Uygulaması
class INoTReasoner:
def __init__(self, llm_model):
self.llm = llm_model
self.reflection_states = []
def reason_with_introspection(self, query):
# İlk muhakeme geçişi
initial_response = self.llm.generate(query)
# Dahili yansıma aşaması
reflection_prompt = self._build_reflection_prompt(query, initial_response)
reflection = self.llm.generate(reflection_prompt)
# Entegre edilmiş nihai yanıt
final_prompt = self._integrate_reflection(query, initial_response, reflection)
return self.llm.generate(final_prompt)
def _build_reflection_prompt(self, query, response):
return f"""Aşağıdaki muhakemeyi potansiyel iyileştirmeler için analiz edin:
Sorgu: {query}
Mevcut Yanıt: {response}
Mantıksal boşlukları belirleyin ve iyileştirme önerileri sunun:"""4 Deneysel Sonuçlar
4.1 Performans Metrikleri
4.2 Token Verimliliği
Kilit Görüşler
5 Eleştirel Analiz
Endüstri Analisti Perspektifi
İşin Özü (Cutting to the Chase)
Mantık Zinciri (Logical Chain)
Artılar ve Eksiler (Highlights and Limitations)
Harekete Geçirici Bilgiler (Actionable Insights)
6 Gelecek Uygulamalar
7 Referanslar