Kandungan
1 Pengenalan
Evolusi Model Bahasa Besar (LLM) dan Model Bahasa Besar Multimodal (MLLM) telah merevolusikan keupayaan penalaran AI, namun cabaran besar kekal dalam bias pemahaman bahasa semula jadi dan kecekapan pengiraan. Kerangka Agen AI semasa sangat bergantung pada mekanisme penalaran luaran seperti Rantaian Pemikiran (CoT) dan Lelaran Pemikiran (IoT), yang menjana kos token yang besar dan mewarisi batasan LLM.
Kerangka Introspeksi Pemikiran (INoT) yang kami cadangkan menangani batasan ini dengan membolehkan refleksi kendiri dalam LLM itu sendiri melalui penalaran dialog berprogram, mengurangkan lelaran luaran dan overhead pengiraan yang berkaitan.
7.95%
Penambahbaikan Prestasi Purata
58.3%
Pengurangan Kos Token
6
Penanda Aras Dinilai
2 Reka Bentuk Kerangka INoT
2.1 Prompt Kod Boleh-Baca LLM
Inovasi teras INoT terletak pada reka bentuk prompt kod boleh-baca LLM, yang mengubah penalaran bahasa semula jadi menjadi corak pelaksanaan berprogram. Tidak seperti kejuruteraan prompt tradisional yang bergantung pada variasi linguistik, INoT menggunakan templat kod berstruktur yang boleh ditafsir dan dilaksanakan secara langsung oleh LLM.
2.2 Mekanisme Penafian Diri
INoT melaksanakan refleksi kendiri dalaman di mana LLM menilai proses penalarannya sendiri tanpa gelung pengesahan luaran. Mekanisme kritikan dalaman ini mengurangkan keperluan untuk pelbagai interaksi ejen atau pengesahan luaran berulang.
3 Pelaksanaan Teknikal
3.1 Asas Matematik
Kerangka INoT mengoptimumkan proses penalaran melalui model kebarangkalian yang diformalkan. Diberi input $x$ dan output yang dikehendaki $y$, kaedah tradisional mengira:
$P(y|x) = \prod_{t=1}^{T} P(y_t|x, y_{ INoT menambah baik ini melalui refleksi dalaman: $P_{INoT}(y|x) = \prod_{t=1}^{T} P(y_t|x, y_{ di mana $R_t$ mewakili keadaan refleksi dalaman pada langkah $t$, dikira sebagai: $R_t = f_{reflect}(x, y_{ Fungsi refleksi $f_{reflect}$ beroperasi dalam ruang laten LLM, meminimumkan penggunaan token luaran sambil mengekalkan integriti penalaran. Walaupun PDF tidak menyediakan kod eksplisit, kerangka INoT boleh dikonsepsikan melalui struktur kod pseudo ini: INoT dinilai merentas enam penanda aras merangkumi penalaran matematik, tugas pengaturcaraan, dan jawapan soalan multimodal. Kerangka ini mencapai penambahbaikan prestasi purata 7.95% berbanding kaedah asas termasuk CoT, IoT, dan ProgCo. Pencapaian paling signifikan INoT ialah pengurangan 58.3% dalam kos token berbanding kaedah asas berprestasi terbaik. Kecekapan ini berasal dari internalisasi proses refleksi, menghapuskan keperluan untuk pelbagai kitaran pengesahan luaran. INoT bukan sekadar penambahbaikan tambahan—ia adalah perubahan asas dalam cara kita mendekati penalaran LLM. Kerangka ini berjaya mencabar ortodoks lazim bahawa penalaran kompleks memerlukan pelbagai gelung pengesahan luaran. Dengan memindahkan refleksi ke dalam model, penulis telah mengenal pasti ketidakcekapan penting dalam seni bina ejen AI semasa. Penyelidikan ini mengikuti perkembangan logik yang menarik: Kaedah semasa → Ketidakcekapan dikenal pasti → Hipotesis refleksi dalaman → Pelaksanaan → Pengesahan. Rantaian ini kekal kukuh kerana ia menangani kekangan asas (kos token) sambil menambah baik prestasi, mewujudkan senario menang-menang yang jarang dalam pengoptimuman AI. Sorotan: Pengurangan token 58.3% adalah monumental—setanding dengan kecekapan yang dilihat dalam kejayaan pengoptimuman seperti peningkatan seni bina Transformer asal berbanding RNN. Kepelbagaian kerangka merentas pelbagai penanda aras menunjukkan generalisasi yang teguh. Batasan: Pendekatan ini menganggap LLM mempunyai kapasiti perwakilan dalaman yang mencukupi untuk refleksi kendiri berkesan. Seperti yang dinyatakan dalam kertas CycleGAN asal, kekangan seni bina boleh menghadkan pendekatan pengoptimuman dalaman sedemikian. Selain itu, kaedah ini mungkin bergelut dengan tugas yang memerlukan penalaran benar-benar novel di luar taburan latihan model. Penyelidikan ini harus mendorong penilaian semula segera reka bentuk kerangka penalaran merentas industri. Syarikat yang membina ejen AI harus mengutamakan mekanisme refleksi dalaman berbanding gelung pengesahan luaran. Keputusan mencadangkan bahawa kejuruteraan prompt harus beralih ke arah struktur berprogram berbanding variasi bahasa semula jadi. Seperti yang dicadangkan penyelidikan DeepMind mengenai pengoptimuman berasaskan model, penalaran dalaman sering mengatasi pengesahan luaran apabila distruktur dengan betul. Kerangka INoT membuka beberapa hala tuju yang menjanjikan untuk pembangunan masa depan: Kerja masa depan harus meneroka pendekatan hibrid menggabungkan refleksi dalaman INoT dengan pengesahan luaran terpilih untuk prestasi optimum merentas pelbagai jenis tugas.3.2 Pelaksanaan Kod
class INoTReasoner:
def __init__(self, llm_model):
self.llm = llm_model
self.reflection_states = []
def reason_with_introspection(self, query):
# Laluan penalaran awal
initial_response = self.llm.generate(query)
# Fasa refleksi dalaman
reflection_prompt = self._build_reflection_prompt(query, initial_response)
reflection = self.llm.generate(reflection_prompt)
# Respons akhir bersepadu
final_prompt = self._integrate_reflection(query, initial_response, reflection)
return self.llm.generate(final_prompt)
def _build_reflection_prompt(self, query, response):
return f"""Analisis penalaran berikut untuk penambahbaikan potensi:
Pertanyaan: {query}
Respons Semasa: {response}
Kenal pasti jurang logik dan cadangkan penambahbaikan:"""4 Keputusan Eksperimen
4.1 Metrik Prestasi
4.2 Kecekapan Token
Pengetahuan Utama
5 Analisis Kritikal
Perspektif Penganalisis Industri
Tepat Pada Sasaran (Cutting to the Chase)
Rantaian Logik (Logical Chain)
Sorotan dan Batasan (Highlights and Limitations)
Inspirasi Tindakan (Actionable Insights)
6 Aplikasi Masa Depan
7 Rujukan