1. مقدمه و مرور کلی
یکپارچهسازی هوش مصنوعی در شبکههای بیسیم نسل ششم (۶G)، نشاندهنده یک تغییر پارادایم به سمت هوشمندی فراگیر و ابر-اتصال است. همانطور که در چشماندازهای IMT-2030 ترسیم شده، هدف ۶G پشتیبانی از برنامههای پهنباندبر مانند واقعیت افزوده، سیستمهای خودمختار و استقرارهای عظیم اینترنت اشیاء است که هوش مصنوعی به عنوان یک توانمندساز اصلی عمل میکند. با این حال، این همگرایی یک چالش حیاتی را معرفی میکند: متریکهای متعارف کارایی انرژی، که معمولاً به عنوان توان عملیاتی شبکه به ازای هر واحد انرژی تعریف میشوند ($EE = \frac{Throughput}{Energy}$)، قادر به ثبت سودمندی و ارزش وظایف خاص هوش مصنوعی، مانند آنهایی که توسط مدلهای زبانی بزرگ انجام میشوند، نیستند. این مقاله، چارچوب کارایی انرژی پاسخگو به توکن (TREE) را معرفی میکند؛ یک متریک نوین که برای پل زدن به این شکاف طراحی شده است و توان عملیاتی توکن مدلهای بزرگ هوش مصنوعی را در محاسبه سودمندی سیستم ادغام میکند، و در نتیجه معیار دقیقتری برای پایداری انرژی شبکههای ۶G یکپارچه با هوش مصنوعی ارائه میدهد.
2. چارچوب TREE
چارچوب TREE، کارایی انرژی را برای عصر هوش مصنوعی بازتعریف میکند. این چارچوب فراتر از صرف بیتهای داده رفته و «توکنهای» محاسباتی پردازش شده توسط مدلهای هوش مصنوعی را به عنوان حاملهای اصلی سودمندی در یک شبکه هوشمند در نظر میگیرد.
2.1 تعریف متریک اصلی
متریک بنیادی TREE به عنوان نسبت سودمندی مؤثر وظیفه هوش مصنوعی (اندازهگیری شده در توکن) به مصرف انرژی کل سیستم فرمولبندی میشود. این متریک تصدیق میکند که نه همه ترافیک شبکه ارزش یکسانی دارد؛ پردازش توکنها برای یک سرویس ترجمه زبانی بلادرنگ، سودمندی و پیامدهای انرژی متفاوتی نسبت به استریم داده ویدیویی دارد.
2.2 اصول طراحی
این چارچوب، طراحی شبکه را از منظر سه عنصر حیاتی هوش مصنوعی تحلیل میکند:
- قدرت محاسباتی: منابع محاسباتی توزیع شده در سراسر ابر، لبه و دستگاههای انتهایی.
- مدلهای هوش مصنوعی: معماری، اندازه و کارایی مدلهای مستقر شده (مانند مدلهای زبانی بزرگ، مدلهای بینایی).
- داده: حجم، نوع و جریان داده مورد نیاز برای آموزش و استنتاج هوش مصنوعی.
3. تحلیل فنی
3.1 فرمولبندی ریاضی
متریک پیشنهادی TREE را میتوان به صورت زیر بیان کرد: $$\text{TREE} = \frac{\sum_{i \in \mathcal{A}} w_i \cdot U_i(T_i) + \sum_{j \in \mathcal{D}} w_j \cdot R_j}{P_{\text{total}}}$$ که در آن:
- $\mathcal{A}$ مجموعه سرویسهای هوش مصنوعی و $\mathcal{D}$ مجموعه سرویسهای داده متعارف است.
- $U_i(T_i)$ تابع سودمندی برای سرویس هوش مصنوعی $i$ است که به توان عملیاتی توکن آن $T_i$ وابسته است.
- $R_j$ نرخ داده برای سرویس متعارف $j$ است.
- $w_i, w_j$ عوامل وزنی هستند که اولویت سرویس را منعکس میکنند.
- $P_{\text{total}}$ مصرف توان کل سیستم است.
3.2 معماری سیستم
TREE برای یک معماری ابر-لبه-انتها طراحی شده است. ملاحظات کلیدی شامل موارد زیر است:
- تقسیم و تخلیه مدل: تقسیمبندی پویای اجرای مدل هوش مصنوعی بین لبه و ابر بر اساس محدودیتهای انرژی و تأخیر به منظور حداکثرسازی TREE.
- یادگیری فدرال: فعالسازی آموزش توزیعشده هوش مصنوعی در حالی که انرژی انتقال داده به حداقل میرسد، که مستقیماً بر مخرج TREE تأثیر میگذارد.
- فشردهسازی تطبیقی مدل: استفاده از تکنیکهایی مانند تطبیق رتبه پایین (LoRA) برای کاهش هزینه انرژی محاسباتی تنظیم دقیق مدلها در لبه.
4. نتایج تجربی و مطالعات موردی
مقاله، مطالعات موردی را ارائه میدهد که قابلیت منحصر به فرد TREE را تأیید میکنند. در سناریوهای ترافیک ترکیبی که وظایف استنتاج هوش مصنوعی (مانند تحلیل ویدیویی بلادرنگ) را با جریانهای داده سنتی (مانند دانلود فایل) ترکیب میکنند، متریکهای EE متعارف ناکافی ثابت شدند. آنها نتوانستند عدم تقارنهای انرژی-سرویس قابل توجهی را آشکار کنند — موقعیتهایی که در آن مقدار کمی از ترافیک باارزش هوش مصنوعی در مقایسه با ترافیک داده پرحجم و کمارزش، انرژی نامتناسبی مصرف میکند. TREE با موفقیت این عدم تقارن را کمّی کرد و تصویر واضحتری از محل صرف انرژی در مقابل ارزش تولید شده به اپراتورهای شبکه ارائه داد. برای مثال، یک سناریو ممکن است نشان دهد که سرویسدهی ۱۰۰۰ توکن برای یک دستیار مبتنی بر مدل زبانی بزرگ، انرژی معادل استریم ۱ گیگابایت ویدیو مصرف میکند، اما سودمندی کاملاً متفاوتی ارائه میدهد، شکافی که تنها TREE میتواند آن را ثبت کند.
نکات کلیدی
- TREE ناکارآمدیهای پنهان در شبکههایی که ترافیک ترکیبی هوش مصنوعی/داده را سرویس میدهند، آشکار میکند.
- توان عملیاتی توکن، معیار سودمندی معنادارتری نسبت به نرخ بیت خام برای سرویسهای هوش مصنوعی است.
- تخصیص منابع بهینه برای TREE ممکن است به طور قابل توجهی با حداکثرسازی EE سنتی متفاوت باشد.
5. مثال چارچوب تحلیل
سناریو: یک ایستگاه پایه ۶G دو سرویس همزمان را ارائه میدهد: (۱) یک سرویس استنتاج مدل زبانی بزرگ مبتنی بر لبه برای پردازش پرسوجوی شهر هوشمند، و (۲) یک آپلود داده حسگر اینترنت اشیاء در پسزمینه.
مراحل تحلیل TREE:
- تعریف سودمندیها: اختصاص سودمندی $U_1 = \alpha \cdot T_1$ (توکنهای پردازش شده) برای سرویس مدل زبانی بزرگ و $U_2 = \beta \cdot R_2$ (بیتهای آپلود شده) برای سرویس اینترنت اشیاء. وزنهای $\alpha > \beta$ ارزش بالاتر به ازای هر واحد سرویس هوش مصنوعی را منعکس میکنند.
- اندازهگیری توان: نظارت بر توان کل $P_{total}$ مصرف شده توسط محاسبات (برای مدل زبانی بزرگ) و ارتباطات (برای هر دو).
- محاسبه و مقایسه: محاسبه TREE = $(\alpha T_1 + \beta R_2) / P_{total}$. مقایسه این مقدار با EE سنتی = $(R_1 + R_2)/P_{total}$. تحلیل به احتمال زیاد نشان خواهد داد که تخصیص منابع بیشتر به سرویس مدل زبانی بزرگ، TREE را بیش از EE سنتی بهبود میبخشد و راهنمای زمانبندی هوشمندانهتر منابع است.
6. تحلیل انتقادی و دیدگاههای تخصصی
بینش اصلی: مقاله TREE صرفاً یک متریک جدید پیشنهاد نمیدهد؛ بلکه اساساً محاسبات اقتصادی و مهندسی شبکههای آینده را به چالش میکشد. این مقاله به درستی شناسایی میکند که ارزش پیشنهادی ۶G توسط هوش مصنوعی-به-عنوان-سرویس غالب خواهد بود، نه فقط لولههای سریعتر. پایهگذاری کارایی بر اساس بیتها مانند اندازهگیری ارزش یک کتابخانه بر اساس وزن کتابهایش است — که کاملاً از هدف اصلی دور میماند. تغییر به سمت توکنها، گامی ضروری، اگرچه نوپا، به سمت یک شبکه آگاه از سودمندی است.
جریان منطقی: استدلال محکم است: ۱) هوش مصنوعی هسته ارزش ۶G است. ۲) ارزش هوش مصنوعی در توکنها/وظایف است، نه بیتها. ۳) بنابراین متریکهای قدیمی (بیت/ژول) منسوخ هستند. ۴) در نتیجه، ما به یک متریک جدید (توکن/ژول) نیاز داریم. ۵) این متریک جدید (TREE) مسائل و مبادلات بهینهسازی جدیدی را آشکار میکند. منطق قانعکننده است و یک نقطه کور آشکار در تحقیقات فعلی ۶G را مورد توجه قرار میدهد، که اغلب هوش مصنوعی را صرفاً به عنوان یک بار کاری دیگر، و نه یک محرک ارزش، در نظر میگیرد.
نقاط قوت و ضعف: نقطه قوت اصلی، دوراندیشی مفهومی است. نویسندگان فراتر از موانع فوری فنی ۶G به دلیل وجودی نهایی آن نگاه میکنند. نقطه ضعف، مانند هر متریک پیشگامانه، قابلیت اندازهگیری عملی است. چگونه تابع سودمندی $U_i(T_i)$ را استانداردسازی کنیم؟ یک توکن برای GPT-4 معادل یک توکن برای یک ترنسفورمر بینایی سبکوزن نیست. تعریف و توافق بر سر این وزنهای سودمندی در بین فروشندگان و سرویسها، یک باتلاق سیاسی و فنی خواهد بود، که یادآور چالشهای کمّیسازی کیفیت تجربه است. علاوه بر این، چارچوب فعلی به شدت بر استنتاج تکیه دارد؛ هزینه انرژی عظیم آموزش توزیعشده هوش مصنوعی در شبکهها، که نگرانی است که توسط مطالعاتی مانند مطالعات ابتکار Machine Learning CO2 Impact برجسته شده، نیاز به ادغام عمیقتری در محاسبات TREE دارد.
بینشهای قابل اجرا: برای اپراتورهای شبکه و فروشندگان تجهیزات، نتیجه فوری است: ابزارسازی شبکهها و پلتفرمهای هوش مصنوعی خود را برای اندازهگیری توان عملیاتی توکن و ارتباط آن با مصرف انرژی در سطح دانهریز شروع کنید. پروژههای پایلوت باید الگوریتمهای زمانبندی هدایت شده توسط TREE را آزمایش کنند. برای نهادهای استاندارد (۳GPP، ITU)، کار بر روی تعریف کلاسهای سرویس مبتنی بر توکن و پروفایلبندی سودمندی، مشابه نحوه تعریف کلاسهای کیفیت سرویس برای ۴G/۵G، باید از هم اکنون آغاز شود. نادیده گرفتن این موضوع و پایبندی به EE سنتی، مسیری مطمئن برای ساخت شبکههای کارآمد از نظر انرژی است که برای عصر هوش مصنوعی از نظر اقتصادی ناکارآمد هستند.
7. کاربردهای آتی و جهتگیریها
چارچوب TREE راه را برای چندین کاربرد پیشرفته و جهتگیری تحقیقاتی هموار میکند:
- برشبندی پویای شبکه: ایجاد برشهای شبکه بهینهشده برای هوش مصنوعی با سطوح تضمینشده TREE برای سرویسهای هوش مصنوعی ممتاز، جدا از برشهای داده با تلاش بهترین.
- بازارهای سبز هوش مصنوعی: فعالسازی تجارت آگاه از انرژی منابع محاسبات و استنتاج در لبه شبکه، جایی که سرویسها بر اساس نیازهای سودمندی مبتنی بر توکن خود پیشنهاد میدهند.
- طراحی مشترک ارتباطات و محاسبات: طراحی همزمان پروتکلهای لایه فیزیکی، معماریهای شبکه و معماریهای مدل هوش مصنوعی از پایه به منظور حداکثرسازی TREE، فراتر از پارادایم فعلی تطبیق هوش مصنوعی با شبکههای موجود.
- ارزیابی چرخه عمر: گسترش TREE برای پوشش چرخه عمر کامل سرویسهای هوش مصنوعی در شبکه، شامل هزینه انرژی آموزش مدل، بهروزرسانیها و مدیریت خط لوله داده، ادغام مفاهیم از مطالعات تحلیل چرخه عمر.
- استانداردسازی سودمندی توکن: یک جهتگیری اصلی آینده، توسعه استانداردهای صنعتگسترد برای کالیبره کردن «سودمندی» وظایف مختلف هوش مصنوعی است، مشابه نحوه تعریف متریکهای کیفیت توسط کدکهای ویدیویی.
8. مراجع
- ITU-R. “Framework and overall objectives of the future development of IMT for 2030 and beyond.” ITU-R M.[IMT-2030.FRAMEWORK], 2023.
- Zhou, Z., Chen, X., Li, E., Zeng, L., Luo, K., & Zhang, J. (2019). Edge intelligence: Paving the last mile of artificial intelligence with edge computing. Proceedings of the IEEE, 107(8), 1738-1762.
- Hu, E. J., et al. (2021). LoRA: Low-Rank Adaptation of Large Language Models. arXiv preprint arXiv:2106.09685.
- Lacoste, A., Luccioni, A., Schmidt, V., & Dandres, T. (2019). Quantifying the Carbon Emissions of Machine Learning. arXiv preprint arXiv:1910.09700.
- Wang, X., Han, Y., Leung, V. C., Niyato, D., Yan, X., & Chen, X. (2020). Convergence of edge computing and deep learning: A comprehensive survey. IEEE Communications Surveys & Tutorials, 22(2), 869-904.
- Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired image-to-image translation using cycle-consistent adversarial networks. In Proceedings of the IEEE international conference on computer vision (pp. 2223-2232). (به عنوان نمونهای از یک وظیفه فشرده محاسباتی هوش مصنوعی ذکر شده که هزینه انرژی آن در بافت شبکه توسط TREE بهتر ارزیابی میشود).