logo

فلسفه صرفه‌جویی در پول در عصر هوش مصنوعی: چگونه هر توکن را به‌خوبی خرج کنیم

By: blockbeats|2026/04/03 13:48:09
0
اشتراک‌گذاری
copy
توسط Sleepy.md

در آن دوران تلگرام که هر کلمه هزینه داشت، کلمات به اندازه طلا باارزش بودند. مردم به خلاصه کردن پیام‌های طولانی به عبارات مختصر عادت کرده بودند، جایی که یک "بازگشت ایمن" می‌توانست جایگزین یک نامه طولانی شود و "ایمنی در اولویت" مهم‌ترین یادآوری بود.

بعدها، با ورود تلفن به خانه‌ها، تماس‌های بین‌المللی به ازای هر ثانیه هزینه می‌شدند. تماس‌های بین‌المللی والدین همیشه کوتاه و به‌موقع بودند. به محض اینکه موضوع اصلی پوشش داده می‌شد، آنها به سرعت تماس را قطع می‌کردند. اگر مکالمه کمی طولانی می‌شد، فکر هزینه بالای تماس به سرعت هر گفت‌وگوی کوچک را قطع می‌کرد.

در ادامه، اینترنت پرسرعت به خانه‌ها وارد شد و به ازای هر ساعت استفاده از اینترنت هزینه می‌گرفت. مردم به زمان‌سنج روی صفحه‌های خود خیره می‌شدند و به محض باز کردن صفحات وب، آنها را می‌بستند و تنها جرات دانلود ویدیوها را داشتند زیرا استریم کردن در آن زمان به عنوان یک فعل لوکس در نظر گرفته می‌شد. در انتهای هر نوار پیشرفت دانلود، آرزوی مردم برای "اتصال به جهان" و ترس از "عدم موجودی" نهفته بود.

واحد صورتحساب همچنان تغییر می‌کرد، اما غریزه صرفه‌جویی در پول همواره پایدار بود.

امروز، توکن‌ها به ارز عصر هوش مصنوعی تبدیل شده‌اند. با این حال، بیشتر مردم هنوز یاد نگرفته‌اند که چگونه در این عصر بودجه‌بندی کنند زیرا هنوز نتوانسته‌ایم نحوه محاسبه سود و زیان را در الگوریتم‌های نامرئی درک کنیم.

زمانی که ChatGPT در سال 2022 ظهور کرد، به‌ندرت کسی به توکن‌ها اهمیت می‌داد. این دوران جشن‌های هوش مصنوعی بود، جایی که می‌توانستید به اندازه دلخواه برای 20 دلار در ماه چت کنید.

اما از زمان ظهور اخیر عوامل هوش مصنوعی، هزینه‌های توکن به چیزی تبدیل شده است که هر کسی که از یک عامل هوش مصنوعی استفاده می‌کند باید به آن توجه کند.

برخلاف مکالمات ساده پرسش و پاسخ، پشت یک جریان کار صدها یا هزاران تماس API وجود دارد. تفکر مستقل یک عامل هزینه‌ای دارد. هر اصلاح خودکار، هر فراخوانی ابزار به نوسانات در صورتحساب مربوط می‌شود. ناگهان متوجه می‌شوید که پولی که واریز کرده‌اید دیگر کافی نیست و هیچ ایده‌ای ندارید که عامل چه کارهایی انجام داده است.

در زندگی واقعی، همه می‌دانند که چگونه پول پس‌انداز کنند. هنگام خرید مواد غذایی در بازار، ما می‌دانیم که قبل از وزن کردن، گل و برگ‌های پژمرده را تمیز کنیم. هنگام گرفتن تاکسی به فرودگاه، رانندگان با تجربه می‌دانند که باید از جاده‌های بلند در ساعات شلوغی پرهیز کنند.

منطق پس‌انداز در دنیای دیجیتال مشابه است، به جز اینکه واحد صورتحساب از "کیلوگرم" و "کیلومتر" به توکن‌ها تغییر کرده است.

فلسفه صرفه‌جویی در پول در عصر هوش مصنوعی: چگونه هر توکن را به‌خوبی خرج کنیم

در گذشته، پس‌انداز به دلیل کمبود بود؛ در عصر هوش مصنوعی، پس‌انداز برای دقت است.

از طریق این مقاله، امیدواریم به شما کمک کنیم تا یک روش‌شناسی برای پس‌انداز در عصر هوش مصنوعی ترسیم کنید تا بتوانید هر پنی را به‌خوبی خرج کنید.

برگ‌های خراب را قبل از وزن کردن بردارید

در عصر هوش مصنوعی، ارزش اطلاعات دیگر بر اساس وسعت آن تعیین نمی‌شود بلکه بر اساس خلوص آن است.

منطق صورتحساب هوش مصنوعی بر اساس تعداد کلماتی است که می‌خواند. چه بینش‌های عمیق به آن بدهید و چه اصطلاحات بی‌معنا، تا زمانی که آن را بخواند، باید هزینه آن را بپردازید.

بنابراین، اولین ذهنیتی که برای پس‌انداز توکن‌ها باید داشته باشید این است که "نسبت سیگنال به نویز" را در ناخودآگاه خود حک کنید.

هر کلمه، هر تصویر، هر خط کدی که به هوش مصنوعی می‌دهید هزینه‌ای دارد. پس قبل از اینکه چیزی را به هوش مصنوعی بسپارید، به یاد داشته باشید که از خود بپرسید: چقدر از این واقعاً برای هوش مصنوعی لازم است؟ چقدر گل‌آلود و خراب است؟

به عنوان مثال، سلام و احوالپرسی‌های طولانی مانند "سلام، لطفاً به من کمک کنید با..."، معرفی‌های پس‌زمینه که تکرار می‌شوند و نظرات کدی که به درستی حذف نشده‌اند، همه برگ‌های گل‌آلود و خراب هستند.

علاوه بر این، رایج‌ترین هدررفت این است که به طور مستقیم یک PDF یا اسکرین‌شات از یک وب‌سایت را به هوش مصنوعی بدهید. در حالی که این ممکن است تلاش شما را صرفه‌جویی کند، در عصر هوش مصنوعی، "صرفه‌جویی در تلاش" اغلب به معنای "هزینه بیشتر" است.

یک PDF به‌خوبی فرمت‌شده نه تنها شامل محتوای اصلی است، بلکه شامل هدر، پاورقی، برچسب‌های نمودار، واترمارک‌های پنهان و مقدار زیادی کد فرمت‌بندی برای تایپ‌گذاری نیز می‌باشد. این عناصر به هوش مصنوعی کمک نمی‌کنند تا سوال شما را درک کند، اما شما برای همه آن‌ها هزینه خواهید پرداخت.

دفعه بعد، به یاد داشته باشید که PDF را به متن Markdown تمیز تبدیل کنید قبل از اینکه آن را به هوش مصنوعی بدهید. زمانی که یک PDF 10MB را به یک متن تمیز 10KB تبدیل می‌کنید، نه تنها 99% از هزینه را صرفه‌جویی می‌کنید، بلکه به‌طور قابل توجهی سرعت پردازش هوش مصنوعی را نیز افزایش می‌دهید.

تصاویر یک موجود پول‌خور دیگر هستند.

در منطق مدل‌های بصری، هوش مصنوعی اهمیتی به زیبایی عکس شما نمی‌دهد؛ آنچه مهم است، میزان مساحت پیکسل‌هایی است که اشغال می‌کنید.

استفاده از منطق محاسباتی رسمی کلاود: مصرف توکن تصویر = عرض پیکسل‌ها × ارتفاع پیکسل‌ها ÷ 750.

برای یک تصویر 1000×1000 پیکسل، حدود 1334 توکن مصرف می‌شود که طبق قیمت‌گذاری کلاود سونت 4.6، تقریباً 0.004 دلار به ازای هر تصویر است؛

با این حال، اگر همان تصویر به 200×200 پیکسل فشرده شود، تنها 54 توکن مصرف می‌کند و هزینه را به 0.00016 دلار کاهش می‌دهد، که تفاوتی برابر با 25 برابر کامل است.

بسیاری از مردم به‌طور مستقیم به هوش مصنوعی عکس‌های با وضوح بالا که با تلفن‌های خود گرفته‌اند یا عکس‌های 4K را می‌دهند، بدون اینکه بدانند توکن‌هایی مصرف می‌کنند که می‌تواند برای هوش مصنوعی کافی باشد تا بیش از نیمی از یک رمان کوتاه را بخواند. اگر وظیفه تنها شناسایی متن در تصویر یا انجام قضاوت‌های بصری ساده باشد، مانند اینکه هوش مصنوعی مقدار موجود در یک فاکتور را شناسایی کند، متن را در یک دفترچه راهنما بخواند یا تعیین کند که آیا چراغ راهنمایی در تصویر وجود دارد یا خیر، در این صورت وضوح 4K صرفاً هدر رفت است. فشرده‌سازی تصویر به حداقل وضوح قابل استفاده کافی است.

با این حال، آسان‌ترین راه برای هدر دادن توکن‌ها در ورودی، در واقع فرمت فایل نیست، بلکه روش ناکارآمد صحبت کردن است.

بسیاری از مردم به هوش مصنوعی به‌عنوان یک همسایه انسانی نگاه می‌کنند و به شیوه‌ای اجتماعی و پرحرف ارتباط برقرار می‌کنند، با شروع جمله‌ای مانند "به من کمک کن یک وب‌سایت بنویسم"، منتظر می‌مانند تا هوش مصنوعی یک محصول نیمه‌تمام تولید کند، سپس جزئیات را اضافه کرده و بارها و بارها عقب و جلو می‌روند. این نوع مکالمه به سبک فشردن خمیردندان باعث می‌شود هوش مصنوعی به‌طور مکرر محتوا تولید کند، با هر دور اصلاح، مصرف توکن‌ها افزایش می‌یابد.

مهندسان Tencent Cloud در عمل دریافته‌اند که برای همان نیاز، یک مکالمه چند دوری به سبک فشردن خمیردندان اغلب توکن‌هایی مصرف می‌کند که 3 تا 5 برابر بیشتر از آنچه می‌توان در یک بار توضیح داد، است.

راه واقعی صرفه‌جویی در هزینه، رها کردن این جستجوی اجتماعی ناکارآمد است، به‌طور واضح نیازها، شرایط مرزی و مثال‌های مرجع را در یک بار بیان کنید. تلاش کمتری برای توضیح "چه کارهایی نباید انجام داد" صرف کنید زیرا نفی‌ها اغلب هزینه‌های درک بیشتری نسبت به تأییدها مصرف می‌کنند؛ به‌طور مستقیم به آن بگویید "چگونه این کار را انجام دهید" و یک نمایش واضح و صحیح ارائه دهید.

همچنین، اگر می‌دانید هدف کجاست، به‌طور مستقیم به هوش مصنوعی بگویید، اجازه ندهید هوش مصنوعی کارآگاه بازی کند.

زمانی که به هوش مصنوعی دستور می‌دهید "کدی مرتبط با کاربر را پیدا کن،" باید در پس‌زمینه اسکن، تحلیل و حدس‌زنی‌های وسیع انجام دهد؛ در حالی که وقتی به‌طور مستقیم به آن می‌گویید "به فایل src/services/user.ts نگاه کن،" تفاوت در مصرف توکن مانند شب و روز است. در دنیای دیجیتال، تقارن اطلاعاتی بزرگ‌ترین کارایی است.

هزینه‌های "ادب" هوش مصنوعی را نپردازید.

یک قانون نانوشته در صورتحساب مدل‌های بزرگ وجود دارد که بسیاری از افراد از آن آگاه نیستند: توکن‌های خروجی معمولاً ۳ تا ۵ برابر گران‌تر از توکن‌های ورودی هستند.

به عبارت دیگر، آنچه هوش مصنوعی می‌گوید بسیار گران‌تر از آن چیزی است که شما به آن می‌گویید. با در نظر گرفتن قیمت‌گذاری Claude Sonnet 4.6 به‌عنوان مثال، وارد کردن هر میلیون توکن تنها ۳ دلار هزینه دارد، در حالی که خروجی ناگهان به ۱۵ دلار می‌رسد، که تفاوت قیمت شگفت‌انگیز ۵ برابری است.

تمام آن خطوط آغازین مؤدبانه مانند "خوب، من کاملاً نیازهای شما را درک می‌کنم و اکنون شروع به پاسخ‌گویی به آن‌ها می‌کنم..." و آن پایان‌های مؤدبانه "امیدوارم اطلاعات فوق برای شما مفید باشد" آداب اجتماعی در ارتباطات انسانی هستند، اما در صورتحساب API، این تشریفات با ارزش اطلاعاتی صفر نیز برای شما هزینه خواهد داشت.

موثرترین راه برای رسیدگی به هدررفت ترمینال خروجی، تعیین قوانین برای هوش مصنوعی است. از دستورات سیستم استفاده کنید تا به‌طور صریح به آن بگویید: هیچ گفت‌وگوی کوچک، هیچ توضیحی، هیچ بازگویی درخواست‌ها، فقط پاسخ را ارائه دهید.

این قوانین تنها یک بار نیاز به تنظیم دارند و در هر گفت‌وگو مؤثر خواهند بود و واقعاً اصل "ورودی یک‌باره، منفعت دائمی" در مالی را تجسم می‌کنند. با این حال، هنگام تعیین این قوانین، بسیاری از افراد به دام دیگری می‌افتند: صدور دستورالعمل‌های طولانی به زبان طبیعی.

داده‌های آزمایش‌شده توسط مهندسان نشان می‌دهد که کارایی دستورالعمل‌ها در تعداد کلمات نیست، بلکه در چگالی آن‌هاست. با فشرده‌سازی یک دستور سیستم ۵۰۰ کلمه‌ای به ۱۸۰ کلمه، حذف خوش‌آمدگویی‌های بی‌معنی، تجمیع دستورالعمل‌های تکراری و بازسازی پاراگراف‌ها به یک لیست مختصر، کیفیت خروجی هوش مصنوعی تقریباً بدون تغییر باقی می‌ماند، اما مصرف توکن در هر تماس می‌تواند ۶۴٪ کاهش یابد.

روش دیگری که می‌توان به‌طور فعال کنترل کرد، محدود کردن طول خروجی است. بسیاری از افراد هرگز سقف خروجی تعیین نمی‌کنند و به هوش مصنوعی آزادی عمل می‌دهند، که اغلب منجر به افزایش شدید هزینه‌ها می‌شود. شما ممکن است تنها به یک جمله کوتاه و ساده نیاز داشته باشید، اما هوش مصنوعی، در تلاشی برای نشان دادن "صداقت فکری" خاصی، بدون هیچ محدودیتی یک مقاله ۸۰۰ کلمه‌ای تولید می‌کند.

اگر به داده‌های خالص نیاز دارید، باید هوش مصنوعی را مجبور کنید که نتایج را در یک فرمت ساختاریافته برگرداند نه توصیف‌های طولانی به زبان طبیعی. با توجه به مقدار معادل اطلاعات، فرمت JSON مصرف توکن بسیار کمتری نسبت به نثر دارد. این به این دلیل است که داده‌های ساختاریافته تمام پیوندهای اضافی، ذرات و اصلاح‌کننده‌های توضیحی را حذف می‌کنند و تنها هسته منطقی با غلظت بالا را حفظ می‌کنند. در عصر هوش مصنوعی، شما باید به شدت آگاه باشید که آنچه ارزش پرداخت دارد، ارزش نتیجه است، نه آن توضیحات بی‌معنی از هوش مصنوعی.

علاوه بر این، "تفکر بیش از حد" هوش مصنوعی نیز به طرز سیری ناپذیری موجودی حساب شما را کاهش می‌دهد.

برخی از مدل‌های پیشرفته دارای حالت "استدلال گسترده" هستند که قبل از پاسخ دادن، استدلال داخلی وسیعی انجام می‌دهند. این فرآیند استدلال همچنین هزینه‌هایی را بر اساس قیمت خروجی به همراه دارد که می‌تواند بسیار گران باشد.

این حالت اساساً برای "وظایف پیچیده که نیاز به پشتیبانی منطقی عمیق دارند" طراحی شده است. با این حال، بیشتر مردم نیز این حالت را هنگام پرسیدن سوالات ساده انتخاب می‌کنند. برای وظایفی که نیاز به استدلال عمیق ندارند، به‌طور صریح به هوش مصنوعی دستور دهید که "توضیحات را رد کند و پاسخ را مستقیماً ارائه دهد" یا به‌صورت دستی استدلال گسترده را خاموش کنید تا مقدار قابل توجهی از هزینه شما صرفه‌جویی شود.

از ماندن هوش مصنوعی بر مسائل قدیمی خودداری کنید

مدل‌های بزرگ حافظه واقعی ندارند؛ آنها فقط به طور بی‌پایان بر مسائل قدیمی متمرکز می‌شوند.

این یک مکانیزم زیرساختی است که بسیاری از مردم از آن بی‌خبرند. هر بار که شما یک پیام جدید در یک پنجره گفت‌وگو ارسال می‌کنید، هوش مصنوعی از آن جمله شروع به درک نمی‌کند؛ بلکه تمام تعاملات گذشته شما، از جمله هر دور گفت‌وگو، هر قطعه کد و هر سند ارجاع شده را دوباره می‌خواند، قبل از اینکه به شما پاسخ دهد.

در صورتحساب توکن‌ها، این "یادگیری از گذشته" به هیچ وجه رایگان نیست. با افزایش دورهای گفت‌وگو، حتی اگر فقط درباره یک کلمه ساده بپرسید، هزینه دوباره خواندن کل حساب قدیمی هوش مصنوعی به طور نمایی افزایش می‌یابد. این مکانیزم تعیین می‌کند که هرچه تاریخچه گفت‌وگو سنگین‌تر باشد، هزینه هر یک از سوالات شما بیشتر می‌شود.

کسی ۴۹۶ گفت‌وگوی واقعی که هر کدام بیش از ۲۰ پیام داشتند را پیگیری کرد و متوجه شد که میانگین خواندن پیام اول ۱۴,۰۰۰ توکن بود که هزینه‌ای حدود ۳.۶ سنت برای هر پیام داشت؛ تا پیام ۵۰، میانگین خواندن به ۷۹,۰۰۰ توکن رسید که هزینه‌ای حدود ۴.۵ سنت برای هر پیام داشت، که ۸۰٪ بیشتر هزینه‌بر بود. علاوه بر این، با طولانی‌تر شدن زمینه، تا پیام ۵۰، زمینه‌ای که هوش مصنوعی باید دوباره پردازش کند، در حال حاضر ۵.۶ برابر زمینه پیام اول است.

برای حل این مشکل، ساده‌ترین عادت این است: یک وظیفه، یک جعبه گفت‌وگو.

هنگامی که یک موضوع مورد بحث قرار می‌گیرد، به سرعت یک گفت‌وگوی جدید آغاز کنید؛ هوش مصنوعی را به عنوان یک پنجره چت همیشه فعال در نظر نگیرید. این عادت به نظر ساده می‌رسد، اما بسیاری از مردم نمی‌توانند آن را انجام دهند و همیشه فکر می‌کنند، "اگر بخواهم به محتوای قبلی ارجاع دهم چه؟" در واقع، بیشتر اوقات، آن "اگرها" که نگران آن هستید هرگز اتفاق نمی‌افتند و برای آن "اگر"، شما در نهایت برای هر پیام جدید چندین برابر هزینه می‌پردازید.

زمانی که یک مکالمه نیاز به ادامه دارد اما زمینه آن طولانی شده است، می‌توانیم از توابع فشرده‌سازی برخی ابزارها استفاده کنیم. Claude Code یک دستور /compact دارد که می‌تواند تاریخچه طولانی گفتگو را به یک خلاصه کوتاه فشرده کند و به شما در تمرین پاکسازی سایبری کمک کند.

همچنین یک منطق صرفه‌جویی در هزینه به نام کش کردن درخواست وجود دارد. اگر به طور مکرر از همان درخواست سیستم استفاده کنید یا نیاز به ارجاع به همان سند در هر مکالمه داشته باشید، هوش مصنوعی این محتوا را کش می‌کند. بار بعدی که به آن مراجعه می‌شود، تنها هزینه‌ای جزئی برای خواندن کش دریافت می‌کند، نه هزینه کامل هر بار.

قیمت‌گذاری رسمی Anthropic نشان می‌دهد که قیمت توکن برای ضربات کش شده ۱/۱۰ قیمت معمولی است. کش کردن درخواست OpenAI نیز به طور مشابه هزینه‌های ورودی را حدود ۵۰٪ کاهش می‌دهد. مقاله‌ای که در ژانویه ۲۰۲۶ در arXiv منتشر شد، وظایف طولانی را در چندین پلتفرم هوش مصنوعی بررسی کرد و دریافت که کش کردن درخواست می‌تواند هزینه‌های API را بین ۴۵٪ تا ۸۰٪ کاهش دهد.

به عبارت دیگر، برای همان محتوا، بار اول که آن را به هوش مصنوعی می‌دهید، هزینه کامل را پرداخت می‌کنید، اما در تماس‌های بعدی، تنها ۱/۱۰ پرداخت می‌کنید. برای کاربرانی که نیاز به استفاده مکرر از همان مجموعه اسناد مشخصات یا درخواست‌های سیستم هر روز دارند، این ویژگی می‌تواند مقدار قابل توجهی توکن صرفه‌جویی کند.

با این حال، کش کردن درخواست یک پیش‌نیاز دارد: wording درخواست سیستم و محتوای سند مرجع و ترتیب آن باید ثابت بماند و در ابتدای مکالمه قرار گیرد. به محض اینکه محتوا به هر نحوی تغییر کند، کش نامعتبر می‌شود و دوباره هزینه کامل اعمال می‌شود. بنابراین، اگر مجموعه‌ای از هنجارهای کاری ثابت دارید، آنها را به صورت سخت‌افزاری کدگذاری کنید و از تغییرات دلخواه خودداری کنید.

آخرین تکنیک مدیریت زمینه بارگذاری درخواستی است. بسیاری از افراد دوست دارند تمام مشخصات، اسناد و یادداشت‌ها را در درخواست‌های سیستم فشرده کنند، فقط در صورت نیاز.

با این حال، هزینه انجام این کار این است که وقتی شما فقط در حال انجام یک کار ساده هستید، مجبورید هزاران کلمه از قوانین را بارگذاری کنید و به طور بی‌دلیل مقدار زیادی توکن هدر دهید. مستندات رسمی Claude Code پیشنهاد می‌کند که CLAUDE.md را زیر ۲۰۰ خط نگه دارید، قوانین تخصصی برای سناریوهای مختلف را به فایل‌های مهارت جداگانه تقسیم کنید و قوانین را فقط برای سناریوی در حال استفاده بارگذاری کنید. حفظ خلوص مطلق زمینه بالاترین شکل احترام به قدرت محاسباتی است.

قیمت --

--

پورشه را برای خرید سبزیجات نبرید

مدل‌های مختلف هوش مصنوعی تفاوت قیمت قابل توجهی دارند.

هزینه‌ی Claude Opus 4.6 برای هر میلیون توکن ورودی ۵ دلار و برای خروجی ۲۵ دلار است، در حالی که Claude Haiku 3.5 تنها ۰.۸ دلار برای ورودی و ۴ دلار برای خروجی نیاز دارد، که تقریباً شش برابر تفاوت دارد. استفاده از مدل سطح بالا برای انجام کارهای خسته‌کننده جمع‌آوری اطلاعات و فرمت‌بندی نه تنها کند است بلکه بسیار گران‌قیمت نیز می‌باشد.

رویکرد هوشمندانه این است که مفهوم اجتماعی رایج "تقسیم کار" را به جامعه‌ی هوش مصنوعی اعمال کنیم و وظایف با دشواری‌های مختلف را به مدل‌ها در نقاط قیمتی مختلف اختصاص دهیم.

همان‌طور که در دنیای واقعی وقتی کسی را برای یک شغل استخدام می‌کنید، شما به‌طور خاص یک کارشناس آجرچینی با حقوق یک میلیون دلار را برای انجام کارهای دستی در یک سایت ساختمانی استخدام نمی‌کنید. هوش مصنوعی به همین شکل عمل می‌کند. مستندات رسمی Claude Code همچنین به‌طور صریح توصیه می‌کند: از Sonnet برای بیشتر وظایف برنامه‌نویسی استفاده کنید، Opus را برای تصمیمات معماری پیچیده و استدلال‌های چند مرحله‌ای ذخیره کنید و Haiku را برای زیرکارهای ساده اختصاص دهید.

یک راه‌حل عملی‌تر و خاص‌تر این است که یک "جریان کار دو مرحله‌ای" بسازید. در مرحله اول، از مدل‌های پایه‌ای رایگان یا کم‌هزینه برای انجام کارهای مقدماتی کثیف، مانند جمع‌آوری داده‌ها، پاک‌سازی فرمت، تولید پیش‌نویس اولیه، طبقه‌بندی ساده و خلاصه‌سازی استفاده کنید. سپس، در مرحله دوم، جوهر تصفیه‌شده را به مدل‌های سطح بالا برای تصمیم‌گیری‌های اصلی و تصفیه عمیق تغذیه کنید.

برای مثال، اگر نیاز به تحلیل یک گزارش صنعتی ۱۰۰ صفحه‌ای دارید، می‌توانید ابتدا از Gemini Flash برای استخراج داده‌ها و نتایج کلیدی از گزارش استفاده کنید، آن را به یک خلاصه ۱۰ صفحه‌ای فشرده کنید و سپس این خلاصه را به Claude Opus برای تحلیل و قضاوت عمیق‌تر منتقل کنید. این جریان کار دو مرحله‌ای می‌تواند به‌طور قابل توجهی هزینه‌ها را کاهش دهد در حالی که کیفیت را تضمین می‌کند.

فراتر از پاراگراف‌بندی ساده، یک رویکرد پیشرفته‌تر تقسیم کار عمیق مبتنی بر وظیفه است. یک وظیفه مهندسی پیچیده می‌تواند به چندین زیرکار مستقل تقسیم شود که هر کدام با مناسب‌ترین مدل مطابقت دارد.

برای مثال، برای یک وظیفه کدنویسی، یک مدل مقرون به صرفه می‌تواند ابتدا چارچوب و کد اولیه را بنویسد و سپس تنها پیاده‌سازی منطق اصلی را به یک مدل گران‌تر اختصاص دهد. هر زیرکار دارای یک زمینه‌ی تمیز و متمرکز است که منجر به نتایج دقیق‌تر و هزینه‌های پایین‌تر می‌شود.

شما واقعاً نیازی به صرف توکن‌ها ندارید.

تمام بحث‌های قبلی به‌طور بنیادی به مسائل تاکتیکی "چگونه پول صرفه‌جویی کنیم" می‌پردازند، اما بسیاری از افراد یک پیش‌فرض منطقی بنیادی‌تر را نادیده گرفته‌اند: آیا این عمل واقعاً نیاز به صرف توکن‌ها دارد؟

افراطی‌ترین شکل صرفه‌جویی نه بهینه‌سازی الگوریتم بلکه عمل حذف تصمیم‌گیری‌های غیرضروری است. ما به جستجوی پاسخ‌های جهانی از هوش مصنوعی عادت کرده‌ایم و فراموش کرده‌ایم که در بسیاری از سناریوها، فراخوانی یک مدل بزرگ و گران‌قیمت مانند استفاده از توپخانه برای کشتن یک پشه است.

به عنوان مثال، اجازه دادن به هوش مصنوعی برای مدیریت خودکار ایمیل‌ها منجر به این می‌شود که هر ایمیل به عنوان یک وظیفه مستقل تفسیر، دسته‌بندی و پاسخ داده شود که در نتیجه مصرف توکن قابل توجهی را به همراه دارد. با این حال، اگر ابتدا ۳۰ ثانیه را صرف مرور صندوق ورودی خود کنید و ایمیل‌هایی را که به وضوح نیاز به پردازش هوش مصنوعی ندارند به صورت دستی فیلتر کنید و سپس بقیه را به هوش مصنوعی بسپارید، هزینه بلافاصله به یک بخش از هزینه اولیه کاهش می‌یابد. قضاوت انسانی در اینجا مانع نیست بلکه بهترین ابزار فیلتر کردن است.

افراد از دوران تلگرام می‌دانستند که ارسال یک کلمه اضافی چقدر هزینه اضافی دارد، بنابراین آن را در نظر می‌گرفتند و حس شهودی از استفاده از منابع را نشان می‌دادند. دوران هوش مصنوعی تفاوتی ندارد. زمانی که واقعاً درک می‌کنید که هزینه گفتن یک جمله بیشتر برای هوش مصنوعی چقدر است، به طور طبیعی وزن می‌کنید که آیا ارزش دارد که هوش مصنوعی این کار را انجام دهد، آیا این وظیفه به یک مدل برتر نیاز دارد یا یک مدل مقرون به صرفه، و آیا زمینه هنوز مرتبط است یا خیر.

این نوع ملاحظه، مؤثرترین توانایی از نظر هزینه است. در دورانی که قدرت محاسباتی در حال گران‌تر شدن است، هوشمندانه‌ترین استفاده این است که اجازه ندهید هوش مصنوعی جایگزین انسان‌ها شود بلکه بگذارید هوش مصنوعی و انسان‌ها هر کدام کاری را که در آن مهارت دارند انجام دهند. زمانی که این حساسیت به توکن‌ها به یک عمل بازتابی تبدیل می‌شود، واقعاً از وضعیت زیر دست بودن به محاسبات به وضعیت تسلط بر آن منتقل می‌شوید.

ممکن است شما نیز علاقه‌مند باشید

<Houthi یک ایست بازرسی دارد | خبرنامه صبحگاهی Rewire>

بیش از ۴ دیپلمات خارجی در حال بحث درباره بازگشایی مسیر تجاری، ایالات متحده. از حضور در این جلسه خودداری می‌کند

ادغام استیبل کوین‌ها: هیچ «برنده‌ای همه چیز را می‌برد» وجود نخواهد داشت

گفتگو با بنیانگذار داینامیک: ببینید که چگونه کیف پول‌های جاسازی‌شده و استیبل‌کوین‌ها موانع فنی را از بین می‌برند و به کسب‌وکارها اجازه می‌دهند ظرف چند ساعت «نسخه جهانی ونمو» را ایجاد کنند و زیرساخت پرداخت تریلیون دلاری را تغییر شکل دهند.

۲۴۰ میلیارد دلار جنگل تاریک، سقوط امور مالی آهنین

لی شیونگ، عضو کلیدی گروه پرینس، به چین بازگردانده شد و به یک امپراتوری مالی زیرزمینی که از طریق تلگرام رونق داشت، پایان داد.

محدودیت ۳ سلام، محدودیت کد کلود شما کجا رفت؟ یک اشکال در حافظه پنهان ۲۸ روزه، و یک پاسخ رسمی که شما را به «استفاده‌ی کم از آن» تشویق می‌کند.

محدودیت اعتبار کاربران ویژه با سرعتی ۱۰ تا ۲۰ برابر بیشتر از بین می‌رود و پاسخ رسمی این است که از شما خواسته می‌شود با احتیاط بیشتری از آن استفاده کنید.

چگونه می‌توان با استفاده از هوش مصنوعی در پولی‌مارکت پول درآورد؟

پولی‌مارکت کیف پول است، کلاود مغز است و پرپلکسی چشم است

گزارش صبحگاهی | YZi Labs به‌طور استراتژیک سرمایه‌گذاری خود را در Predict.fun افزایش می‌دهد؛ پروتکل Drift مورد حمله‌ای با زیان حداقل ۲۰۰ میلیون دلار قرار گرفت؛ x402 از Coinbase به بنیاد لینوکس پیوست.

مروری بر رویدادهای مهم بازار در دوم آوریل

رمزارزهای محبوب

آخرین اخبار رمز ارز

ادامه مطلب