فلسفه صرفهجویی در پول در عصر هوش مصنوعی: چگونه هر توکن را بهخوبی خرج کنیم
توسط Sleepy.md
در آن دوران تلگرام که هر کلمه هزینه داشت، کلمات به اندازه طلا باارزش بودند. مردم به خلاصه کردن پیامهای طولانی به عبارات مختصر عادت کرده بودند، جایی که یک "بازگشت ایمن" میتوانست جایگزین یک نامه طولانی شود و "ایمنی در اولویت" مهمترین یادآوری بود.
بعدها، با ورود تلفن به خانهها، تماسهای بینالمللی به ازای هر ثانیه هزینه میشدند. تماسهای بینالمللی والدین همیشه کوتاه و بهموقع بودند. به محض اینکه موضوع اصلی پوشش داده میشد، آنها به سرعت تماس را قطع میکردند. اگر مکالمه کمی طولانی میشد، فکر هزینه بالای تماس به سرعت هر گفتوگوی کوچک را قطع میکرد.
در ادامه، اینترنت پرسرعت به خانهها وارد شد و به ازای هر ساعت استفاده از اینترنت هزینه میگرفت. مردم به زمانسنج روی صفحههای خود خیره میشدند و به محض باز کردن صفحات وب، آنها را میبستند و تنها جرات دانلود ویدیوها را داشتند زیرا استریم کردن در آن زمان به عنوان یک فعل لوکس در نظر گرفته میشد. در انتهای هر نوار پیشرفت دانلود، آرزوی مردم برای "اتصال به جهان" و ترس از "عدم موجودی" نهفته بود.
واحد صورتحساب همچنان تغییر میکرد، اما غریزه صرفهجویی در پول همواره پایدار بود.
امروز، توکنها به ارز عصر هوش مصنوعی تبدیل شدهاند. با این حال، بیشتر مردم هنوز یاد نگرفتهاند که چگونه در این عصر بودجهبندی کنند زیرا هنوز نتوانستهایم نحوه محاسبه سود و زیان را در الگوریتمهای نامرئی درک کنیم.
زمانی که ChatGPT در سال 2022 ظهور کرد، بهندرت کسی به توکنها اهمیت میداد. این دوران جشنهای هوش مصنوعی بود، جایی که میتوانستید به اندازه دلخواه برای 20 دلار در ماه چت کنید.
اما از زمان ظهور اخیر عوامل هوش مصنوعی، هزینههای توکن به چیزی تبدیل شده است که هر کسی که از یک عامل هوش مصنوعی استفاده میکند باید به آن توجه کند.
برخلاف مکالمات ساده پرسش و پاسخ، پشت یک جریان کار صدها یا هزاران تماس API وجود دارد. تفکر مستقل یک عامل هزینهای دارد. هر اصلاح خودکار، هر فراخوانی ابزار به نوسانات در صورتحساب مربوط میشود. ناگهان متوجه میشوید که پولی که واریز کردهاید دیگر کافی نیست و هیچ ایدهای ندارید که عامل چه کارهایی انجام داده است.
در زندگی واقعی، همه میدانند که چگونه پول پسانداز کنند. هنگام خرید مواد غذایی در بازار، ما میدانیم که قبل از وزن کردن، گل و برگهای پژمرده را تمیز کنیم. هنگام گرفتن تاکسی به فرودگاه، رانندگان با تجربه میدانند که باید از جادههای بلند در ساعات شلوغی پرهیز کنند.
منطق پسانداز در دنیای دیجیتال مشابه است، به جز اینکه واحد صورتحساب از "کیلوگرم" و "کیلومتر" به توکنها تغییر کرده است.

در گذشته، پسانداز به دلیل کمبود بود؛ در عصر هوش مصنوعی، پسانداز برای دقت است.
از طریق این مقاله، امیدواریم به شما کمک کنیم تا یک روششناسی برای پسانداز در عصر هوش مصنوعی ترسیم کنید تا بتوانید هر پنی را بهخوبی خرج کنید.
برگهای خراب را قبل از وزن کردن بردارید
در عصر هوش مصنوعی، ارزش اطلاعات دیگر بر اساس وسعت آن تعیین نمیشود بلکه بر اساس خلوص آن است.
منطق صورتحساب هوش مصنوعی بر اساس تعداد کلماتی است که میخواند. چه بینشهای عمیق به آن بدهید و چه اصطلاحات بیمعنا، تا زمانی که آن را بخواند، باید هزینه آن را بپردازید.
بنابراین، اولین ذهنیتی که برای پسانداز توکنها باید داشته باشید این است که "نسبت سیگنال به نویز" را در ناخودآگاه خود حک کنید.
هر کلمه، هر تصویر، هر خط کدی که به هوش مصنوعی میدهید هزینهای دارد. پس قبل از اینکه چیزی را به هوش مصنوعی بسپارید، به یاد داشته باشید که از خود بپرسید: چقدر از این واقعاً برای هوش مصنوعی لازم است؟ چقدر گلآلود و خراب است؟
به عنوان مثال، سلام و احوالپرسیهای طولانی مانند "سلام، لطفاً به من کمک کنید با..."، معرفیهای پسزمینه که تکرار میشوند و نظرات کدی که به درستی حذف نشدهاند، همه برگهای گلآلود و خراب هستند.
علاوه بر این، رایجترین هدررفت این است که به طور مستقیم یک PDF یا اسکرینشات از یک وبسایت را به هوش مصنوعی بدهید. در حالی که این ممکن است تلاش شما را صرفهجویی کند، در عصر هوش مصنوعی، "صرفهجویی در تلاش" اغلب به معنای "هزینه بیشتر" است.
یک PDF بهخوبی فرمتشده نه تنها شامل محتوای اصلی است، بلکه شامل هدر، پاورقی، برچسبهای نمودار، واترمارکهای پنهان و مقدار زیادی کد فرمتبندی برای تایپگذاری نیز میباشد. این عناصر به هوش مصنوعی کمک نمیکنند تا سوال شما را درک کند، اما شما برای همه آنها هزینه خواهید پرداخت.
دفعه بعد، به یاد داشته باشید که PDF را به متن Markdown تمیز تبدیل کنید قبل از اینکه آن را به هوش مصنوعی بدهید. زمانی که یک PDF 10MB را به یک متن تمیز 10KB تبدیل میکنید، نه تنها 99% از هزینه را صرفهجویی میکنید، بلکه بهطور قابل توجهی سرعت پردازش هوش مصنوعی را نیز افزایش میدهید.
تصاویر یک موجود پولخور دیگر هستند.
در منطق مدلهای بصری، هوش مصنوعی اهمیتی به زیبایی عکس شما نمیدهد؛ آنچه مهم است، میزان مساحت پیکسلهایی است که اشغال میکنید.
استفاده از منطق محاسباتی رسمی کلاود: مصرف توکن تصویر = عرض پیکسلها × ارتفاع پیکسلها ÷ 750.
برای یک تصویر 1000×1000 پیکسل، حدود 1334 توکن مصرف میشود که طبق قیمتگذاری کلاود سونت 4.6، تقریباً 0.004 دلار به ازای هر تصویر است؛
با این حال، اگر همان تصویر به 200×200 پیکسل فشرده شود، تنها 54 توکن مصرف میکند و هزینه را به 0.00016 دلار کاهش میدهد، که تفاوتی برابر با 25 برابر کامل است.
بسیاری از مردم بهطور مستقیم به هوش مصنوعی عکسهای با وضوح بالا که با تلفنهای خود گرفتهاند یا عکسهای 4K را میدهند، بدون اینکه بدانند توکنهایی مصرف میکنند که میتواند برای هوش مصنوعی کافی باشد تا بیش از نیمی از یک رمان کوتاه را بخواند. اگر وظیفه تنها شناسایی متن در تصویر یا انجام قضاوتهای بصری ساده باشد، مانند اینکه هوش مصنوعی مقدار موجود در یک فاکتور را شناسایی کند، متن را در یک دفترچه راهنما بخواند یا تعیین کند که آیا چراغ راهنمایی در تصویر وجود دارد یا خیر، در این صورت وضوح 4K صرفاً هدر رفت است. فشردهسازی تصویر به حداقل وضوح قابل استفاده کافی است.
با این حال، آسانترین راه برای هدر دادن توکنها در ورودی، در واقع فرمت فایل نیست، بلکه روش ناکارآمد صحبت کردن است.
بسیاری از مردم به هوش مصنوعی بهعنوان یک همسایه انسانی نگاه میکنند و به شیوهای اجتماعی و پرحرف ارتباط برقرار میکنند، با شروع جملهای مانند "به من کمک کن یک وبسایت بنویسم"، منتظر میمانند تا هوش مصنوعی یک محصول نیمهتمام تولید کند، سپس جزئیات را اضافه کرده و بارها و بارها عقب و جلو میروند. این نوع مکالمه به سبک فشردن خمیردندان باعث میشود هوش مصنوعی بهطور مکرر محتوا تولید کند، با هر دور اصلاح، مصرف توکنها افزایش مییابد.
مهندسان Tencent Cloud در عمل دریافتهاند که برای همان نیاز، یک مکالمه چند دوری به سبک فشردن خمیردندان اغلب توکنهایی مصرف میکند که 3 تا 5 برابر بیشتر از آنچه میتوان در یک بار توضیح داد، است.
راه واقعی صرفهجویی در هزینه، رها کردن این جستجوی اجتماعی ناکارآمد است، بهطور واضح نیازها، شرایط مرزی و مثالهای مرجع را در یک بار بیان کنید. تلاش کمتری برای توضیح "چه کارهایی نباید انجام داد" صرف کنید زیرا نفیها اغلب هزینههای درک بیشتری نسبت به تأییدها مصرف میکنند؛ بهطور مستقیم به آن بگویید "چگونه این کار را انجام دهید" و یک نمایش واضح و صحیح ارائه دهید.
همچنین، اگر میدانید هدف کجاست، بهطور مستقیم به هوش مصنوعی بگویید، اجازه ندهید هوش مصنوعی کارآگاه بازی کند.
زمانی که به هوش مصنوعی دستور میدهید "کدی مرتبط با کاربر را پیدا کن،" باید در پسزمینه اسکن، تحلیل و حدسزنیهای وسیع انجام دهد؛ در حالی که وقتی بهطور مستقیم به آن میگویید "به فایل src/services/user.ts نگاه کن،" تفاوت در مصرف توکن مانند شب و روز است. در دنیای دیجیتال، تقارن اطلاعاتی بزرگترین کارایی است.
هزینههای "ادب" هوش مصنوعی را نپردازید.
یک قانون نانوشته در صورتحساب مدلهای بزرگ وجود دارد که بسیاری از افراد از آن آگاه نیستند: توکنهای خروجی معمولاً ۳ تا ۵ برابر گرانتر از توکنهای ورودی هستند.
به عبارت دیگر، آنچه هوش مصنوعی میگوید بسیار گرانتر از آن چیزی است که شما به آن میگویید. با در نظر گرفتن قیمتگذاری Claude Sonnet 4.6 بهعنوان مثال، وارد کردن هر میلیون توکن تنها ۳ دلار هزینه دارد، در حالی که خروجی ناگهان به ۱۵ دلار میرسد، که تفاوت قیمت شگفتانگیز ۵ برابری است.
تمام آن خطوط آغازین مؤدبانه مانند "خوب، من کاملاً نیازهای شما را درک میکنم و اکنون شروع به پاسخگویی به آنها میکنم..." و آن پایانهای مؤدبانه "امیدوارم اطلاعات فوق برای شما مفید باشد" آداب اجتماعی در ارتباطات انسانی هستند، اما در صورتحساب API، این تشریفات با ارزش اطلاعاتی صفر نیز برای شما هزینه خواهد داشت.
موثرترین راه برای رسیدگی به هدررفت ترمینال خروجی، تعیین قوانین برای هوش مصنوعی است. از دستورات سیستم استفاده کنید تا بهطور صریح به آن بگویید: هیچ گفتوگوی کوچک، هیچ توضیحی، هیچ بازگویی درخواستها، فقط پاسخ را ارائه دهید.
این قوانین تنها یک بار نیاز به تنظیم دارند و در هر گفتوگو مؤثر خواهند بود و واقعاً اصل "ورودی یکباره، منفعت دائمی" در مالی را تجسم میکنند. با این حال، هنگام تعیین این قوانین، بسیاری از افراد به دام دیگری میافتند: صدور دستورالعملهای طولانی به زبان طبیعی.
دادههای آزمایششده توسط مهندسان نشان میدهد که کارایی دستورالعملها در تعداد کلمات نیست، بلکه در چگالی آنهاست. با فشردهسازی یک دستور سیستم ۵۰۰ کلمهای به ۱۸۰ کلمه، حذف خوشآمدگوییهای بیمعنی، تجمیع دستورالعملهای تکراری و بازسازی پاراگرافها به یک لیست مختصر، کیفیت خروجی هوش مصنوعی تقریباً بدون تغییر باقی میماند، اما مصرف توکن در هر تماس میتواند ۶۴٪ کاهش یابد.
روش دیگری که میتوان بهطور فعال کنترل کرد، محدود کردن طول خروجی است. بسیاری از افراد هرگز سقف خروجی تعیین نمیکنند و به هوش مصنوعی آزادی عمل میدهند، که اغلب منجر به افزایش شدید هزینهها میشود. شما ممکن است تنها به یک جمله کوتاه و ساده نیاز داشته باشید، اما هوش مصنوعی، در تلاشی برای نشان دادن "صداقت فکری" خاصی، بدون هیچ محدودیتی یک مقاله ۸۰۰ کلمهای تولید میکند.
اگر به دادههای خالص نیاز دارید، باید هوش مصنوعی را مجبور کنید که نتایج را در یک فرمت ساختاریافته برگرداند نه توصیفهای طولانی به زبان طبیعی. با توجه به مقدار معادل اطلاعات، فرمت JSON مصرف توکن بسیار کمتری نسبت به نثر دارد. این به این دلیل است که دادههای ساختاریافته تمام پیوندهای اضافی، ذرات و اصلاحکنندههای توضیحی را حذف میکنند و تنها هسته منطقی با غلظت بالا را حفظ میکنند. در عصر هوش مصنوعی، شما باید به شدت آگاه باشید که آنچه ارزش پرداخت دارد، ارزش نتیجه است، نه آن توضیحات بیمعنی از هوش مصنوعی.
علاوه بر این، "تفکر بیش از حد" هوش مصنوعی نیز به طرز سیری ناپذیری موجودی حساب شما را کاهش میدهد.
برخی از مدلهای پیشرفته دارای حالت "استدلال گسترده" هستند که قبل از پاسخ دادن، استدلال داخلی وسیعی انجام میدهند. این فرآیند استدلال همچنین هزینههایی را بر اساس قیمت خروجی به همراه دارد که میتواند بسیار گران باشد.
این حالت اساساً برای "وظایف پیچیده که نیاز به پشتیبانی منطقی عمیق دارند" طراحی شده است. با این حال، بیشتر مردم نیز این حالت را هنگام پرسیدن سوالات ساده انتخاب میکنند. برای وظایفی که نیاز به استدلال عمیق ندارند، بهطور صریح به هوش مصنوعی دستور دهید که "توضیحات را رد کند و پاسخ را مستقیماً ارائه دهد" یا بهصورت دستی استدلال گسترده را خاموش کنید تا مقدار قابل توجهی از هزینه شما صرفهجویی شود.
از ماندن هوش مصنوعی بر مسائل قدیمی خودداری کنید
مدلهای بزرگ حافظه واقعی ندارند؛ آنها فقط به طور بیپایان بر مسائل قدیمی متمرکز میشوند.
این یک مکانیزم زیرساختی است که بسیاری از مردم از آن بیخبرند. هر بار که شما یک پیام جدید در یک پنجره گفتوگو ارسال میکنید، هوش مصنوعی از آن جمله شروع به درک نمیکند؛ بلکه تمام تعاملات گذشته شما، از جمله هر دور گفتوگو، هر قطعه کد و هر سند ارجاع شده را دوباره میخواند، قبل از اینکه به شما پاسخ دهد.
در صورتحساب توکنها، این "یادگیری از گذشته" به هیچ وجه رایگان نیست. با افزایش دورهای گفتوگو، حتی اگر فقط درباره یک کلمه ساده بپرسید، هزینه دوباره خواندن کل حساب قدیمی هوش مصنوعی به طور نمایی افزایش مییابد. این مکانیزم تعیین میکند که هرچه تاریخچه گفتوگو سنگینتر باشد، هزینه هر یک از سوالات شما بیشتر میشود.
کسی ۴۹۶ گفتوگوی واقعی که هر کدام بیش از ۲۰ پیام داشتند را پیگیری کرد و متوجه شد که میانگین خواندن پیام اول ۱۴,۰۰۰ توکن بود که هزینهای حدود ۳.۶ سنت برای هر پیام داشت؛ تا پیام ۵۰، میانگین خواندن به ۷۹,۰۰۰ توکن رسید که هزینهای حدود ۴.۵ سنت برای هر پیام داشت، که ۸۰٪ بیشتر هزینهبر بود. علاوه بر این، با طولانیتر شدن زمینه، تا پیام ۵۰، زمینهای که هوش مصنوعی باید دوباره پردازش کند، در حال حاضر ۵.۶ برابر زمینه پیام اول است.
برای حل این مشکل، سادهترین عادت این است: یک وظیفه، یک جعبه گفتوگو.
هنگامی که یک موضوع مورد بحث قرار میگیرد، به سرعت یک گفتوگوی جدید آغاز کنید؛ هوش مصنوعی را به عنوان یک پنجره چت همیشه فعال در نظر نگیرید. این عادت به نظر ساده میرسد، اما بسیاری از مردم نمیتوانند آن را انجام دهند و همیشه فکر میکنند، "اگر بخواهم به محتوای قبلی ارجاع دهم چه؟" در واقع، بیشتر اوقات، آن "اگرها" که نگران آن هستید هرگز اتفاق نمیافتند و برای آن "اگر"، شما در نهایت برای هر پیام جدید چندین برابر هزینه میپردازید.
زمانی که یک مکالمه نیاز به ادامه دارد اما زمینه آن طولانی شده است، میتوانیم از توابع فشردهسازی برخی ابزارها استفاده کنیم. Claude Code یک دستور /compact دارد که میتواند تاریخچه طولانی گفتگو را به یک خلاصه کوتاه فشرده کند و به شما در تمرین پاکسازی سایبری کمک کند.
همچنین یک منطق صرفهجویی در هزینه به نام کش کردن درخواست وجود دارد. اگر به طور مکرر از همان درخواست سیستم استفاده کنید یا نیاز به ارجاع به همان سند در هر مکالمه داشته باشید، هوش مصنوعی این محتوا را کش میکند. بار بعدی که به آن مراجعه میشود، تنها هزینهای جزئی برای خواندن کش دریافت میکند، نه هزینه کامل هر بار.
قیمتگذاری رسمی Anthropic نشان میدهد که قیمت توکن برای ضربات کش شده ۱/۱۰ قیمت معمولی است. کش کردن درخواست OpenAI نیز به طور مشابه هزینههای ورودی را حدود ۵۰٪ کاهش میدهد. مقالهای که در ژانویه ۲۰۲۶ در arXiv منتشر شد، وظایف طولانی را در چندین پلتفرم هوش مصنوعی بررسی کرد و دریافت که کش کردن درخواست میتواند هزینههای API را بین ۴۵٪ تا ۸۰٪ کاهش دهد.
به عبارت دیگر، برای همان محتوا، بار اول که آن را به هوش مصنوعی میدهید، هزینه کامل را پرداخت میکنید، اما در تماسهای بعدی، تنها ۱/۱۰ پرداخت میکنید. برای کاربرانی که نیاز به استفاده مکرر از همان مجموعه اسناد مشخصات یا درخواستهای سیستم هر روز دارند، این ویژگی میتواند مقدار قابل توجهی توکن صرفهجویی کند.
با این حال، کش کردن درخواست یک پیشنیاز دارد: wording درخواست سیستم و محتوای سند مرجع و ترتیب آن باید ثابت بماند و در ابتدای مکالمه قرار گیرد. به محض اینکه محتوا به هر نحوی تغییر کند، کش نامعتبر میشود و دوباره هزینه کامل اعمال میشود. بنابراین، اگر مجموعهای از هنجارهای کاری ثابت دارید، آنها را به صورت سختافزاری کدگذاری کنید و از تغییرات دلخواه خودداری کنید.
آخرین تکنیک مدیریت زمینه بارگذاری درخواستی است. بسیاری از افراد دوست دارند تمام مشخصات، اسناد و یادداشتها را در درخواستهای سیستم فشرده کنند، فقط در صورت نیاز.
با این حال، هزینه انجام این کار این است که وقتی شما فقط در حال انجام یک کار ساده هستید، مجبورید هزاران کلمه از قوانین را بارگذاری کنید و به طور بیدلیل مقدار زیادی توکن هدر دهید. مستندات رسمی Claude Code پیشنهاد میکند که CLAUDE.md را زیر ۲۰۰ خط نگه دارید، قوانین تخصصی برای سناریوهای مختلف را به فایلهای مهارت جداگانه تقسیم کنید و قوانین را فقط برای سناریوی در حال استفاده بارگذاری کنید. حفظ خلوص مطلق زمینه بالاترین شکل احترام به قدرت محاسباتی است.
پورشه را برای خرید سبزیجات نبرید
مدلهای مختلف هوش مصنوعی تفاوت قیمت قابل توجهی دارند.
هزینهی Claude Opus 4.6 برای هر میلیون توکن ورودی ۵ دلار و برای خروجی ۲۵ دلار است، در حالی که Claude Haiku 3.5 تنها ۰.۸ دلار برای ورودی و ۴ دلار برای خروجی نیاز دارد، که تقریباً شش برابر تفاوت دارد. استفاده از مدل سطح بالا برای انجام کارهای خستهکننده جمعآوری اطلاعات و فرمتبندی نه تنها کند است بلکه بسیار گرانقیمت نیز میباشد.

رویکرد هوشمندانه این است که مفهوم اجتماعی رایج "تقسیم کار" را به جامعهی هوش مصنوعی اعمال کنیم و وظایف با دشواریهای مختلف را به مدلها در نقاط قیمتی مختلف اختصاص دهیم.
همانطور که در دنیای واقعی وقتی کسی را برای یک شغل استخدام میکنید، شما بهطور خاص یک کارشناس آجرچینی با حقوق یک میلیون دلار را برای انجام کارهای دستی در یک سایت ساختمانی استخدام نمیکنید. هوش مصنوعی به همین شکل عمل میکند. مستندات رسمی Claude Code همچنین بهطور صریح توصیه میکند: از Sonnet برای بیشتر وظایف برنامهنویسی استفاده کنید، Opus را برای تصمیمات معماری پیچیده و استدلالهای چند مرحلهای ذخیره کنید و Haiku را برای زیرکارهای ساده اختصاص دهید.
یک راهحل عملیتر و خاصتر این است که یک "جریان کار دو مرحلهای" بسازید. در مرحله اول، از مدلهای پایهای رایگان یا کمهزینه برای انجام کارهای مقدماتی کثیف، مانند جمعآوری دادهها، پاکسازی فرمت، تولید پیشنویس اولیه، طبقهبندی ساده و خلاصهسازی استفاده کنید. سپس، در مرحله دوم، جوهر تصفیهشده را به مدلهای سطح بالا برای تصمیمگیریهای اصلی و تصفیه عمیق تغذیه کنید.
برای مثال، اگر نیاز به تحلیل یک گزارش صنعتی ۱۰۰ صفحهای دارید، میتوانید ابتدا از Gemini Flash برای استخراج دادهها و نتایج کلیدی از گزارش استفاده کنید، آن را به یک خلاصه ۱۰ صفحهای فشرده کنید و سپس این خلاصه را به Claude Opus برای تحلیل و قضاوت عمیقتر منتقل کنید. این جریان کار دو مرحلهای میتواند بهطور قابل توجهی هزینهها را کاهش دهد در حالی که کیفیت را تضمین میکند.
فراتر از پاراگرافبندی ساده، یک رویکرد پیشرفتهتر تقسیم کار عمیق مبتنی بر وظیفه است. یک وظیفه مهندسی پیچیده میتواند به چندین زیرکار مستقل تقسیم شود که هر کدام با مناسبترین مدل مطابقت دارد.
برای مثال، برای یک وظیفه کدنویسی، یک مدل مقرون به صرفه میتواند ابتدا چارچوب و کد اولیه را بنویسد و سپس تنها پیادهسازی منطق اصلی را به یک مدل گرانتر اختصاص دهد. هر زیرکار دارای یک زمینهی تمیز و متمرکز است که منجر به نتایج دقیقتر و هزینههای پایینتر میشود.
شما واقعاً نیازی به صرف توکنها ندارید.
تمام بحثهای قبلی بهطور بنیادی به مسائل تاکتیکی "چگونه پول صرفهجویی کنیم" میپردازند، اما بسیاری از افراد یک پیشفرض منطقی بنیادیتر را نادیده گرفتهاند: آیا این عمل واقعاً نیاز به صرف توکنها دارد؟
افراطیترین شکل صرفهجویی نه بهینهسازی الگوریتم بلکه عمل حذف تصمیمگیریهای غیرضروری است. ما به جستجوی پاسخهای جهانی از هوش مصنوعی عادت کردهایم و فراموش کردهایم که در بسیاری از سناریوها، فراخوانی یک مدل بزرگ و گرانقیمت مانند استفاده از توپخانه برای کشتن یک پشه است.
به عنوان مثال، اجازه دادن به هوش مصنوعی برای مدیریت خودکار ایمیلها منجر به این میشود که هر ایمیل به عنوان یک وظیفه مستقل تفسیر، دستهبندی و پاسخ داده شود که در نتیجه مصرف توکن قابل توجهی را به همراه دارد. با این حال، اگر ابتدا ۳۰ ثانیه را صرف مرور صندوق ورودی خود کنید و ایمیلهایی را که به وضوح نیاز به پردازش هوش مصنوعی ندارند به صورت دستی فیلتر کنید و سپس بقیه را به هوش مصنوعی بسپارید، هزینه بلافاصله به یک بخش از هزینه اولیه کاهش مییابد. قضاوت انسانی در اینجا مانع نیست بلکه بهترین ابزار فیلتر کردن است.
افراد از دوران تلگرام میدانستند که ارسال یک کلمه اضافی چقدر هزینه اضافی دارد، بنابراین آن را در نظر میگرفتند و حس شهودی از استفاده از منابع را نشان میدادند. دوران هوش مصنوعی تفاوتی ندارد. زمانی که واقعاً درک میکنید که هزینه گفتن یک جمله بیشتر برای هوش مصنوعی چقدر است، به طور طبیعی وزن میکنید که آیا ارزش دارد که هوش مصنوعی این کار را انجام دهد، آیا این وظیفه به یک مدل برتر نیاز دارد یا یک مدل مقرون به صرفه، و آیا زمینه هنوز مرتبط است یا خیر.
این نوع ملاحظه، مؤثرترین توانایی از نظر هزینه است. در دورانی که قدرت محاسباتی در حال گرانتر شدن است، هوشمندانهترین استفاده این است که اجازه ندهید هوش مصنوعی جایگزین انسانها شود بلکه بگذارید هوش مصنوعی و انسانها هر کدام کاری را که در آن مهارت دارند انجام دهند. زمانی که این حساسیت به توکنها به یک عمل بازتابی تبدیل میشود، واقعاً از وضعیت زیر دست بودن به محاسبات به وضعیت تسلط بر آن منتقل میشوید.
ممکن است شما نیز علاقهمند باشید

<Houthi یک ایست بازرسی دارد | خبرنامه صبحگاهی Rewire>

ادغام استیبل کوینها: هیچ «برندهای همه چیز را میبرد» وجود نخواهد داشت

۲۴۰ میلیارد دلار جنگل تاریک، سقوط امور مالی آهنین

محدودیت ۳ سلام، محدودیت کد کلود شما کجا رفت؟ یک اشکال در حافظه پنهان ۲۸ روزه، و یک پاسخ رسمی که شما را به «استفادهی کم از آن» تشویق میکند.

چگونه میتوان با استفاده از هوش مصنوعی در پولیمارکت پول درآورد؟

گزارش صبحگاهی | YZi Labs بهطور استراتژیک سرمایهگذاری خود را در Predict.fun افزایش میدهد؛ پروتکل Drift مورد حملهای با زیان حداقل ۲۰۰ میلیون دلار قرار گرفت؛ x402 از Coinbase به بنیاد لینوکس پیوست.

رویای ۵۹۰ میلیارد دلاری: چگونه وارن بافتِ زن از مقام خود سقوط کرد؟

Untitled
بیتکوین به آستانه حساس 55 هزار دلار نزدیک میشود برداشتهای کلیدی تحلیلگران پیشبینی کردهاند که بیتکوین ممکن است…

معضل رشد Base: همه چیز درست انجام شده بود، اما کاربران هنوز آن را ترک میکنند

گفتگو با بنیانگذار پنترا: بیت کوین به سرعت فرار رسیده است، داراییهای سنتی عقب ماندهاند

Untitled
بیتکوین به آستانه حساس 55 هزار دلار نزدیک میشود برداشتهای کلیدی تحلیلگران پیشبینی کردهاند که بیتکوین ممکن است…

Untitled
Outline H1: نقد یورش به Drift Protocol به دلیل جعل هویت DeFi H2: بررسی کلی حادثه H3: تحلیل…

Untitled
Outline H1: حمله به Drift Protocol: تصاحب کنترل با استفاده از نانسهای بادوام H2: اهمیت ماجرا – H3:…

Untitled
عنوان: آپبیت و بیتهامب دارایی DRIFT را تحت هشدار معاملاتی قرار دادند نکات کلیدی آپبیت و بیتهامب دارایی…

موقعیت شوکبرانگیز “برادر بزرگ ماجی” در اتریوم: خطر مرز نقدینگی تنها ۱۳ دلار
Key Takeaways فشار نقدینگی در بازار اتریوم: برادر بزرگ ماجی در یک موقعیت طولانی 25 برابری در بازار…

معرفی میزو و لانچپول بیتگت: فرصتهای جدید برای کسب درآمد
نکات کلیدی پروژه میزو توسط لانچپول بیتگت قابلیت سپردهگذاری را دارد. نرخ سود سالانه (APR) برای استخر BGB…

Untitled
Outline H1: پاسخ ورمهول به حمله پروتکل دریفت: تأخیرها به خاطر مکانیزمهای امنیتی سولانا H2: مقدمه – توضیح…

پیشبینی قیمت XRP: بنیاد خوب، قیمت ضعیف
XRP با وجود غلبه بر موانع بنیانی پیشبینی شده، در عملکرد قیمتی انتظارات را برآورده نکرده است. تحلیلها…
