خبرگزاری کار ایران

«Le Chat Mistral» سریع‌ترین دستیار هوش مصنوعی جهان وارد می‌شود

«Le Chat Mistral» سریع‌ترین دستیار هوش مصنوعی جهان وارد می‌شود
کد خبر : ۱۵۹۶۸۶۹

Le Chat برای ارائه پاسخ‌هایش، از Cerebras Inference استفاده می‌کند که به‌عنوان سریع‌ترین ارائه‌دهنده استنتاج هوش مصنوعی شناخته می‌شود.

چند روز پیش بود که استارت آپ فرانسوی Mistral از اپلیکیشن Le Chat برای سیستم‌های عامل iOS و اندروید رونمایی کرد. این برنامه به‌عنوان یک چت ربات یا دستیار هوش مصنوعی معرفی‌شده و در این مسیر با غول‌هایی ازجمله ChatGPT، Claude و Gemini رقابت می‌کند.

برنامه Le Chat اکثر قابلیت‌هایش را به‌صورت رایگان ارائه می‌دهد و البته با محدودیت‌های ارتقا یافته در سطحی حرفه‌ای با پرداخت هزینه ماهانه ۱۴.۹۹ دلار در اختیار کاربران است. Le Chat قابلیت‌های جستجوی وب، تصویر و درک سند را در کنار تفسیر کد و تولید تصویر ارائه می‌دهد.

ازآنجاکه برنامه‌های کاربردی دستیار هوش مصنوعی این روزها در بازار به‌وفور یافت می‌شوند، شرکت جدیدی که قصد ورود به بازار را داشته باشد باید بتواند نکات متمایز قابل‌توجهی را ارائه دهد. دراین‌بین، میسترال مدعی است که مدل‌های کم تأخیر آن توسط سریع‌ترین موتورهای استنتاج کره زمین در اختیار کاربران هستند و درعین‌حال ادعا می‌کند که سریع‌تر از هر دستیار چت دیگری قادر است تا با بهره‌گیری از ویژگی Flash Answers، در هر ثانیه تا ۱۱۰۰ کلمه پاسخگوی کاربران باشد.

سبقت از رقبا به لطف Cerebras

حالا این سؤال مطرح می‌شود که رمز و راز این سرعت جادویی Le Chat در چیست؟ پاسخ ساده است؛ بهره‌گیری از Cerebras Inference، سرویسی که امکان پردازش با سرعتی بالا را به برنامه‌های هوش مصنوعی ارائه می‌کند.

طبق گفته مسئولان این شرکت، Cerebras Inference سریع‌ترین ارائه‌دهنده استنتاج هوش مصنوعی در جهان است و بدین ترتیب Le Chat را ۱۰ برابر سریع‌تر از GPT-۴o، Claude Sonnet ۳.۵ و DeepSeek R۱ کرده است. مقامات این شرکت درعین‌حال یادآوری کردند که مدل Mistral Large با ۱۲۳ میلیارد پارامتر پشت Le Chat قرار دارد.

کارشناسان برای تولید بازی Snake و با استفاده از پایتون، به مقایسه Mistral و Cerebras Le Chat با Claude ۳.۵ Sonnet و ChatGPT-۴o پرداختند.

«Le Chat Mistral» سریع‌ترین دستیار هوش مصنوعی جهان وارد می‌شود

نتایج به نمایش درآمده در ویدیوی YouTube Mistral نشان داد که ChatGPT با ۸۵ توکن در ثانیه، کلود ۱۲۰با  توکن در ثانیه،عملکرد به مراتب ضعیف‌تری نسبت به Le Chat با ۱۱۰۰ توکن در ثانیه داشتند.

در ویدیوی منتشرشده توسط Cerebras، برای Le Chat، تنها ۱.۳ ثانیه زمان نیاز بود تا کار را انجام دهد؛ Claude ۳.۵ Sonnet برای انجام همان کار ۱۹ ثانیه زمان نیاز داشت و همین کار برای Chat GPT-۴o حدود ۴۶ ثانیه زمان برد.

Cerebras در یک پست وبلاگی دراین‌باره توضیح داد: «این عملکرد توسط معماری استنتاج مبتنی بر SRAM در Wafer Scale Engine ۳ در ترکیب با تکنیک‌های رمزگشایی گمانه‌زنی که با همکاری محققان Mistral ایجادشده‌اند، ممکن می‌شود. »

دراین‌بین، چندین کاربر نیز در رابطه با این ادعاها اظهارنظر کردند. کاربری به نام Marc on X توضیح داده که این مدل "به طرز شگفت‌انگیزی سریع" است و اشاره کرد که با استفاده از این برنامه جدید، موفق شده تا یک برنامه ساده React را در کمتر از ۵ ثانیه بسازد.

کاربر دیگری به نام Pol Maire نوشت: «Le Chat محصول MistralAI، ده برابر سریع‌تر از ChatGPT است. شاید حتی ۱۰۰ برابر.»

آنچه در آزمایش‌های دنیای واقعی مشاهده شد

در AIM آزمایشی درباره برخی از مدل‌های پیشرو انجام شد که تا حدودی متفاوت بود. در این آزمایش از مدل‌های هوش مصنوعی انتظار می‌رفت تا یک مسئله شیمی که یکی از سؤالات IIT-JEE که یکی از دشوارترین امتحانات جهان در نظر گرفته می‌شود را حل کنند.

هوش‌های مصنوعی GPT-۴o، o۳ Mini، o۳ Mini High، Anthropic's Claude ۳.۵ Sonnet، DeepSeek R۱، Gemini ۲.۰ Flash گوگل و البته Mistral's Le Chat برای این آزمایش انتخاب شدند.

سؤال طرح‌شده بدین ترتیب بود: «برای تبخیر یخی در دمای ۱۰- درجه سانتی‌گراد و رساندنش به دمای ۱۱۰ درجه سانتی‌گراد به چه میزان گرما نیاز خواهد بود؟ لازم به ذکر است که جرم یخ ۱۰-۳ کیلوگرم است.»

Le Chat سریع‌ترین مدلی بود که توانست به پاسخ برسد، اما با یک هشدار همراه بود.

زمان موردنیاز مدل‌های هوش مصنوعی برای حل مسئله شیمی

درحالی‌که Le Chat Mistral به‌عنوان سریع‌ترین مدل ظاهر شد، اما همیشه از پاسخ‌های Flash استفاده نمی‌کرد که احتمالاً دلیلش آن بود که در این آزمایش از نسخه رایگان استفاده شده بود. Le Chat در سه بار از شش باری که مدل مورد آزمایش قرار گرفت، خروجی را در کمتر از ۴ ثانیه برگرداند؛ اما فلش Gemini ۲.۰ گوگل در تمام دفعات آزمایش، خروجی را زیر ۶ ثانیه برگرداند.

بدین ترتیب این سؤال مطرح می‌شود که آیا Flash Answers باوجودی که به‌صورت پیش‌فرض فعال می‌شود، می‌تواند هر بار وارد عمل شود یا خیر؟ این را باید در نظر داشت که در این آزمایش‌ها از نسخه رایگان دستیار Le Chat استفاده شد و نسخه حرفه‌ای، محدودیت ارتقا یافته‌ای را برای ویژگی Flash Answers فراهم می‌کند.

به‌علاوه، سرعت عملکرد این مدل‌ها به ماهیت پرس‌وجوها نیز بستگی دارد. مدل‌های استدلالی، با زنجیره طولانی افکار خود، دقت در پاسخ را در اولویت قرار می‌دهند و در نتیجه به زمان بیشتر نیاز خواهند داشت.

مثلاً زمانی که prompt را با DeepSeek R۱ آزمایش کردیم، تکمیل مشکل با زنجیره‌ای از افکار که شامل مراحل تأیید بود، بیش از یک دقیقه طول کشید. در آن مرحله مدل گفت: «اجازه دهید بررسی کنم که آیا همه مقادیر درست هستند یا خیر. آیا از گرمای ویژه مناسب برای بخار استفاده کرده‌ام یا خیر و غیره.»

علاوه براین، زمان زیادی طول کشید تا اطمینان حاصل شود که پاسخ با تعداد مناسب ارقام اعشاری ارائه‌شده است.

آزمایشی از Artificial Analysis نشان داد که OpenAI o۳-mini سریع‌ترین مدل در بین رقباست که ۲۱۴ توکن در ثانیه تولید می‌کند که آماری بالاتر از ۱۷ توکن در ثانیه o۱-mini است.

بر اساس تجزیه‌وتحلیل Artificial Analysis، o۳-mini همچنین در شاخص کیفیت خود به امتیاز بالای ۸۹ دست‌یافت که بدین ترتیب قابل‌رقابت با o۱ (۹۰ امتیاز) و DeepSeek R۱ (۸۹ امتیاز) به نظر می‌رسد. این شاخص کیفیت، قابلیت‌های کلی مدل هوش مصنوعی را به‌صورت کمّی بررسی می‌کند.

OpenAI مقیاس زمان استنتاج را برای ارائه خروجی‌ها با سرعت بالاتر اولویت‌بندی کرده است. با قابلیت‌های استنتاج Cerbreas، به نظر می‌رسد Mistral به این مسابقه پیوسته است. علاوه بر این، نبرد مداومی در رابطه با سرعت توکن بین ارائه‌دهندگان استنتاج مثل Cerebras، Groq و SambaNova وجود دارد.

این جاه‌طلبی‌ها برای ارائه پاسخ‌هایی با سرعت‌بالا با آنچه جنسن هوانگ، مدیرعامل انویدیا در سال گذشته گفت، مطابقت دارد. او آینده‌ای را متصور بود که در آن سیستم‌های هوش مصنوعی وظایف مختلفی مثل جستجوی درخت، زنجیره‌ای از افکار و شبیه‌سازی‌های ذهنی را انجام می‌دهند، پاسخ‌های خود را بازتاب می‌دهند و در زمان واقعی و در حدود یک ثانیه پاسخگو هستند.

منبع خبر آنلاین
انتهای پیام/
ارسال نظر
پیشنهاد امروز