کارکرد خیره‌کننده پلتفرم هوش مصنوعی Groq در اجرای لاما 3_دلچسب

[ad_1] به گزارش دلچسب

متا روز قبل همزمان با اراعه هوش مصنوعی اختصاصی خود در اینستاگرام، واتس‌اپ و فیسبوک، مدل زبان بزرگ تازه لاما ۳ (Llama 3) را در اختیار فراهم‌کنندگان سرویس‌های ابری قرار داده است. اکنون برخی کاربران شبکه‌های اجتماعی به کارکرد این مدل در پلتفرم هوش مصنوعی Groq اشاره کرده‌اند که حرف های می‌شود شدت استثنایی پردازش ۸۰۰ توکن‌درثانیه را اراعه می‌کند.

کارکرد خیره‌کننده مدل لاما ۳ در پلتفرم هوش مصنوعی Groq

بر پایه پستی که توسط «مت شومر»، بنیان‌گذار و مدیرعامل شرکت OthersideAI انتشار شده است، پلتفرم هوش مصنوعی شرکت Groq شدت استنتاج برق‌آسای بیشتر از ۸۰۰ توکن‌در‌ثانیه را با مدل لاما ۳ متا اراعه می‌کند. هرچند متا یا Groq تا این مدت این نوشته را قبول نکرده‌اند، اما این ویژگی می‌تواند در قیاس با دیگر سرویس‌های هوش مصنوعی ابری یک جهش قابل‌دقت باشد.

VentureBeat در گزارش خود از این نوشته اظهار‌کرده که این ادعا درست است. [از طریق این لینک می‌توانید خودتان کارکرد آن در چت‌بات Groq را امتحان کنید.]

پردازش ۸۰۰ توکن‌در‌ثانیه (یا نزدیک به ۴۸ هزار توکن‌در‌دقیقه) برای Llama 3 به‌اندازه‌ای سریع است که با وجود آن، مدل‌های هوش مصنوعی در هر دقیقه می‌توانند نزدیک به ۵۰۰ کلمه تشکیل کنند. این چنین با این شرایط، شدت استنتاج لاما ۳ از مدل‌های زبان بزرگ فرد دیگر که امروزه روی پردازنده‌های گرافیکی معمولی در فضای ابری اراعه خواهد شد، سریع تر است.

گسترش معماری تازه توسط Groq برای محاسبات یادگیری عمیق

کارکرد خیره‌کننده پلتفرم هوش مصنوعی Groq در اجرای لاما 3 دلچسب.webp

استارتاپ مستقر در سیلیکون‌ولی Groq، درحال گسترش یک معماری پردازنده تازه بهینه‌سازی‌شده برای عملیات‌های ضرب ماتریسی است که قلب محاسباتی یادگیری عمیق است. Groq ادعا می‌کند که این معماری می‌تواند کارکرد و کارایی زیاد بالاتری را برای استنتاج هوش مصنوعی اراعه کند، و نتیجه کارکرد پردازشی ۸۰۰ توکن‌درثانیه برای لاما ۳ به ادعای آن اعتبار می‌بخشد.

معماری Groq در قیاس با مطرح‌های مورداستفاده توسط انویدیا و دیگر سازندگان تراشه، تفاوت‌های قابل‌توجهی دارد. این استارتاپ به جای تطبیق پردازنده‌های همه‌منظوره برای هوش مصنوعی، پردازنده Tensor Streaming خود را برای تسریع الگوهای محاسباتی خاص یادگیری عمیق ساخته است.

خود متا بعد از اراعه لاما ۳ ادعا کرده می بود که این مدل زبانی کارکرد بهتری نسبت به زیاد تر رقیب ها دارد. اکنون این مدل در دو نسخه اراعه شده که یکی از آنها با ۸ میلیارد و فرد دیگر با ۷۰ میلیارد پارامتر همراه است. متا می‌گوید که مقدار تنوع در جواب‌های اراعه‌شده توسط این مدل زیاد تر از قبل شده است و خطاها یا عدم جواب‌گویی به سؤالات به‌ندرت صورت می‌گیرد. این چنین نحوه فهمیدن دستورات و نوشتن کدها هم بهبود یافته است.

گفتنی است که استارتاپ Groq ارتباطی با هوش مصنوعی Grok، متعلق به استارتاپ xAI ایلان ماسک ندارد.

تازه‌ترین اخبار و تحلیل‌ها درباره انتخابات، سیاست، اقتصاد، ورزشی، حوادث، فرهنگ وهنر و گردشگری و سلامتی را در وب سایت خبری دلچسب بخوانید.


دسته بندی مطالب

اخبار فرهنگی

اخبار فناوری

خبر های اقتصادی

خبرهای ورزشی

اخبار کسب وکار

اخبار پزشکی

[ad_2]
منبع

پیشنهاد ما به شما

لامینه یامال

لامینه یامال به بیماری لاعلاج مبتلا شد_دلچسب

[ad_1] به گزارش دلچسب لامینه یامال، توانایی استثنایی بارسلونا و تیم ملی اسپانیا، در حالی …