نویسنده: مهدی اسدی
// پنجشنبه, ۲۶ بهمن ۱۴۰۲ ساعت ۲۲:۵۲

انویدیا از چت بات ویندوزی Chat With RTX رونمایی کرد

انویدیا در راستای گسترش اکوسیستم هوش مصنوعی خود از چت بات Chat with RTX برای سیستم‌های مبتنی بر سیستم‌عامل ویندوز رونمایی کرد.

به‌نظر می‌رسد که انویدیا به‌دنبال معرفی جایگزینی برای ChatGPT در اکوسیستم پردازنده‌های گرافیکی RTX پی سی است که به‌طور رایگان در دسترس کاربران قرار خواهد گرفت. Chat with RTX یک چت بات برای پی سی‌های ویندوزی است که با استفاده از توان پردازش هسته‌های TensorRT-LLM توسعه داده شده است و به‌صورت رایگان در جدیدترین کارت گرافیک‌های RTX در دسترس است.

استفاده از چت بات Chat with RTX بسیار ساده است؛ این برنامه به‌عنوان یک سیستم محلی طراحی شده است که شما در استفاده از آن همیشه با یک چت بات خصوصی سازی شده‌ی GPT در کامپیوتر خود مواجه خواهید بود که نیازی به آنلاین بودن ندارد. Chat with RTX می‌تواند با استفاده از داده‌هایی که روی سیستم کاربران پردازش می‌شود، به‌طور کامل شخصی‌سازی شود. خبر خوب دیگر این است که همه‌ی کارت‌های گرافیک سری RTX 40 و RTX 30 امکان بهره‌مندی از قابلیت‌های آن را دارند.

اما در خصوص جزئیات مربوط‌به عملکرد Chat with RTX باید گفت که به منظور پردازش عملگرهای هوش مصنوعی در آن، از هسته‌های TensorRT-LLM در سخت‌افزار‌های انویدیا و نرم‌افزار Retrieval Augmented Generated (RAG) استفاده می‌شود که سال گذشته برای پی سی معرفی شد. این نرم‌افزار از ظرفیت کامل پردازش هوش مصنوعی در سخت افزارهای خانواده RTX استفاده می‌کند تا بهترین تجربه ممکن را برای کاربران به‌همراه داشته باشد. 

محیط چت بات انویدیا Chat With RTX

این اپلیکیشن از تمام کارت‌های گرافیک GeForce RTX 30 و RTX 40 که حداقل از ۸ گیگابایت حافظه گرافیکی برخوردار هستند پشتیبانی می‌کند.  بعد از اینکه نرم‌افزار Chat with RTX را به‌صورت رایگان دانلود کردید، اپلیکیشن به‌صورت خودکار به دیتاست موجود در سیستم شما (با تمامی فرمت‌های txt, .pdf, .doc, .docx, .xml) متصل خواهد شد تا با اتصال آن به یک مدل زبانی بزرگ مثل Mistral و Llama 2 از آن برای صدور پاسخ‌های شخصی‌سازی شده استفاده کند.

شما همچنین می‌توانید URLهای خاصی مانند ویدیوهای یوتیوب یا یک پلی‌لیست کامل را به آن متصل می‌کند و نتایج جستجوی دیتاست را تقویت کنید. بعد از برقراری ارتباط، کاربران می‌توانند همان‌طور که از ChatGPT استفاده می‌کردند با Chat With RTX ارتباط برقرار کنند. اما اینبار نتایج حاصل شده کاملا برپایه یک دیتاست شخصی‌سازی شده صادر می‌شوند تا نسبت به متدهای آنلاین نتایج بهتری را برای کاربر به‌دنبال داشته باشند.

برخورداری از یک GPU سری RTX انویدیا که از هسته‌های TensorRT-LLM پشتیبانی می‌کند که به معنای این است شما تمام داده‌های مورد نیاز خود را به‌صورت محلی مورد پردازش قرار می‌دهید و نیازی به ذخیره‌سازی آن در بستر کلاود نیست. این کار علاوه‌بر صرفه‌جویی در زمان باعث می‌شود تا نتایج صحیح‌تری به کاربر ارائه شوند. ابزار RAG یا Retrieval Augamanted Generation نیز یکی از تکنیک‌هایی است که باعث می‌شود با دسترسی به یک مجموعه داده‌ی داخلی نتایج هوش مصنوعی سریع‌تر و صحیح‌تری حاصل کرد.

محتوای آپدیت آینده Chat With RTX

انویدیا وعده داده است تا در این ماه آپدیت جدیدی را برای بهره‌مندی از ۵ برابر عملکرد سریع‌تر با استفاده از هسته‌های TensorRT-LLM v0.6.0 عرضه کند. علاوه‌براین، در این آپدیت از LLMهای بیشتری مثل Mistral 7B و Nemotron 3 8B نیز پشتیبانی خواهد شد.

شما می‌توانید اپلیکیشن Chat with RTX را ازطریق این لینک به‌صورت رایگان دانلود کنید. این نرم‌افزار از ویندوز 11 و 10 پشتیبانی می‌کند و برای استفاده از آن باید GPU مورد استفاده شما به آخرین نسخه‌ی درایورهای انویدیا آپدیت شده باشد.


منبع wccftech
اسپویل
برای نوشتن متن دارای اسپویل، دکمه را بفشارید و متن مورد نظر را بین (* و *) بنویسید
کاراکتر باقی مانده