Nvidia

انویدیا در نمایشگاه CES 2026 مجموعه‌ای جدید از مدل‌های پایه رباتیک، ابزارهای شبیه‌سازی و سخت‌افزارهای لبه (Edge) را معرفی کرد؛ اقداماتی که نشان‌دهنده جاه‌طلبی این شرکت برای تبدیل شدن به پلتفرم پیش‌فرض رباتیک عمومی است، درست همان‌طور که اندروید به سیستم‌عامل غالب گوشی‌های هوشمند تبدیل شد.

ورود انویدیا به حوزه رباتیک بازتاب‌دهنده یک تغییر گسترده‌تر در صنعت است؛ جایی که هوش مصنوعی در حال ترک ابر (Cloud) و ورود به ماشین‌هایی است که می‌توانند در دنیای فیزیکی «فکر کردن» را بیاموزند. این تحول به لطف ارزان‌تر شدن حسگرها، پیشرفت شبیه‌سازی و مدل‌های هوش مصنوعی‌ای ممکن شده که هرچه بیشتر قادر به تعمیم‌پذیری در وظایف مختلف هستند.

انویدیا روز دوشنبه جزئیاتی از اکوسیستم فول‌استک خود برای «هوش مصنوعی فیزیکی» منتشر کرد؛ از جمله مدل‌های پایه متن‌باز جدیدی که به ربات‌ها امکان استدلال، برنامه‌ریزی و سازگاری در طیف وسیعی از وظایف و محیط‌های متنوع را می‌دهند و آن‌ها را از ربات‌های محدودِ مخصوص یک وظیفه فراتر می‌برند. همه این مدل‌ها از طریق Hugging Face در دسترس هستند.

این مدل‌ها شامل موارد زیر می‌شوند:
Cosmos Transfer 2.5 و Cosmos Predict 2.5، دو مدل «جهان» برای تولید داده‌های مصنوعی و ارزیابی سیاست‌های ربات در شبیه‌سازی؛
Cosmos Reason 2، یک مدل استدلالیِ بینایی-زبان (VLM) که به سیستم‌های هوش مصنوعی اجازه می‌دهد دنیای فیزیکی را ببینند، درک کنند و در آن عمل کنند؛
و Isaac GR00T N1.6، مدل نسل بعدی بینایی-زبان-کنش (VLA) که به‌طور خاص برای ربات‌های انسان‌نما طراحی شده است. GR00T از Cosmos Reason به‌عنوان مغز خود استفاده می‌کند و کنترل تمام‌بدن را برای ربات‌های انسان‌نما فراهم می‌سازد تا بتوانند هم‌زمان حرکت کرده و اشیا را جابه‌جا کنند.

انویدیا همچنین در CES از Isaac Lab-Arena رونمایی کرد؛ یک فریم‌ورک شبیه‌سازی متن‌باز که روی GitHub میزبانی می‌شود و یکی دیگر از اجزای پلتفرم هوش مصنوعی فیزیکی این شرکت به‌شمار می‌رود و امکان آزمایش ایمنِ مجازیِ قابلیت‌های رباتیک را فراهم می‌کند.

این پلتفرم وعده می‌دهد یکی از چالش‌های حیاتی صنعت را حل کند: با یادگیری وظایف هرچه پیچیده‌تر توسط ربات‌ها — از جابه‌جایی دقیق اشیا تا نصب کابل — اعتبارسنجی این توانایی‌ها در محیط‌های فیزیکی می‌تواند پرهزینه، زمان‌بر و پرریسک باشد. Isaac Lab-Arena با یکپارچه‌سازی منابع، سناریوهای وظیفه، ابزارهای آموزش و بنچمارک‌های شناخته‌شده‌ای مانند Libero، RoboCasa و RoboTwin به این مشکل پاسخ می‌دهد و یک استاندارد یکپارچه ایجاد می‌کند؛ جایی که پیش‌تر صنعت فاقد آن بود.

پشتیبان این اکوسیستم، Nvidia OSMO است؛ یک مرکز فرماندهی متن‌باز که به‌عنوان زیرساخت ارتباطی عمل می‌کند و کل جریان کار — از تولید داده تا آموزش — را در محیط‌های دسکتاپ و ابری یکپارچه می‌سازد.

و برای تأمین توان محاسباتی همه این‌ها، کارت گرافیک جدید Jetson T4000 مبتنی بر معماری Blackwell معرفی شده است؛ جدیدترین عضو خانواده Thor. انویدیا این کارت را به‌عنوان یک ارتقای مقرون‌به‌صرفه برای محاسبات روی دستگاه معرفی می‌کند که ۱۲۰۰ ترافلاپس توان محاسباتی هوش مصنوعی و ۶۴ گیگابایت حافظه را با مصرف انرژی کارآمد ۴۰ تا ۷۰ وات ارائه می‌دهد.

انویدیا همچنین همکاری خود با Hugging Face را عمیق‌تر کرده تا افراد بیشتری بتوانند بدون نیاز به سخت‌افزار گران‌قیمت یا دانش تخصصی، آموزش ربات‌ها را تجربه کنند. این همکاری، فناوری‌های Isaac و GR00T انویدیا را در فریم‌ورک LeRobot هاجینگ‌فیس ادغام می‌کند و ۲ میلیون توسعه‌دهنده رباتیک انویدیا را به ۱۳ میلیون سازنده هوش مصنوعی در Hugging Face متصل می‌سازد. ربات انسان‌نمای متن‌باز Reachy 2 در این پلتفرم توسعه‌دهندگان اکنون مستقیماً با تراشه Jetson Thor انویدیا کار می‌کند و به توسعه‌دهندگان اجازه می‌دهد بدون قفل شدن در سیستم‌های مالکیتی، مدل‌های مختلف هوش مصنوعی را آزمایش کنند.

در تصویر کلی، انویدیا تلاش می‌کند توسعه رباتیک را در دسترس‌تر کند و می‌خواهد تأمین‌کننده زیرساخت سخت‌افزاری و نرم‌افزاریِ زیربنایی آن باشد؛ درست همان‌طور که اندروید گزینه پیش‌فرض سازندگان گوشی‌های هوشمند است.

نشانه‌های اولیه‌ای وجود دارد که استراتژی انویدیا در حال جواب دادن است. رباتیک سریع‌ترین دسته در حال رشد در Hugging Face است و مدل‌های انویدیا در صدر دانلودها قرار دارند. در همین حال، شرکت‌های رباتیک — از Boston Dynamics و Caterpillar گرفته تا Franka Robots و NEURA Robotics — هم‌اکنون از فناوری‌های انویدیا استفاده می‌کنند.