Amnex- تجهیزات میکروتیک - تجهیزات شبکه - روتر - رادیو وایرلس
  • صفحه نخست
  • فروشگاه
    • فروشگاه

      فروشگاه تخصصی تجهیزات هوش مصنوعی

      فروشگاه ما، مرجع تخصصی تأمین پیشرفته‌ترین تجهیزات هوش مصنوعانی است؛ از بردهای پردازشی و شتاب‌دهنده‌های GPU گرفته تا سنسورها و ماژول‌های یادگیری ماشین. با تمرکز بر کیفیت و اصالت کالا، مجموعه‌ای از برندهای مطرح جهانی را گرد هم آورده‌ایم تا پروژه‌های تحقیقاتی و صنعتی شما را در همه‌سایزها و سطوح پشتیبانی کنیم. تجربهٔ کاربری ساده و پشتیبانی فنی حرفه‌ای، شما را از جست‌وجوی بی‌پایان بی‌نیاز می‌کند و تضمین می‌کنیم در سریع‌ترین زمان ممکن، تجهیزات مورد نیازتان را در اختیار داشته باشید. به جمع مشتریان پیشرو بپیوندید و آینده هوشمند را امروز رقم بزنید!

      همین حالا ببینید!
    • محصولات

      Supermicro

      سرورهای قدرتمند HP مناسب برای پردازش‌های سنگین، و اجرای پروژه‌های هوش مصنوعی در سطح سازمانی.

      مشاهده محصول

      Nvidia GPU

      کارت‌های گرافیک حرفه‌ای انویدیا برای یادگیری عمیق، پردازش تصویر و شتاب‌دهی به مدل‌های هوش مصنوعی در مقیاس بالا.

      مشاهده محصول

      HP Server

      مادربردها و سیستم‌های سروری سوپرمایکرو با قابلیت ارتقا، عملکرد پایدار و مناسب برای دیتاسنترهای هوشمند.

      مشاهده محصول
  • مقالات
  • درباره ما
  • تماس با ما
جستجو
0 علاقه مندی
0 محصول 0 تومان
منو
Amnex- تجهیزات میکروتیک - تجهیزات شبکه - روتر - رادیو وایرلس
0 محصول 0 تومان
NVIDIA DGX A100 Server
NVIDIA DGX A100 Server
NVIDIA DGX A100 Server
بزرگنمایی تصویر
NVIDIA DGX A100 Server
NVIDIA DGX A100 Server
NVIDIA DGX A100 Server
خانه Nvidia GPU NVIDIA DGX A100 Server
NVIDIA DGX H100 Server
NVIDIA DGX H100 Server
بازگشت به محصولات
Huawei Atlas 800 Training Server
Huawei Atlas 800 Training Server

NVIDIA DGX A100 Server

NVIDIA DGX A100 یک راهکار کامل برای هوش مصنوعی، یادگیری عمیق، تحلیل داده و محاسبات علمی است. این سرور، نسل جدید از خانواده DGX است که از ۸ عدد NVIDIA A100 Tensor Core GPU استفاده می‌کند و به عنوان یک سوپرکامپیوتر در یک جعبه شناخته می‌شود.

با قدرت پردازشی بی‌نظیر و پشتیبانی از فناوری‌هایی مانند MIG، NVLink، NVSwitch و نرم‌افزار مدیریت NVIDIA Base Command، DGX A100 مناسب‌ترین انتخاب برای سازمان‌هایی است که به دنبال اجرای مدل‌های LLM مانند GPT-4، LLaMA، و همچنین تحلیل‌های پیچیده در صنایع پزشکی، مالی و تحقیقاتی هستند.

مقایسه
افزودن به علاقه مندی
Category: Nvidia GPU Tags: DGX A100 قیمت, DGX Server, NVIDIA Base Command, NVIDIA DGX A100, آموزش GPT, ایستگاه کاری هوش مصنوعی, خرید سرور DGX, سرور Deep Learning, سرور NVIDIA A100, سرور پردازش تصویری, سرور دیتاسنتر AI, سرور هوش مصنوعی, شتاب‌دهنده GPU, مدل LLM
اشتراک گذاری:
  • توضیحات
  • نظرات (0)
توضیحات

NVIDIA DGX A100 Server یکی از پیشرفته‌ترین و قدرتمندترین سرورهای جهان در حوزه هوش مصنوعی است. این سرور مخصوص پروژه‌های پیچیده یادگیری عمیق طراحی شده و با بهره‌گیری از 8 عدد GPU A100، توانایی انجام همزمان وظایف آموزش (Training) و استنتاج (Inference) را با بالاترین سرعت و دقت دارد.

با پردازنده‌های AMD EPYC، رم 1 ترابایتی و حافظه NVMe پرسرعت، DGX A100 به‌عنوان قلب مراکز داده هوش مصنوعی در دنیا شناخته می‌شود.

این سرور مناسب برای سازمان‌هایی است که در حوزه‌هایی مانند تولید مدل‌های LLM، تحلیل داده‌های عظیم، یادگیری تقویتی، پردازش ویدیوهای سنگین، و تحقیقات علمی فعالیت دارند.

مزایای کلیدی NVIDIA DGX A100:

  • قابلیت اجرای چندین مدل به‌صورت موازی

  • مجهز به معماری جدید A100 Ampere با عملکرد بهینه برای AI

  • سازگاری کامل با پلتفرم NGC و نرم‌افزارهای حرفه‌ای NVIDIA

  • طراحی Rackmount با خنک‌سازی قدرتمند و قابل استفاده در مراکز داده حرفه‌ای

  • ایده‌آل برای پروژه‌های Generative AI و مدل‌های زبان بزرگ مانند GPT، LLaMA و PaLM

📋 جدول مشخصات فنی:

ویژگی مشخصات
برند NVIDIA
مدل DGX A100
پردازنده گرافیکی (GPU) 8 عدد NVIDIA A100 Tensor Core GPU
حافظه GPU مجموعاً 320 گیگابایت HBM2 (40 گیگابایت به ازای هر GPU) یا در برخی نسخه‌ها 640 گیگابایت (80GB × 8)
توان پردازشی (FP16) بیش از 5 پتا فلاپس (5 PFLOPS)
پردازنده اصلی (CPU) 2 عدد AMD EPYC 7742 – مجموع 128 هسته
رم سیستم (CPU Memory) 1 ترابایت DDR4 (قابل ارتقاء تا 2 ترابایت)
حافظه ذخیره‌سازی داخلی 4 × 3.84TB NVMe SSD (مجموع 15.36 ترابایت)
شبکه ارتباطی 8 × Mellanox ConnectX-6 200Gb/s NIC (مجموع پهنای باند 1.6 ترابیت)
خنک‌کننده سیستم خنک‌کننده هوایی پیشرفته
ابعاد و وزن 6U Rackmount، وزن حدود 134 کیلوگرم
کاربردها آموزش مدل‌های زبان بزرگ (LLM)، بینایی ماشین، استنتاج در مقیاس وسیع، پردازش زبان طبیعی (NLP)، شبیه‌سازی علمی
سیستم‌عامل پشتیبانی Ubuntu با نرم‌افزارهای DGX OS و NVIDIA GPU Cloud (NGC)

🚀 عملکرد در سطح ابرکامپیوتر

DGX A100 با استفاده از ۸ کارت A100 به صورت یکپارچه با NVLink و NVSwitch، به عنوان یک سیستم هماهنگ عمل می‌کند که سرعت اجرای مدل‌های LLM، بینایی ماشین، و تحلیل داده‌های عظیم را به طرز چشمگیری افزایش می‌دهد. این سیستم می‌تواند:

  • آموزش مدل GPT-3 یا GPT-4 را در چند روز انجام دهد

  • مدل‌های بینایی ماشین مانند ResNet، YOLOv8 یا EfficientNet را با سرعتی چندبرابر آموزش دهد

  • هزاران درخواست استنتاج را به‌صورت همزمان پاسخ دهد

NVIDIA DGX A100 Server

 


🔁 مقایسه با سایر سیستم‌های GPU

ویژگی DGX A100 DGX Station HGX A100
تعداد GPU ۸× A100 ۴× A100 تا ۸ GPU A100
فضای مورد نیاز Rackmount Workstation Rackmount سفارشی
مصرف برق ۶.۵ کیلووات ۱.۵ کیلووات متغیر
مناسب برای مراکز داده، LLM تحقیقاتی، دانشگاهی دیتاسنترهای ابری

🧩 معماری پیشرفته با NVSwitch و MIG

DGX A100 به لطف فناوری NVSwitch می‌تواند ۸ GPU را به‌گونه‌ای به هم متصل کند که هیچ گلوگاهی در انتقال داده بین آن‌ها وجود نداشته باشد. همچنین، فناوری MIG (Multi-Instance GPU) اجازه می‌دهد هر GPU به ۷ بخش منطقی تقسیم شده و چندین workload روی یک GPU اجرا شود. این ویژگی مناسب برای استفاده بهینه از منابع در محیط‌های multi-user یا multi-task است.


🌐 کاربردهای کلیدی DGX A100

  1. آموزش مدل‌های LLM (مثل GPT-4, LLaMA): با توان محاسباتی بالا

  2. بینایی ماشین (Computer Vision): تحلیل تصویر، ویدیو و تشخیص آنی

  3. تحلیل داده‌های پزشکی: تصویربرداری، تشخیص سرطان، ژنومیکس

  4. مالی و بورس: پیش‌بینی بازار، تحلیل ریسک، کشف تقلب

  5. مدل‌سازی علمی: آب و هوا، نجوم، دینامیک سیالات

  6. شبکه عصبی پیچیده: GANs, Diffusion Models, Stable Diffusion

NVIDIA DGX A100 Server


📦 اجزای نرم‌افزاری و پلتفرم مدیریت

NVIDIA DGX A100 با نرم‌افزارها و ابزارهای زیر ارائه می‌شود:

  • NVIDIA Base Command Platform: داشبورد مدیریت، مانیتورینگ و آموزش مدل‌ها

  • NGC (NVIDIA GPU Cloud): دسترسی به کانتینرهای آماده برای PyTorch, TensorFlow, RAPIDS و غیره

  • APIs و SDK های AI و HPC: برای توسعه سریع برنامه‌ها

  • پشتیبانی کامل از Docker و Kubernetes برای containerization


💡 مزایای کلیدی NVIDIA DGX A100

✅ بهترین گزینه برای آموزش و استنتاج LLM
✅ اتصال کامل GPUها با NVLink و NVSwitch
✅ امکان تقسیم GPU به چند بخش با MIG
✅ حافظه عظیم برای مدل‌های بزرگ و داده‌های پیچیده
✅ مدیریت آسان و سازمان‌یافته با Base Command
✅ بهینه برای استقرار در مراکز داده ابری یا خصوصی


🎯 چرا DGX A100 را انتخاب کنیم؟

اگر به دنبال یک سیستم همه‌کاره و آینده‌نگرانه هستید که:

  • به راحتی بتواند حجم عظیمی از داده‌ها را پردازش کند

  • مدل‌های حجیم و پیچیده را آموزش دهد

  • محیطی ایمن و قابل مدیریت برای تیم‌های مختلف فراهم آورد

  • از نظر اقتصادی و عملکردی در مقایسه با راه‌حل‌های پراکنده مقرون‌به‌صرفه باشد

DGX A100 یک انتخاب قطعی است.

NVIDIA DGX A100؛ قلب تپنده پروژه‌های هوش مصنوعی

سرور NVIDIA DGX A100 به‌عنوان یکی از پیشرفته‌ترین سرورهای جهان در حوزه AI، طراحی شده تا نیازهای سخت‌افزاری پروژه‌های سنگین یادگیری عمیق (Deep Learning)، مدل‌های زبانی بزرگ (LLM) و پردازش‌های محاسباتی پیچیده را به‌طور کامل پاسخ دهد.

این سرور، نسل جدیدی از قدرت پردازشی را با ترکیب GPUهای قدرتمند A100 و پردازنده‌های AMD EPYC ارائه می‌دهد که در کنار معماری فوق پیشرفته و حافظه‌ی بالا، آن را به گزینه‌ای بی‌رقیب در دنیای AI تبدیل کرده است.


مشخصات فنی NVIDIA DGX A100 (با توضیح کامل)

ویژگی مشخصات توضیحات بیشتر
برند NVIDIA رهبر جهانی در فناوری‌های گرافیکی و AI
مدل DGX A100 سری ویژه دیتاسنترهای هوش مصنوعی
GPU 8 × NVIDIA A100 با معماری Ampere، مناسب برای LLM و بینایی ماشین
حافظه GPU 320GB HBM2 یا 640GB سرعت انتقال بالا برای مدل‌های عظیم
توان پردازشی FP16 بیش از 5 PFLOPS برای آموزش همزمان چند مدل
CPU 2 × AMD EPYC 7742 مجموع 128 هسته فیزیکی، عملکرد بالا در پردازش داده
رم سیستم 1 ترابایت (قابل ارتقاء تا 2 ترابایت) مناسب برای مدل‌های سنگین LLM
ذخیره‌سازی 15.36 ترابایت NVMe SSD سرعت فوق‌العاده در بارگذاری و ذخیره‌سازی داده
شبکه 8 × NIC 200Gb/s ارتباط سریع بین نودها و GPUها
سیستم خنک‌کننده خنک‌کننده هوایی پیشرفته حفظ عملکرد حتی در بارهای کاری سنگین
ابعاد 6U Rackmount مناسب برای مراکز داده حرفه‌ای
وزن 134 کیلوگرم طراحی صنعتی با تحمل بالا
سیستم‌عامل Ubuntu + DGX OS سازگار با ابزارهای AI و محیط‌های ابری

قدرت در سطح ابرکامپیوتر؛ عملکرد DGX A100 چگونه است؟

DGX A100 با بهره‌گیری از فناوری NVLink و NVSwitch، امکان اتصال سریع و مستقیم بین کارت‌های A100 را فراهم کرده است. به لطف این تکنولوژی، تمام GPUها به عنوان یک واحد پردازشی واحد عمل می‌کنند. این یعنی:

  • پردازش داده‌های عظیم بدون گلوگاه

  • امکان آموزش GPT-3 یا GPT-4 تنها در چند روز

  • اجرای همزمان هزاران درخواست inference

  • پشتیبانی از مدل‌هایی مانند YOLOv8، ResNet، ViT، LLaMA، Stable Diffusion، BERT


مقایسه کامل با سیستم‌های مشابه

ویژگی DGX A100 DGX Station HGX A100
تعداد GPU ۸ عدد A100 ۴ عدد A100 تا ۸ عدد A100
شکل طراحی Rackmount Workstation Rackmount سفارشی
مصرف انرژی ۶.۵ کیلووات ۱.۵ کیلووات متغیر بر اساس پیکربندی
مناسب برای مراکز داده بزرگ، آموزش LLM پروژه‌های دانشگاهی دیتاسنترهای سفارشی و ابری

اگرچه DGX Station برای محیط‌های کوچک مناسب است، اما DGX A100 به‌طور خاص برای محیط‌های مقیاس‌پذیر، چندکاربره و حساس به زمان طراحی شده است.


معماری نوآورانه با NVSwitch و MIG

یکی از ویژگی‌های منحصربه‌فرد DGX A100، وجود فناوری NVSwitch است که امکان اتصال بدون محدودیت بین GPUها را فراهم می‌کند. این فناوری باعث می‌شود پهنای باند بین GPUها تا چندین برابر بیشتر از PCIe معمولی باشد.

همچنین، فناوری MIG (Multi-Instance GPU) اجازه می‌دهد یک کارت گرافیک A100 به ۷ بخش مجازی تقسیم شده و چندین وظیفه مختلف را به‌صورت مستقل و همزمان اجرا کند. این یعنی منابع شما همیشه در حال استفاده بهینه هستند.


کاربردهای تخصصی و واقعی DGX A100

  1. آموزش LLM‌ها مانند GPT، LLaMA، BERT و PaLM: به دلیل قدرت بالا، می‌توان این مدل‌ها را با سرعت و دقت آموزش داد.

  2. بینایی ماشین (Computer Vision): مناسب برای تشخیص تصویر، تحلیل ویدیویی، و کاربردهای پزشکی تصویری.

  3. تحلیل داده‌های پزشکی و ژنومیک: استفاده در بیمارستان‌ها و مراکز تحقیقاتی برای تشخیص بیماری، پیش‌بینی ژنتیکی و درمان هدفمند.

  4. کاربردهای مالی و بانکداری: کشف تقلب، تحلیل بازار، پیش‌بینی روندهای اقتصادی با مدل‌های مبتنی بر AI.

  5. تحقیقات علمی پیشرفته: از دینامیک سیالات تا شبیه‌سازی آب و هوا یا تحلیل داده‌های تلسکوپی در نجوم.

  6. توسعه شبکه‌های عصبی پیچیده: مانند GANها، Diffusion Models، Stable Diffusion برای تولید تصویر، صوت و متن مصنوعی.


ابزارهای نرم‌افزاری و پلتفرم‌های همراه

NVIDIA DGX A100 همراه با مجموعه‌ای از ابزارهای حرفه‌ای ارائه می‌شود که بهره‌برداری کامل از آن را آسان می‌کند:

  • NVIDIA Base Command Platform: مدیریت آسان وظایف، مانیتورینگ منابع و هماهنگی تیمی

  • NGC Containers: دسترسی به نسخه‌های بهینه‌شده PyTorch، TensorFlow، RAPIDS و…

  • Docker + Kubernetes: برای اجرای انعطاف‌پذیر در محیط‌های کانتینری

  • SDKها و APIهای پیشرفته: مناسب برای HPC و توسعه پروژه‌های سفارشی AI


جمع‌بندی نهایی؛ چرا DGX A100 را انتخاب کنیم؟

اگر به دنبال سروری هستید که بتواند تمام نیازهای شما را در زمینه هوش مصنوعی، داده‌های عظیم و یادگیری ماشین پوشش دهد، DGX A100 بهترین انتخاب است. دلایل آن عبارتند از:

✅ پشتیبانی از بزرگ‌ترین مدل‌های LLM
✅ مدیریت و استفاده بهینه از GPUها با فناوری MIG
✅ کارایی در سطح ابرکامپیوتر
✅ قابلیت اجرا در مراکز داده، محیط‌های آکادمیک و سازمانی
✅ عملکرد اقتصادی در برابر راه‌حل‌های پراکنده

نظرات (0)

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “NVIDIA DGX A100 Server”

برای فرستادن دیدگاه، باید وارد شده باشید.

محصولات مرتبط

NVIDIA L40S GPU Accelerator
NVIDIA L40S GPU Accelerator
مقایسه

NVIDIA L40S GPU Accelerator

Nvidia GPU

کارت NVIDIA L40S یک شتاب‌دهنده گرافیکی نسل جدید است که بر پایه‌ی معماری قدرتمند Ada Lovelace طراحی شده و برای بارهای کاری متنوعی از جمله هوش مصنوعی، رندرینگ سه‌بعدی، بینایی ماشین، inference و پردازش ویدئویی در مقیاس وسیع بهینه‌سازی شده است.

برخلاف کارت‌های تخصصی دیتاسنتر مانند H100 که صرفاً برای AI ساخته شده‌اند، L40S ترکیبی از قدرت گرافیکی و پردازش هوش مصنوعی را ارائه می‌دهد و مناسب‌ترین گزینه برای ورک‌استیشن‌های حرفه‌ای و سرورهایی است که نیاز به تطبیق‌پذیری بالا دارند.

افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
رادیو وایرلس میکروتیک Wireless Wire nRAY
رادیو وایرلس میکروتیک Wireless Wire nRAY
مقایسه

رادیو وایرلس میکروتیک Wireless Wire nRAY

Nvidia GPU
کد محصول: nRAYG-60adpair معماری: ARM 64 بیتی پردازنده: 88F3720 تعداد هسته‌های پردازنده: 2 فرکانس اسمی پردازنده: 1 گیگاهرتز ابعاد: 261 x 166 میلی‌متر مجوز RouterOS: 3 سیستم‌عامل: RouterOS حافظه RAM: 256 مگابایت حجم ذخیره‌سازی: 16 مگابایت نوع ذخیره‌سازی: FLASH میانگین زمان کارکرد بدون خرابی (MTBF): تقریباً 200,000 ساعت در دمای 25 درجه سانتی‌گراد دمای محیط تست شده: 30-°C تا 70°C
افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
مقایسه

کارت گرافیک NVIDIA RTX A6000 48GB GDDR6 ECC

Nvidia GPU, کارت گرافیک
کارت گرافیک NVIDIA RTX A6000 به عنوان پرچم‌دار کارت‌های ورک‌استیشنی نسل Ampere، یکی از قدرتمندترین و پیشرفته‌ترین GPUهای دنیا محسوب
افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
GPU A+ Server AS -2114GT-DNR
GPU A+ Server AS -2114GT-DNR
مقایسه

GPU A+ Server AS -2114GT-DNR

Nvidia GPU

دو سیستم Hot-Pluggable (نود) در یک فرم فاکتور 2U. هر نود از ویژگی‌های زیر پشتیبانی می‌کند:

  • یک پردازنده از سری AMD EPYC™ 7003/7002
    • (پردازنده AMD EPYC™ 7003 با فناوری AMD 3D V-Cache™ نیاز به نسخه BIOS 2.3 یا جدیدتر دارد.)
  • حافظه رم: حداکثر 2 ترابایت Registered ECC DDR4 3200MHz SDRAM در 8 اسلات DIMM
  • اسلات‌های توسعه:
    • حداکثر 6 اسلات PCIe 4.0 x16 (شامل 4 اسلات داخلی + 2 اسلات خارجی)
    • یک اسلات PCIe 4.0 x8 AIOM
  • درگاه‌های M.2:
    • 2 عدد PCIe 4.0 x4
    • فرم فاکتور M.2: پشتیبانی از 2280 و 22110
    • نوع کلید (Key): M-Key
  • محفظه ذخیره‌سازی:
    • 2 محفظه درایو 2.5 اینچی Hot-Swap PCIe 4.0 NVMe در پنل جلو
افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
NVIDIA A100 Tensor Core GPU
NVIDIA A100 Tensor Core GPU
مقایسه

NVIDIA A100 Tensor Core GPU

Nvidia GPU
NVIDIA A100 Tensor Core GPU یک شتاب‌دهنده‌ی قدرتمند سطح سازمانی است که با معماری Ampere ساخته شده و توانایی بی‌نظیری در اجرای مدل‌های بزرگ هوش مصنوعی، تحلیل داده‌های عظیم، و محاسبات علمی پیشرفته (HPC) دارد. این پردازنده گرافیکی در دو نسخه PCIe و SXM عرضه می‌شود و در محیط‌هایی مانند مراکز داده، سرورهای آموزش LLM، شبیه‌سازی علمی و مالی مورد استفاده قرار می‌گیرد.
افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
SuperServer SYS-221GE-TNHT-LCC
SuperServer SYS-221GE-TNHT-LCC
مقایسه

GPU SuperServer SYS-221GE-TNHT-LCC

Nvidia GPU
  • بالاترین میزان ارتباط پردازنده‌های گرافیکی با استفاده از NVIDIA® NVLINK™
  • سیستم متراکم 2U با NVIDIA® HGX™ H100 و 4 پردازنده گرافیکی
  • پشتیبانی از پردازنده‌های مقیاس‌پذیر Intel® Xeon® نسل پنجم و چهارم
  • دارای 32 اسلات DIMM، پشتیبانی از حداکثر 8 ترابایت حافظه 3DS ECC RDIMM، DDR5-5600MT/s
  • پشتیبانی از حداکثر 256 گیگابایت حافظه با سرعت 5600 MT/s در پیکربندی 1DPC یا 4400 MT/s در پیکربندی 2DPC
  • 4 اسلات PCIe نسل 5.0 X16 LP
  • گزینه‌های انعطاف‌پذیر برای شبکه
  • 2 اسلات M.2 NVMe فقط برای درایو بوت
  • 4 جایگاه هات‌سواپ 2.5 اینچی NVMe/SATA3
  • راهکار خنک‌کنندگی مایع مستقیم به تراشه (Direct-To-Chip Liquid Cooling)
  • 4 عدد فن صنعتی سنگین با کنترل بهینه سرعت
  • دو منبع تغذیه افزونه‌ای 5250 وات (1+1)
افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
GPU SuperServer SYS-210GP-DNR
مقایسه

GPU SuperServer SYS-210GP-DNR

Nvidia GPU

دو سیستم قابل تعویض در حال کار (نود) در فرم فاکتور 2U که هر نود دارای مشخصات زیر است:

  • یک پردازنده از نسل سوم Intel® Xeon® Scalable با سوکت P+ (LGA-4189)
  • چیپست Intel® C621A
  • حافظه رم: تا 1 ترابایت حافظه Registered ECC DDR4 3200MHz SDRAM در 8 اسلات DIMM
  • 3 اسلات PCIe نسل 4.0 x16 FHFL DW
  • 2 درایو NVMe U.2 نسل 4 با قابلیت هات‌سواپ در قسمت جلویی
  • 2 درگاه M.2 NVMe و SATA فقط برای درایو بوت
  • کنترلر مدیریت BMC مدل AST2500
افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
مقایسه

کارت شبکه Intel X550-T2 10GbE Dual Port

Nvidia GPU
Intel X550-T2 یک کارت شبکه پیشرفته و حرفه‌ای با دو پورت 10 گیگابیتی اترنت (10GBASE-T) است که با استفاده از
افزودن به علاقه مندی
اطلاعات بیشتر
مشاهده سریع
Amnex- تجهیزات میکروتیک - تجهیزات شبکه - روتر - رادیو وایرلس
  • تماس با ما
  • درباره ما
  • فروشگاه
  • مقالات
  • صفحه نخست
  • مقالات
  • تماس با ما
  • درباره ما
  • فروشگاه
  • علاقه مندی
  • مقایسه
  • ورود / ثبت نام
سبد خرید
بستن
برای دیدن محصولات که دنبال آن هستید تایپ کنید.