漢德百科全書 | 汉德百科全书

       
Chinese — German
IT-Times Artificial Intelligence

Nvidia GB200/Grace Blackwell 200
Nvidia hat im Rahmen seiner hauseigenen KI-Entwicklerkonferenz GTC 2024 neben der neuen Dual-Die-GPU Nvidia B200 ("Blackwell") auch den auf dieser Grafiklösung basierenden riesigen Superchip GB200 ("Grace Blackwell") mit Grace-CPU für den hauseigenen NVL72-Supercomputer sowie Kundenlösungen vorgestellt.

1 × Grace-GPU + 2 × Blackwell-GPU = Grace Blackwell

Der offiziell als GB200 Grace Blackwell Superchip vermarktete Hybrid-Lösung basiert auf einer Grace-CPU mit insgesamt 72 ARM Neoverse V2 Prozessorkernen und zwei Blackwell-GPUs sowie bis zu 384 GiByte HBM3e und 480 GiByte LPDDR5X, was in Nvidias hauseigenem NVL72-Supercomputer in äußerst beeindruckenden technischen Spezifikationen resultiert, welche sich wie folgt lesen.

  • 36 Nvidia Grace-CPUs
  • 2.592 ARM Neoverse V2 Prozessorkerne
  • Bis zu 17 Terabyte LPDDR5X-Arbeitsspeicher
  • 72 Blackwell-GPUs mit 13,5 Terabyte HBM3e-Speicher
  • FP4-Rechenleistung: Bis zu 1.440 PetaFLOPS
  • FP8-Rechenleistung: Bis zu 720 PetaFLOPS
  • NVLink: Bis zu 130 TB/s an Bandbreite

Da der Nvidia B200 ("Blackwell") aus insgesamt zwei Dies besteht, stehen jedem GB200-Superchip ("Grace Blackwell") somit vier GPU-Dies zur Verfügung, dem neuen Supercomputer NVL72 somit respektive insgesamt 144 Blackwell-Dies.

 

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
NVIDIA GB200 NVL72
Der GB200 NVL72 verbindet 36 Grace-CPUs und 72 Blackwell-GPUs in einem Rack-Maßstab. Bei dem GB200 NVL72 handelt es sich um eine Rack-Lösung mit Flüssigkeitskühlung und einer NVLink-Domäne mit 72 Grafikprozessoren, die als einzelner riesiger Grafikprozessor funktioniert und 30-mal schnellere Echtzeit-Inferenz für LLMs mit Billionen Parametern bietet.

Der GB200 NVL72 verbindet 36 Grace-CPUs und 72 Blackwell-GPUs in einem Rack-Maßstab. Bei dem GB200 NVL72 handelt es sich um eine Rack-Lösung mit Flüssigkeitskühlung und einer NVLink-Domäne mit 72 Grafikprozessoren, die als einzelner riesiger Grafikprozessor funktioniert und 30-mal schnellere Echtzeit-Inferenz für LLMs mit Billionen Parametern bietet.

Der GB200 Grace Blackwell Superchip ist eine Schlüsselkomponente des NVIDIA GB200 NVL72 und verbindet zwei hochleistungsfähige NVIDIA Blackwell Tensor-Recheneinheiten-Grafikprozessoren und eine NVIDIA Grace-CPU über die NVIDIA® NVLink®-C2C-Verbindung mit den beiden Blackwell-GPUs.

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
NVIDIA GoForce RTX 5090
Der NVIDIA GeForce RTX 5090 ist der leistungsstärkste GeForce-Grafikprozessor aller Zeiten und bietet Gamern und Creators bahnbrechende Funktionen. Bewältige die fortschrittlichsten Modelle und die anspruchsvollsten kreativen Workloads mit beispielloser AI-Leistung. Gaming mit vollem Raytracing und niedrigster Latenz. Die GeForce RTX 5090 basiert auf der NVIDIA Blackwell-Architektur und bietet dir mit 32 GB superschnellem GDDR7-Speicher ausgestattet, grenzenlose Möglichkeiten.

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
NVIDIA DRIVE Thor
NVIDIA DRIVE Thor donnert in die nächste Generation des autonomen Fahrzeug-Computings, indem es die Effizienz und Leistung blitzschnell verbessert DRIVE Thor ist das Nachfolgemodell von NVIDIA DRIVE Orin und umfasst die neueste Rechentechnologie, um die Einführung von Smart-Vehicle-Technologien in der Industrie zu beschleunigen, wobei der Schwerpunkt auf den Modellen der Automobilhersteller für 2025 liegt.

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
TPU
Tensor Processing Unit, TPU/AI Chip

张量处理单元(英文:Tensor Processing Unit,简称:TPU),也称张量处理器,是 Google 开发的专用集成电路(ASIC),专门用于加速机器学习。自 2015 年起,谷歌就已经开始在内部使用 TPU,并于 2018 年将 TPU 提供给第三方使用,既将部分 TPU 作为其云基础架构的一部分,也将部分小型版本的 TPU 用于销售。

Tensor Processing Units (TPUs), auch Tensor-Prozessoren, sind anwendungsspezifische Chips um Anwendungen im Rahmen von maschinellem Lernen zu beschleunigen. TPUs werden vor allem genutzt, um Daten in künstlichen neuronalen Netzen, vgl. Deep Learning, zu verarbeiten.

Die von Google entwickelten TPUs wurden speziell für die Softwaresammlung TensorFlow[1] entworfen. TPUs sind die Basis für alle Google Services, welche maschinelles Lernen einsetzen, und wurden auch in den AlphaGo-Maschine-vs.-Mensch-Wettkämpfen mit einem der weltbesten Go-Spieler, Lee Sedol, zum Einsatz gebracht.[2]

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
Intelligent Manufacturing
智能制造(英语:Smart manufacturing)是指引入电脑整合制造以及数字信息技术的制造业。智能工厂就是典型的智能制造。智能制造中有可互操作的系统、智能自动化机器人、强大的网络安全以及联网的传感器。

智能制造(英语:Smart manufacturing)[1]是指引入电脑整合制造以及数字信息技术的制造业智能工厂就是典型的智能制造。智能制造中有可互操作的系统、智能自动化机器人、强大的网络安全以及联网的传感器。

Smart manufacturing[1] is a broad category of manufacturing that employs computer-integrated manufacturing, high levels of adaptability and rapid design changes, digital information technology, and more flexible technical workforce training.[2] Other goals sometimes include fast changes in production levels based on demand,[3][1] optimization of the supply chain,[3] efficient production and recyclability.[4] In this concept, as smart factory has interoperable systems, multi-scale dynamic modelling and simulation, intelligent automation, strong cyber security, and networked sensors.

The broad definition of smart manufacturing covers many different technologies. Some of the key technologies in the smart manufacturing movement include big data processing capabilities, industrial connectivity devices and services, and advanced robotics.[

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
Knowledge Distillation/Model Distillation
Beim maschinellen Lernen ist die Wissensdestillation oder Modelldestillation der Prozess der Übertragung von Wissen von einem großen Modell auf ein kleineres Modell.

知识蒸馏(knowledge distillation)是人工智能领域的一项模型训练技术。该技术透过类似于教师—学生的方式,令规模较小、结构较为简单的人工智能模型从已经经过充足训练的大型、复杂模型身上学习其掌握的知识。该技术可以让小型简单模型快速有效学习到大型复杂模型透过漫长训练才能得到的结果,从而改善模型的效率、减少运算开销,因此亦被称为模型蒸馏(model distillation)。

In machine learning, knowledge distillation or model distillation is the process of transferring knowledge from a large model to a smaller one. While large models (such as very deep neural networks or ensembles of many models) have more knowledge capacity than small models, this capacity might not be fully utilized. It can be just as computationally expensive to evaluate a model even if it utilizes little of its knowledge capacity. Knowledge distillation transfers knowledge from a large model to a smaller one without loss of validity. As smaller models are less expensive to evaluate, they can be deployed on less powerful hardware (such as a mobile device).

Model distillation is not to be confused with model compression, which describes methods to decrease the size of a large model itself, without training a new model. Model compression generally preserves the architecture and the nominal parameter count of the model, while decreasing the bits-per-parameter.

Knowledge distillation has been successfully used in several applications of machine learning such as object detection, acoustic models,  and natural language processing. Recently, it has also been introduced to graph neural networks applicable to non-grid data.

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
National Network for Manufacturing Innovation,NNMI/Manufacturing USA
 
 
 
http://www.net4info.de/photos/cpg/albums/userpics/10001/manufacturingusa_logo.png
 
Institute
  Technology Location
National Additive Manufacturing Innovation Institute (NAMII) 3D printing Youngstown, Ohio
Digital Manufacturing and Design Innovation Institute (DMDII) Digital manufacturing Chicago, Illinois
Lightweight Materials Manufacturing Innovation Institute (ALMMII) Lightweight materials Detroit, Michigan
Next Generation Power Electronics Institute (PowerAmerica) Wide-bandgap semiconductors Raleigh, North Carolina
Institute for Advanced Composites Manufacturing Innovation (IACMI) Composite materials Knoxville, Tennessee
American Institute for Manufacturing Integrated Photonics (AIM Photonics) Photonic integrated circuits Rochester, New York
Flexible Hybrid Electronics Manufacturing Innovation Institute Flexible electronics San Jose, California
Advanced Functional Fabrics of America (AFFOA) Textiles Cambridge, Massachusetts
Smart Manufacturing Innovation Institute Smart manufacturing Los Angeles, California
 
 
 
 
This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.
Transformer
Ein Transformer ist eine von Google entwickelte Deep-Learning-Architektur, die einen sog. Aufmerksamkeitsmechanismus integriert, der erstmals in einem Artikel aus dem Jahr 2017 „Attention Is All You Need“ vorgestellt wurde. Dabei wird Text wird in numerische Darstellungen umgewandelt, die als Token bezeichnet werden, anschließend durch Worteinbettung in Vektoren umgewandelt.

Transformer模型(直译为“变换器”)是一种采用注意力机制深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。该模型主要用于自然语言处理(NLP)与计算机视觉(CV)领域。[1]

循环神经网络(RNN)一样,Transformer模型旨在处理自然语言等顺序输入数据,可应用于翻译、文本摘要等任务。而与RNN不同的是,Transformer模型能够一次性处理所有输入数据。注意力机制可以为输入序列中的任意位置提供上下文。如果输入数据是自然语言,则Transformer不必像RNN一样一次只处理一个单词,这种架构允许更多的并行计算,并以此减少训练时间。

This image, video or audio may be copyrighted. It is used for educational purposes only. If you find it, please notify us byand we will remove it immediately.