Deutsch-Chinesische Enzyklopädie, 德汉百科

       
Deutsch — Chinesisch
Catalog IT-Times

东芝SD-3000 DVD
 
http://www.net4info.de/photos/cpg/albums/userpics/10002/Toshiba_SD-3000_DVD.jpg
 
 
Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
东芝TOSBAC 3400
http://www.net4info.de/photos/cpg/albums/userpics/10002/TOSBAC_3400.jpg
Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
道达尔公司

http://www.net4info.de/photos/cpg/albums/userpics/10002/Total.jpg

Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
豐田研究院 丰田研究院
Das Toyota Research Institute ist eine Tochtergesellschaft der Toyota Motor Corporation für Forschung und wissenschaftliche Entwicklung. Es konzentriert sich auf die Entwicklung von Technologien in den Bereichen künstliche Intelligenz (KI), Fahrzeugautomatisierung, Materialwissenschaft und Robotik.

Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
張量處理單元 张量处理单元
Tensor Processing Unit, TPU/AI Chip

张量处理单元(英文:Tensor Processing Unit,简称:TPU),也称张量处理器,是 Google 开发的专用集成电路(ASIC),专门用于加速机器学习。自 2015 年起,谷歌就已经开始在内部使用 TPU,并于 2018 年将 TPU 提供给第三方使用,既将部分 TPU 作为其云基础架构的一部分,也将部分小型版本的 TPU 用于销售。

Tensor Processing Units (TPUs), auch Tensor-Prozessoren, sind anwendungsspezifische Chips um Anwendungen im Rahmen von maschinellem Lernen zu beschleunigen. TPUs werden vor allem genutzt, um Daten in künstlichen neuronalen Netzen, vgl. Deep Learning, zu verarbeiten.

Die von Google entwickelten TPUs wurden speziell für die Softwaresammlung TensorFlow[1] entworfen. TPUs sind die Basis für alle Google Services, welche maschinelles Lernen einsetzen, und wurden auch in den AlphaGo-Maschine-vs.-Mensch-Wettkämpfen mit einem der weltbesten Go-Spieler, Lee Sedol, zum Einsatz gebracht.[2]

Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
泛太平洋海底光纜 泛太平洋海底光缆
带宽:5.12Tbps 长度:17700km 经过地区:中国大陆,中国台湾,韩国,美国 The landing points of the cable are located in: Chongming, Shanghai Municipality, China Qingdao, Shandong Province, China Maruyama, Chiba, Japan Geoje, South Gyeongsang Province, South Korea Tamsui, New Taipei City, Taiwan (ROC) Nedonna Beach, Oregon, United States

Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
创见资讯股份有限公司
 
 
 
https://www.net4info.de/photos/cpg/albums/userpics/10001/Chuang20Jian20Zi20Xun20Gu20Fen20You20Xian20Gong20Si20.jpg
 
 
Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
轉換器 转换器
Ein Transformer ist eine von Google entwickelte Deep-Learning-Architektur, die einen sog. Aufmerksamkeitsmechanismus integriert, der erstmals in einem Artikel aus dem Jahr 2017 „Attention Is All You Need“ vorgestellt wurde. Dabei wird Text wird in numerische Darstellungen umgewandelt, die als Token bezeichnet werden, anschließend durch Worteinbettung in Vektoren umgewandelt.

Transformer模型(直译为“变换器”)是一种采用注意力机制深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。该模型主要用于自然语言处理(NLP)与计算机视觉(CV)领域。[1]

循环神经网络(RNN)一样,Transformer模型旨在处理自然语言等顺序输入数据,可应用于翻译、文本摘要等任务。而与RNN不同的是,Transformer模型能够一次性处理所有输入数据。注意力机制可以为输入序列中的任意位置提供上下文。如果输入数据是自然语言,则Transformer不必像RNN一样一次只处理一个单词,这种架构允许更多的并行计算,并以此减少训练时间。

Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
趋势科技股份有限公司
https://www.net4info.de/photos/cpg/albums/userpics/10001/Qu20Shi20Ke20Ji20.png
Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
天宝导航
Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.
三一超级计算机
Intel Xeon Phi 7250 68C 1.4GHz, Aries interconnect
/assets/contentimages/Trinity_-_Cray_XC40.jpg
Site: DOE/NNSA/LANL/SNL
Manufacturer: Cray Inc.
Cores: 979,968
Memory:
Processor: Intel Xeon Phi 7250 68C 1.4GHz
Interconnect: Aries interconnect
Performance
Linpack Performance (Rmax) 14,137.3 TFlop/s
Theoretical Peak (Rpeak) 43,902.6 TFlop/s
Nmax 7,176,192
HPCG [TFlop/s] 546.124
Power Consumption
Power: 3,843.58 kW (Submitted)
Software
Operating System: Cray Linux Environment
 
Dieses Bild, Video oder Audio ist eventuell urheberrechtlich geschützt. Es wird nur für Bildungszwecke genutzt. Wenn Sie es finden, benachrichtigen Sie uns bitte per und wir werden es sofort entfernen.