
Deutsch-Chinesische Enzyklopädie, 德汉百科
IT-Times

Bildung und Forschung
Bildung und Forschung
*Wichtige Disziplinen
Wichtige Disziplinen
Wissenschaft und Technik

Unter Data-Mining [ˈdeɪtə ˈmaɪnɪŋ] (von englisch data mining, aus englisch data ‚Daten‘ und englisch mine ‚graben‘, ‚abbauen‘, ‚fördern‘)[1] versteht man die systematische Anwendung statistischer Methoden auf große Datenbestände (insbesondere „Big Data“ bzw. Massendaten) mit dem Ziel, neue Querverbindungen und Trends zu erkennen. Solche Datenbestände werden aufgrund ihrer Größe mittels computergestützter Methoden verarbeitet. In der Praxis wurde der Unterbegriff Data-Mining auf den gesamten Prozess der sogenannten „Knowledge Discovery in Databases“ (englisch für Wissensentdeckung in Datenbanken; KDD) übertragen, der auch Schritte wie die Vorverarbeitung und Auswertung beinhaltet, während Data-Mining im engeren Sinne nur den eigentlichen Verarbeitungsschritt des Prozesses bezeichnet.[2]
Die Bezeichnung Data-Mining (eigentlich etwa „Abbau von Daten“) ist etwas irreführend, denn es geht um die Gewinnung von Wissen aus bereits vorhandenen Daten und nicht um die Generierung von Daten selbst.[3] Die prägnante Bezeichnung hat sich dennoch durchgesetzt. Die reine Erfassung, Speicherung und Verarbeitung von großen Datenmengen wird gelegentlich ebenfalls mit dem Buzzword Data-Mining bezeichnet. Im wissenschaftlichen Kontext bezeichnet es primär die Extraktion von Wissen, das „gültig (im statistischen Sinne), bisher unbekannt und potentiell nützlich“[4] ist „zur Bestimmung bestimmter Regelmäßigkeiten, Gesetzmäßigkeiten und verborgener Zusammenhänge“.[5] Fayyad definiert es als „ein[en] Schritt des KDD-Prozesses, der darin besteht, Datenanalyse- und Entdeckungsalgorithmen anzuwenden, die unter akzeptablen Effizienzbegrenzungen eine spezielle Auflistung von Mustern (oder Modellen) der Daten liefern“.[2]
Das Schließen von Daten auf (hypothetische) Modelle wird als Statistische Inferenz bezeichnet.
数据挖掘(英语:data mining)是一个跨学科的计算机科学分支[1][2][3] 。它是用人工智能、机器学习、统计学和数据库的交叉方法在相对较大型的数据集中发现模式的计算过程[1]。
数据挖掘过程的总体目标是从一个数据集中提取信息,并将其转换成可理解的结构,以进一步使用[1]。除了原始分析步骤,它还涉及到数据库和数据管理方面、数据预处理、模型与推断方面考量、兴趣度度量、复杂度的考虑,以及发现结构、可视化及在线更新等后处理[1]。数据挖掘是“数据库知识发现”(Knowledge-Discovery in Databases, KDD)的分析步骤[4] ,本质上属于机器学习的范畴。
类似词语“资料采矿”、“数据捕鱼”和“数据探测”指用数据挖掘方法来采样(可能)过小以致无法可靠地统计推断出所发现任何模式的有效性的更大总体数据集的部分。不过这些方法可以建立新的假设来检验更大数据总体。




Automobil
***Technologie
Geschichte
N 2000 - 2100 nach Christus
IT-Times
Big Data
IT-Times
Cloud Computing
Wissenschaft und Technik


大卫·帕特森(英语:David Andrew Patterson,1947年11月16日—)是一名美国的计算机科学家,计算机科学界的先驱人物,柏克莱加州大学的计算机科学教授,谷歌公司杰出工程师。现为RISC-V国际开源实验室负责人,实验室位于广东的清华-伯克利深圳学院(TBSI)。
帕特森发明了一系列重要技术,包括精简指令集,RAID与计算机集群。他是计算机协会(ACM)与电机电子工程师学会(IEEE)院士(Fellow),并曾任ACM主席一职。
David Andrew Patterson (* 16. November 1947 in Evergreen Park, Illinois) ist ein US-amerikanischer Informatiker.
Patterson studierte an der University of California, Los Angeles. Seit 1977 war er Professor für Informatik (Computer Architecture) an der University of California, Berkeley. Nach der Emeritierung arbeitete er bei Google an künstlicher Intelligenz.[1]
Patterson studierte an der University of California, Los Angeles, an der er 1969 einen Bachelor-Abschluss in Mathematik erwarb, 1970 seinen Master-Abschluss in Informatik und an der er 1976 in Informatik promoviert wurde. Danach lehrte er in Berkeley. In seiner Lehre legt er Wert auf enge Verflechtung mit der Industrie und kommerzieller Umsetzung seiner Forschung. Seine Monographie der Computer-Architektur mit John L. Hennessy mit quantitativem Zugang war sehr einflussreich und ist ein Standardwerk (Computer Architecture - a quantitative approach). Da sich das Buch vor allem an Computeringenieure wandte, veröffentlichten sie auch ein einführendes Lehrbuch über Computerarchitektur (Computer Organization and Design - the Hardware/Software Interface).
1982/83 leitete er zusammen mit Carlo H. Sequin (in Zusammenarbeit mit dem VLSI-Programm der ARPA) das Berkeley-RISC-Projekt das zu RISC I, dem ersten VLSI Reduced Instruction Set Computer führte[2]. Auf dieser Basis entwickelte Sun Microsystems später den SPARC-Prozessor.
1989 bis 1993 entwickelte Patterson, zusammen mit Randy Katz, das RAID-Konzept (redundant array of independent disks, deutsch: Redundante Anordnung unabhängiger Festplatten).[3]
1994 wurde er Fellow der Association for Computing Machinery (ACM) und war 2004 bis 2006 deren Präsident. Er ist Fellow der IEEE, der National Academy of Sciences, der American Academy of Arts and Sciences und der National Academy of Engineering. Er ist Fellow des Computer History Museum. 2008 erhielt er den Eckert-Mauchly Award. Er erhielt den Turing Award für das Jahr 2017 gemeinsam mit John L. Hennessy für die Entwicklung der RISC-Architektur. 2021 wurde er mit dem BBVA Foundation Frontiers of Knowledge Award ausgezeichnet,[4] für 2022 wurde Patterson der Charles-Stark-Draper-Preis zugesprochen.
Seit 2010 entwickelt er zusammen mit Krste Asanovic die RISC-V-Architektur. Außerdem steht er hinter dem Network of Workstations (NOW) Projekt in Berkeley, das einen verteilten Supercomputer mit vernetzten Workstations aufbaut.[5]
Er ist Freizeitsportler (früher Rugby, Ringen).

Ile-de-France
Unternehmen
Spiele