Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Bfloat16 – Wikipedia
Bfloat16 – Wikipedia
aus Wikipedia, der freien Enzyklopädie
Aufbau des bfloat16-Gleitkommaformats

bfloat16 (brain floating point with 16 bits) ist die Bezeichnung für ein Gleitkommaformat in Computersystemen. Es handelt sich um ein binäres Datenformat mit einem Bit für das Vorzeichen, 8 Bits für den Exponenten und 7 Bits für die Mantisse. Es handelt sich also um eine in der Mantisse gekürzte Version des halbgenauen IEEE 754 Datentyps.

bfloat16 wird insbesondere in Systemen für maschinelles Lernen eingesetzt, wie beispielsweise TPUs[1][2][3], sowie bestimmten Intel-Xeon-Prozessoren und Intel FPGAs.[4][5][6]

Quellen

[Bearbeiten | Quelltext bearbeiten]
  1. ↑ Available TensorFlow Ops | Cloud TPU | Google Cloud. In: Google Cloud. Abgerufen am 23. Mai 2018 (englisch): „This page lists the TensorFlow Python APIs and graph operators available on Cloud TPU.“ 
  2. ↑ Elmar Haußmann: Comparing Google’s TPUv2 against Nvidia’s V100 on ResNet-50. In: RiseML Blog. 26. April 2018, archiviert vom Original am 26. April 2018; abgerufen am 23. Mai 2018 (englisch): „For the Cloud TPU, Google recommended we use the bfloat16 implementation from the official TPU repository with TensorFlow 1.7.0. Both the TPU and GPU implementations make use of mixed-precision computation on the respective architecture and store most tensors with half-precision.“ 
  3. ↑ Tensorflow Authors: ResNet-50 using BFloat16 on TPU. In: Google. 28. Februar 2018, ehemals im Original (nicht mehr online verfügbar); abgerufen am 23. Mai 2018 (englisch).@1@2Vorlage:Toter Link/github.com (Seite nicht mehr abrufbar. Suche in Webarchiven) 
  4. ↑ Khari Johnson: Intel unveils Nervana Neural Net L-1000 for accelerated AI training. In: VentureBeat. 23. Mai 2018, abgerufen am 23. Mai 2018 (englisch): „...Intel will be extending bfloat16 support across our AI product lines, including Intel Xeon processors and Intel FPGAs.“ 
  5. ↑ Michael Feldman: Intel Lays Out New Roadmap for AI Portfolio. In: TOP500 Supercomputer Sites. 23. Mai 2018, abgerufen am 23. Mai 2018 (englisch): „Intel plans to support this format across all their AI products, including the Xeon and FPGA lines“ 
  6. ↑ Lucian Armasu: Intel To Launch Spring Crest, Its First Neural Network Processor, In 2019. In: Tom’s Hardware. 23. Mai 2018, abgerufen am 23. Mai 2018 (englisch): „Intel said that the NNP-L1000 would also support bfloat16, a numerical format that’s being adopted by all the ML industry players for neural networks. The company will also support bfloat16 in its FPGAs, Xeons, and other ML products. The Nervana NNP-L1000 is scheduled for release in 2019.“ 
Abgerufen von „https://de.teknopedia.teknokrat.ac.id/w/index.php?title=Bfloat16&oldid=256734478“
Kategorien:
  • Numerische Mathematik
  • Computerarithmetik
Versteckte Kategorie:
  • Wikipedia:Weblink offline

  • indonesia
  • Polski
  • العربية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصرى
  • Nederlands
  • 日本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українська
  • Tiếng Việt
  • Winaray
  • 中文
  • Русский
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id