Megaflop

Floating Point Operations Per Second (englisch für Gleitkommaoperationen pro Sekunde, Abk.: FLOPS) ist eine Maßeinheit für die Geschwindigkeit von Computersystemen oder Prozessoren und bezeichnet die Anzahl der Gleitkommazahl-Operationen (Additionen oder Multiplikationen), die von ihnen pro Sekunde ausgeführt werden können.

Um die Leistung einordnen zu können: ein normaler PC mit einem Pentium-4-Prozessor bei einer Taktfrequenz von drei Gigahertz kann nach Angaben von IBM etwa sechs GigaFLOPS erreichen.

Häufig wird als FLOP eine Gleitkommazahlenoperation (floating-point operation) bezeichnet, wodurch vereinzelt auch die Variante FLOP/s auftaucht, beide Varianten sind allerdings gleichbedeutend.

Die Anzahl der Gleitkommaoperationen ist nicht notwendigerweise direkt zur Taktgeschwindigkeit des Prozessors proportional, da – je nach Implementierung – Gleitkommaoperationen unterschiedlich viele Taktzyklen benötigen. Auch entspricht die Taktfrequenz der FPU nicht immer der Prozessortaktfrequenz, die FPU von Pentium-4-Prozessoren arbeitet z. B. mit doppeltem Chiptakt. Manche Prozessoren können auch mehrere Operationen pro Takt durchführen. Vektorprozessoren führen in jedem Takt bis zu einige tausend Operationen aus. So erreichen aktuelle Grafikkarten, die als Vektorprozessoren arbeiten, Rechenleistungen bis zu über 1 Teraflop pro Sekunde (NVIDIA GeForce 285), was auch die Motivation für GPGPU ist.

Durch die FLOPS wird die gesamte Rechnerarchitektur, bestehend aus Hauptspeicher, Bus, Compiler, gemessen, nicht die reine Prozessorgeschwindigkeit. Allerdings wird manchmal, ebenso wie bei der Einheit MIPS, auch die theoretisch mögliche Anzahl angegeben.

Der erste in der Praxis einsetzbare frei programmierbare Rechner, die elektromechanische Zuse Z3 aus dem Jahre 1941, schaffte knapp zwei Additionen pro Sekunde und damit 2 FLOPS. Andere Operationen dauerten jedoch teilweise wesentlich länger.

Die FLOPS eines Computers werden durch definierte Programmpakete (Benchmarks, etwa Linpack oder Livermore Benchmark) bestimmt.

Wie auch PC werden Supercomputer stetig kleiner. Auch das Verhältnis von Rechenleistung zum Stromverbrauch wird besser, wobei der gesamte Stromverbrauch eher ansteigt. So benötigt der in der TOP500-Liste 11/2005 führende BlueGene/L von IBM für seine Leistung von rund 280 TeraFLOPS nur 70  Fläche und 1770 kW elektrische Leistung, was im Vergleich zum drei Jahre älteren Earth Simulator (35,86 TFLOPS) mit 3000  m² und 6000  kW eine deutliche Verbesserung darstellt.

Dieser Artikel oder Abschnitt ist nicht hinreichend mit Belegen (Literatur, Webseiten oder Einzelnachweisen) versehen. Die fraglichen Angaben werden daher möglicherweise demnächst gelöscht. Hilf Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst. Bitte entferne erst danach diese Warnmarkierung.

Ein anderes Beispiel aus der Praxis: der im Juli 2005 schnellste Computer Deutschlands, ein 57 Mio. Euro teurer NEC mit 576 Hauptprozessoren in Stuttgart, bringt es auf bis zu 12,7 TFLOPS, und wurde optimistisch als 5000 mal schneller als ein „normaler“ PC bezeichnet. Die Betriebskosten (ohne Anschaffung) einer solchen Anlage beliefen sich nach Betreiberaussage inklusive Personal auf fünf bis sechs Euro pro Stunde, bei einem PC wurden vergleichsweise 30 bis 40 Cent pro Stunde angesetzt. Wegen der hohen Anschaffungskosten wurde eine derartig leistungsfähige Anlage allerdings zu einem Stundensatz von ca. 3000 Euro vermietet.

Ein interessanter Vergleich: Bereits im März 2006 wurde der neueste „schnellste“ Computer Deutschlands in Jülich in Betrieb genommen, der JUBL (Jülicher Blue Gene/L). Mit 45,6 TFLOPS bot er zu diesem Zeitpunkt als sechstschnellster Computer der Welt die Rechenleistung von 15.000 „normalen“ zeitgemäßen PCs. Interessant ist für die weitere Entwicklung die Einschätzung der Rechenzeit-Bedarfsentwicklung durch den Vorstandsvorsitzenden des Jülicher Forschungszentrums (03/2006): „Die Nachfrage nach Rechenzeit wird in den nächsten fünf Jahren noch um den Faktor 1000 steigen“.

Beispiele der GFLOP-Werte an einigen CPUs[1]:

Linpack 1kx1k (DP) Peak GigaFLOPS Actual GigaFLOPS Effizienz (in %)
Cell, 1 SPU, 3,2 GHz 1,83 1,45 79,23
Cell, 8 SPUs, 3,2 GHz 14,63 9,46 64,66
Pentium 4, 3,2 GHz 6,4 3,1 48,44
Pentium 4 + SSE3, 3,6 GHz 14,4 7,2 50,00
Core i7, 3,2 GHz 51,2 33,0 (HT enabled) [2] 64,45
Itanium, 1,6 GHz 6,4 5,95 92,97

In der Rangliste TOP500 werden die 500 schnellsten Computersysteme, gemessen an ihren FLOPS mit dem Linpack-Benchmark, aufgeführt.

Siehe auch

Quellenangaben

  1. IBM: Cell Broadband Engine Architecture and its first implementation
  2. http://www.tecchannel.de/pc_mobile/prozessoren/1775602/core_i7_test_intel_nehalem_quad_hyper_threading_speicher_benchmarks/index11.html

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • megaflop — meg·a·flop (mĕgʹə flŏp ) n. A measure of computing speed equal to one million floating point operations per second.   [mega + FLOP.] * * * …   Universalium

  • megaflop — noun a) a measure of the speed of a computer; one million floating point operations per second. b) A major flop; a film or other production that is a great failure …   Wiktionary

  • megaflop — noun Computing a unit of computing speed equal to one million or (strictly) 1,048,576 floating point operations per second …   English new terms dictionary

  • megaflop — /ˈmɛgəflɒp/ (say meguhflop) noun a million floating point operations per second (a measure of computing speed). {mega (def. 1) + fl(oating point) op(erations per second)} …   Australian English dictionary

  • megaflop — noun (computer science) a unit for measuring the speed of a computer system • Syn: ↑MFLOP, ↑million floating point operations per second • Topics: ↑computer science, ↑computing • Hypernyms: ↑ …   Useful english dictionary

  • 3M computer — 3M was a goal first proposed in the early 1980s Raj Reddy and his colleagues at CMU as a minimum specification for academic/technical workstations: at least a megabyte of memory, a megapixel display and a Million instructions per second or MIPS… …   Wikipedia

  • NeXT — This article is about the computer company. For other uses, see Next. Next Software, Inc. The NeXT logo designed by Paul Rand Former type Private …   Wikipedia

  • History of computing hardware (1960s–present) — The history of computing hardware starting at 1960 is marked by the conversion from vacuum tube to solid state devices such as the transistor and later the integrated circuit. By 1959 discrete transistors were considered sufficiently reliable and …   Wikipedia

  • Gordon Bell Prize — The Gordon Bell Prizes are a set of awards awarded by the Association for Computing Machinery in conjunction with the Institute of Electrical and Electronics Engineers each year at the Supercomputing Conference to recognize outstanding… …   Wikipedia

  • Elite Beat Agents — Entwickler iNiS Publisher …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.