Gigahertz Definition

Was ist Gigahertz?

Ein Gigahertz entspricht 1.000 Megahertz(MHz) oder 1.000.000.000 Hz. Es wird üblicherweise zur Messung der Verarbeitungsgeschwindigkeit von Computern verwendet. Viele Jahre lang wurde die Geschwindigkeit von CPUs in Megahertz gemessen, aber nachdem Personalcomputer um das Jahr 2000 die 1.000-MHz-Marke überschritten hatten, wurde Gigahertz zur Standardeinheit. Schließlich ist es einfacher, „2,4 Gigahertz“ zu sagen als „2.400 Megahertz“.

Während Gigahertz am häufigsten zur Messung der Prozessorgeschwindigkeit verwendet wird, kann damit auch die Geschwindigkeit anderer Teile des Computers gemessen werden, z. B. des RAM und des Cache auf der Rückseite. Die Geschwindigkeit dieser Komponenten wirkt sich zusammen mit anderen Teilen des Computers auch auf die Gesamtleistung des Computers aus. Wenn Sie also Computer vergleichen, sollten Sie daran denken, dass die Anzahl der Gigahertz nicht das Einzige ist, was zählt.

Abkürzung:GHz.

Die Definition von Gigahertz auf dieser Seite ist eine Originaldefinition von SharTec.eu.
Das Ziel von SharTec ist es, Computerterminologie so zu erklären, dass sie leicht zu verstehen ist. Wir bemühen uns bei jeder von uns veröffentlichten Definition um Einfachheit und Genauigkeit. Wenn Sie Feedback zur Gigahertz-Definition haben oder einen neuen Fachbegriff vorschlagen möchten, kontaktieren Sie uns bitte.