Gigabit Definition

Was ist Gigabit?

Ein Gigabit ist 109 oder 1.000.000.000 Bits.

Ein Gigabit (abgekürzt „Gb“) entspricht 1.000 Megabits oder 1.000.000 Kilobits. Es ist ein Achtel der Größe eines Gigabyte(GB).

Gigabits werden am häufigsten zur Messung der Datenübertragungsraten von lokalen Netzwerken und I/O-Verbindungen verwendet. Gigabit Ethernet ist beispielsweise ein gängiger Ethernet-Standard, der Datenübertragungsraten von einem Gigabit pro Sekunde ( Gbps) über ein kabelgebundenes Ethernet-Netzwerk unterstützt. Moderne E/A-Technologien wie USB 3.0 und Thunderbolt werden ebenfalls in Gigabit pro Sekunde gemessen. USB 3.0 kann Daten mit bis zu 5 Gbit/s übertragen, während Thunderbolt 1.0 Daten bidirektional mit 10 Gbit/s übertragen kann.

Während Gigabit und Gigabyte ähnlich klingen, ist es wichtig, die beiden Begriffe nicht zu verwechseln. Da ein Byte aus acht Bits besteht, sind in einem Gigabyte auch acht Gigabits enthalten. Gigabits werden meist zur Beschreibung von Datenübertragungsgeschwindigkeiten verwendet, während Gigabytes zur Messung der Datenspeicherung verwendet werden.

Die Definition von Gigabit auf dieser Seite ist eine Originaldefinition von SharTec.eu.
Das Ziel von SharTec ist es, Computerterminologie so zu erklären, dass sie leicht zu verstehen ist. Wir bemühen uns bei jeder von uns veröffentlichten Definition um Einfachheit und Genauigkeit. Wenn Sie Feedback zur Gigabit-Definition haben oder einen neuen Fachbegriff vorschlagen möchten, kontaktieren Sie uns bitte.