Nanometer Definition

Was ist Nanometer?

Ein Nanometer (auch „Nanometer“) ist eine Maßeinheit, die zur Messung der Länge verwendet wird. Ein Nanometer ist ein Milliardstel Meter. Nanometer werden also keineswegs zur Messung großer Entfernungen verwendet. Stattdessen dienen sie zur Messung extrem kleiner Objekte, wie zum Beispiel atomarer Strukturen oder Transistoren, die in modernen CPUs zu finden sind.

Ein einziger Nanometer ist eine Million Mal kleiner als ein Millimeter. Nimmt man ein Tausendstel eines Millimeters, erhält man einen Mikrometer oder ein einziges Mikron. Teilt man dieses Mikron durch 1.000, erhält man ein Nanometer. Unnötig zu sagen, dass ein Nanometer extrem klein ist.

Da integrierte Schaltkreise, wie z. B. Computer Prozessoren, mikroskopisch kleine Komponenten enthalten, sind Nanometer nützlich, um ihre Größe zu messen. Tatsächlich werden die verschiedenen Epochen von Prozessoren in Nanometern definiert, wobei die Zahl den Abstand zwischen Transistoren und anderen Komponenten innerhalb der CPU angibt. Je kleiner die Zahl ist, desto mehr Transistoren können auf der gleichen Fläche untergebracht werden, was schnellere und effizientere Prozessordesigns ermöglicht.

Intel hat zum Beispiel Chips im 90-Nanometer-, 65-Nanometer-, 45-Nanometer- und 32-Nanometer-Verfahren hergestellt. Im Jahr 2011 brachte Intel Chips heraus, die im 22-Nanometer-Verfahren hergestellt wurden. Intels „Broadwell“-Design, das 2014 eingeführt wurde, verwendet ein 14-Nanometer-Verfahren.

Abkürzung:nm

Die Definition von Nanometer auf dieser Seite ist eine Originaldefinition von SharTec.eu.
Das Ziel von SharTec ist es, Computerterminologie so zu erklären, dass sie leicht zu verstehen ist. Wir bemühen uns bei jeder von uns veröffentlichten Definition um Einfachheit und Genauigkeit. Wenn Sie Feedback zur Nanometer-Definition haben oder einen neuen Fachbegriff vorschlagen möchten, kontaktieren Sie uns bitte.