Festplatte

FONT SIZE:
fontsize_dec
fontsize_inc
Februar 12, 2016 Hagen Nitsch F 0 115

Ein Festplattenlaufwerk ist eine Datenspeichervorrichtung zum Speichern und Abrufen digitaler Information mit schnell rotierenden Scheiben mit magnetischem Material beschichtet verwendet wird. Eine Festplatte behält seine Daten auch dann, wenn ausgeschaltet. Daten werden in einem Direktzugriffs Weise ausgelesen, das heißt einzelnen Datenblöcke können in beliebiger Reihenfolge und nicht sequentiell gespeichert oder abgerufen werden. Eine HDD besteht aus einer oder mehreren festen schnell rotierenden Scheiben mit auf einer beweglichen Betätigungsarm angeordnet ist, um an den Oberflächen lesen und schreiben Daten Magnetköpfe.

IBM 1956 eingeführt, wurde HDDs die dominante sekundäre Speichergerät für Allzweckcomputer von den frühen 1960er Jahren. Kontinuierlich verbessert, Festplatten haben diese Position in die Neuzeit von Servern und PCs erhalten. Mehr als 200 Unternehmen haben HDD Einheiten produziert, obwohl die meisten aktuellen Geräte sind von Seagate, Toshiba und Western Digital gefertigt. Weltweit Plattenspeichererlöse US $ 32 Milliarden im Jahr 2013 um 3% ab 2012.

Die primären Merkmale einer Festplatte sind die Kapazität und Leistung. Die Kapazität wird in der Einheit Präfixe entsprechend Mächte von 1000 festgelegt: eine 1-Terabyte-Laufwerk hat eine Kapazität von 1.000 Gigabyte. Typischerweise ist Teil einer Festplatte die Kapazität nicht verfügbar für den Benutzer, weil es durch das Dateisystem und die Computer-Betriebssystem und eventuell eingebaute Redundanz zur Fehlerkorrektur und Wiederherstellung verwendet wird. Die Leistung wird durch die Zeit, um die Köpfe in eine Datei sowie die Zeit, die für die Datei unter den Kopf bewegen und die Geschwindigkeit, mit der die Datei übertragen bewegen angegeben.

Die beiden häufigsten Formfaktoren für moderne Festplatten sind 3,5-Zoll-Desktop-Computern und in 2,5-Zoll in Laptops. Festplatten sind die Systeme durch Standardschnittstellenkabel wie SATA, USB oder SAS-Kabel angeschlossen ist.

Ab 2014 der primäre konkurrierende Technologie für Sekundärspeicher ist Flash-Speicher in Form von Solid-State-Laufwerke. Festplatten werden voraussichtlich das dominierende Medium für Sekundärspeicher auf Grund vorhergesagt Weiterbildung Vorteile Aufzeichnungskapazität bleiben, Preis pro Speichereinheit, die Schreiblatenz und Produktlebensdauer. Jedoch werden SSDs ersetzt HDDs wo Geschwindigkeit, Stromverbrauch und Dauerhaftigkeit sind wichtige Überlegungen.

Geschichte

HDDs wurden 1956 als Datenspeicher für einen IBM Echtzeit-Transaktionsverarbeitungsrechner eingebracht und wurden für die Verwendung mit Allzweckgroßrechner und Minicomputer entwickelt. Der erste IBM-Laufwerk, das 350 RAMAC, war ungefähr so ​​groß wie zwei Kühlschränke und gespeichert 5 Millionen 6-Bit-Zeichen auf einem Stapel von 50 Platten.

Im Jahr 1962 stellte IBM das Modell 1311 Plattenlaufwerk, das etwa die Größe einer Waschmaschine war und gespeichert zwei Millionen Zeichen auf einem Wechseldatenträger-Pack. Benutzer konnten zusätzliche Packungen ähnlich wie Spulen von Magnetband zu kaufen und tauschen Sie sie bei Bedarf. Spätere Modelle von Wechselpack-Laufwerke, von IBM und anderen, wurde die Norm in den meisten Computerinstallationen und erreichte Kapazitäten von 300 Megabyte von den frühen 1980er Jahren. Nicht entfernbaren Festplatten wurden "Festplatte" Laufwerke bezeichnet.

Einige Hochleistungsfestplatten wurden mit einem Kopf pro Spur, beispielsweise IBM 2305, so dass keine Zeit verloren war körperlich bewegen die Köpfe zu einer Spur hergestellt. Bekannt als Festleiter oder Leiter-Per-Track-Laufwerke sie waren sehr teuer und sind nicht mehr in der Produktion.

Im Jahr 1973 führte IBM eine neue Art von Festplatte mit dem Codenamen "Winchester". Ihre primäre Unterscheidungsmerkmal war, dass die Plattenköpfe wurden nicht vollständig aus dem Stapel von Plattenscheiben zurückgezogen, wenn der Antrieb ausgeschaltet wird. Stattdessen wurden die Köpfe "Ausziehen" wieder, wenn die Platte wurde später eingeschaltet gelassen "Land" auf einer Sonderfläche der Plattenoberfläche auf Spin-down. Diese stark reduziert die Kosten für das Kopfstellmechanismus, aber ausgeschlossen ist das Entfernen nur die Festplatten aus dem Laufwerk, wie mit der Lamellenpakete des Tages gemacht. Stattdessen werden die ersten Modelle der "Winchester-Technologie" Laufwerke vorge einen Wechseldatenträger-Modul, das sowohl die Plattenstapel und der Kopfanordnung enthalten, so dass der Stellmotor in der Antriebs nach Entfernen. Später "Winchester" Laufwerke gab die Wechselmedien-Konzept und kehrte zu nicht entfernbaren Platten.

Wie die erste abnehmbare Pack-Laufwerk, verwendet die ersten "Winchester" Laufwerke Platten 14 Zoll im Durchmesser. Ein paar Jahre später, wurden Designern die Möglichkeit, die physisch kleiner Platten könnte Vorteile bieten zu erkunden. Laufwerke mit nicht abnehmbaren Acht-Zoll-Platten erschienen, und dann Laufwerke, die eine 5 /4 in Formfaktor verwendet. Letztere wurden in erster Linie für den damals noch jungen Markt für Personal Computer vorgesehen.

Als in den 1980er Jahren begann, waren HDDs eine seltene und sehr teuer zusätzliches Feature in PCs, sondern von den späten 1980er Jahren ihre Kosten hatte bis zu dem Punkt, wo sie standardmäßig auf alle, aber die billigsten Computer waren reduziert.

Die meisten Festplatten in den frühen 1980er Jahren wurden in PC Endbenutzer als externes, Add-on-Subsystem verkauft. Das Subsystem wurde nicht gemäß des Laufwerkherstellers Namen, aber im Rahmen des Teilsystems Herstellernamen wie Corvus Systems and Technologies Tallgrass, oder unter dem PC-System Herstellernamen, wie das Apple-Profil verkauft. Der IBM PC / XT 1983 enthalten einen internen 10 MB Festplatte, und bald darauf internen HDDs vermehrt auf PCs.

Externe Festplatten blieb viel länger auf dem Apple Macintosh beliebt. Jeder Mac zwischen 1986 und 1998 hat eine SCSI-Anschluss auf der Rückseite, so dass externe Erweiterungs einfach; auch "Toaster" Compact Macs nicht über leicht zugängliche Festplatteneinschübe, usw. dieser Modelle waren externe SCSI-Festplatten die einzig mögliche ist.

Die Überschwemmungen in Thailand 2011 beschädigte Produktionsstätten, und im Zeitraum 2011-2013 betroffen Festplatte Kosten nachteilig.

Durch zunehmende Flächendichte seit ihrer Erfindung angetrieben wird, haben HDDs kontinuierlich verbessert ihre Eigenschaften; ein paar Highlights sind in der obigen Tabelle aufgeführt. Zur gleichen Zeit, erweiterte Markt Anwendung von Großrechner der Ende der 1950er Jahre zu den meisten Massenspeicheranwendungen einschließlich Computer und Consumer-Anwendungen wie Speicherung von Unterhaltungsinhalten.

Technologie

Magnetische Aufzeichnungs

Eine HDD zeichnet Daten durch Magnetisieren eines dünnen Films aus ferromagnetischen Material auf einem Datenträger. Sequentielle Änderungen in der Magnetisierungsrichtung stellen binäre Datenbits. Die Daten werden von der Platte durch Erfassen der Übergänge der Magnetisierung gelesen. Benutzerdaten werden unter Verwendung eines Codierungsschemas, wie -Laufzeitlängenbegrenzung-Codierung, die, wie die Daten von den magnetischen Übergängen dargestellt bestimmt kodiert.

Ein typisches HDD-Design besteht aus einer Spindel, die flachen kreisförmigen Scheiben, die auch als Platten, die die aufgezeichneten Daten zu halten gilt. Die Platten sind aus einem nichtmagnetischen Material, üblicherweise Aluminium, Glas oder Keramik hergestellt und sind mit einer flachen Schicht aus magnetischem Material typischerweise 10-20 nm in der Tiefe beschichtet, mit einer Außenschicht aus Kohlenstoff für Schutz. Als Referenz zur Standardkopierpapier ist 0,07 bis 0,18 Millimeter.

Die Platten in der heutigen Festplatten sind bei einer Geschwindigkeit von 4200 Umdrehungen pro Minute Variation in energieeffiziente tragbare Geräte für High-Performance-Server gesponnen, bis 15.000 Umdrehungen pro Minute. Die ersten Festplatten mit 1.200 Umdrehungen pro Minute gesponnen und, seit vielen Jahren, 3600 rpm war die Norm. Ab Dezember 2013 wird die Platten in den meisten Consumer-Festplatten drehen sich entweder 5.400 Umdrehungen pro Minute oder 7.200 Umdrehungen pro Minute.

Information von einer Platte gelesen und geschrieben, wie es vorbei dreht Geräte genannt Lese- und Schreibköpfe, die sehr nahe über der Magnetoberfläche zu betreiben. Der Lese- und Schreibkopf wird verwendet, um erkennen und ändern Sie die Magnetisierung des Materials unmittelbar darunter.

Bei modernen Antrieben gibt es ein Kopf für jede Magnetplattenteller Oberfläche auf der Spindel, auf einem gemeinsamen Arm befestigt. Einen Betätigungsarm bewegt die Köpfe auf einem Bogen über den Platten, wie sie sich drehen, so dass jeder Kopf fast die gesamte Oberfläche der Platte zuzugreifen, als sie sich dreht. Der Arm bewegt wird mit einem Schwingspulenstellglied oder in einer älteren Designs einen Schrittmotor. Frühe Festplatten geschrieben Daten bei einigen konstanten Bits pro Sekunde, was in allen Spuren, die die gleiche Menge an Daten pro Spur, aber moderne Laufwerke Zonenbit Aufzeichnungs Erhöhung der Schreibgeschwindigkeit von der inneren zur äußeren Zone und damit mehr Daten speichert pro Spur in der Außenzonen.

In modernen Laufwerke, die geringe Größe der magnetischen Bereiche besteht die Gefahr, daß ihre magnetischen Zustand könnte wegen thermischer Effekte verloren gehen, thermisch induzierte magnetische Instabilität, die allgemein als der Begriff des "superparamagnetische Grenze". Um dem entgegenzuwirken, werden die Platten mit zwei parallelen Magnetschichten durch eine 3-Atomschicht von dem nichtmagnetischen Element Ruthenium getrennt beschichtet und die beiden Schichten werden in umgekehrter Orientierung magnetisiert wird und somit sich gegenseitig verstärken. Ein weiteres verwendet werden, um thermische Effekte zu überwinden, um höhere Aufzeichnungsdichten ermöglichen Technologie Perpendicular Recording, erstmals im Jahr 2005 ausgeliefert und ab 2007 wurde die Technologie in vielen Festplatten verwendet.

Components

Eine typische Festplatte verfügt über zwei Elektromotoren; einen Spindelmotor, der die Scheiben dreht, und einen Antrieb, der Lese / Schreib-Kopfanordnung über die drehenden Platten positioniert. Der Plattenmotor weist einen Außenrotor auf die Platten befestigt ist; die Statorwicklungen fixiert. Gegenüber dem Stellglied am Ende des Kopftragarmes ist der Lese-Schreib-Kopfes; dünne Leiterkabel verbinden die Schreib-Leseköpfe an den Verstärker-Elektronik an der Drehpunkt der Antrieb montiert. Der Kopf Tragarm ist sehr leicht, sondern auch steif; in modernen Antrieben, Beschleunigung an der Spitze erreicht 550 g.

Das Stellglied einen Permanentmagneten und beweglichen Spulenmotor, der die Köpfe in die gewünschte Position schwingt. Eine Metallplatte unterstützt eine Kniebeuge Neodym-Eisen-Bor-High-Flux-Magneten. Unterhalb dieser Platte ist die sich bewegende Spule, die oft als die Schwingspule in Analogie zu der Spule in Lautsprechern, die an das Stellglied-Hub angeschlossen ist bezeichnet, und darunter eine zweite NIB Magneten auf der Bodenplatte des Motors befestigt.

Die Schwingspule selbst ist eher wie eine Pfeilspitze geformt und von doppelt beschichteten Kupfermagnetdraht. Die innere Schicht Isolierung und die äußere thermoplastisch ist, die die Spule miteinander verbindet, nachdem es auf eine Form gewickelt ist, so dass es selbsttragend ist. Die Abschnitte der Spule entlang der zwei Seiten der Pfeilspitze in Wechselwirkung mit dem Magnetfeld, die Entwicklung einer tangentialen Kraft, die den Stellantrieb dreht. Fließenden Strom radial nach außen entlang einer Seite der Pfeilspitze und radial nach innen auf der anderen Seite erzeugt die Tangentialkraft. Wenn das Magnetfeld einheitlich waren, würde jede Seite entgegengesetzte Kräfte, die sich gegenseitig aufheben würden generieren. Daher ist die Oberfläche des Magneten ist halb N-Pol, halb S-Pol, mit der radialen Trennlinie in der Mitte, so dass die beiden Seiten der Spule gegenüber Magnetfeldern sehen und erzeugen Kräfte, die statt zu kündigen hinzuzufügen. Ströme entlang der oberen und unteren Ende der Spule erzeugen radiale Kräfte, die nicht den Kopf drehen müssen.

Elektronik der Festplatten steuern die Bewegung des Betätigungselementes und die Drehung der Scheibe und führen Lese- und Schreiboperationen bei Bedarf von der Plattenspeichersteuer. Rückmeldung der Steuerelektronik erfolgt mittels spezieller Segmente der Scheibe gewidmet Rückkopplungsservo bewerkstelligt. Diese sind entweder komplett konzentrischen Kreisen, oder Segmente mit realen Daten durchsetzt. Die Servo-Rück optimiert das Signal-Rausch-Verhältnis der GMR-Sensoren, indem die Schwingspule des betätigten Arm. Das Spinnen der Scheibe verwendet auch ein Servomotor ist. Moderne Festplatte Firmware in der Lage ist, der Terminplanung liest und schreibt effizient auf die Plattenoberfläche und Remapping Sektoren der Medien, die es versäumt haben.

Fehlerraten und Handhabung

Moderne Antriebe wie den intensiven Einsatz von Fehlerkorrekturcodes, insbesondere Reed-Solomon-Fehlerkorrektur. Diese Techniken speichern zusätzlichen Bits, die durch mathematische Formeln für jeden Datenblock bestimmt; die zusätzlichen Bits erlauben viele Fehler, um unsichtbar zu korrigieren. Die zusätzlichen Bits sich nehmen Platz auf der Festplatte, aber erlauben höhere Aufzeichnungsdichten auf, ohne dass nicht korrigierbaren Fehlern eingesetzt werden, was zu einer viel größeren Speicherkapazität. Zum Beispiel ein typisches 1 TB Festplatte mit 512-Byte-Sektoren bietet zusätzlichen Speicherplatz von etwa 93 D für die ECC-Daten.

In der neuesten Laufwerke, ab 2009, waren Low-Density-Parity-Check-Codes verdrängen Reed-Solomon; LDPC-Codes ermöglichen Leistung nahe der Shannon-Grenze und somit die höchste Speicherdichte zur Verfügung.

Typische Festplattenlaufwerke versuchen, "neu zuordnen" die Daten in einem physischen Sektor, die zu einer Ersatz physikalischen Sektor von "Ersatz-Sektor Pool" des Antriebs vorgesehen fehlgeschlagen wird, während sich auf der ECC auf die gespeicherten Daten zurückzugewinnen, während die Menge von Fehlern in einem schlechten Sektor ist immer noch niedrig genug ist. Die SMART-Funktion zählt die Gesamtzahl der Fehler in der gesamten Festplatte von der ECC festgelegt ist, und die Gesamtzahl der durchgeführten Sektor Neuzuordnungen, als das Auftreten von vielen solcher Fehler kann einen Festplattenfehler vorherzusagen.

Die "No-ID-Format", die von IBM in Mitte der 1990er Jahre entwickelt, enthält Informationen darüber, welche Sektoren schlecht sind und in denen neu zugeordneten Sektoren wurden entfernt.

Nur ein winziger Bruchteil der festgestellten Fehler endet als nicht korrigierbar. Zum Beispiel, Spezifikation für ein Unternehmen SAS-Fest Schätzungen dieser Anteil auf eine nicht korrigierte Fehler in jeweils 10 Bit sein, und ein anderes SAS Enterprise-Festplatte ab 2013 gibt ähnliche Fehlerraten. Eine andere moderne Enterprise-SATA-Festplatte gibt eine Fehlerquote von weniger als 10 nicht behebbaren Lesefehler in jeweils 10 Bit. Ein Unternehmen Scheibe mit einem Fibre-Channel-Schnittstelle, die 520-Byte-Sektoren verwendet, um die Datenintegrität Feld Standard zur Bekämpfung von Datenkorruption zu unterstützen, gibt ähnliche Fehlerquoten im Jahr 2005.

Die schlimmste Art von Fehlern sind diejenigen, die unbemerkt bleiben und werden nicht einmal von der Festplatte Firmware oder dem Host-Betriebssystem erkannt. Diese Fehler werden als stille Datenbeschädigung, von denen einige von der Festplatte Fehlfunktionen verursacht werden bekannt.

Zukunftsentwicklung

Langfristige Verbindung Wachstumstrend HDD Flächendichte hat ähnlich wie bei einem 41% per Gesetz Wachstumsjahr Moores gewesen; war der Trend 60-100% pro Jahr, beginnend in den frühen 1990er Jahren beginnt und bis zu 2005 eine Steigerung, die Gordon Moore als "verblüffend", und er spekuliert, dass HDDs hatte "mindestens so schnell wie die Halbleiter Komplexität bewegt." Allerdings verringerte sich der Trend dramatisch etwa 2006 und ab dem Jahr 2014 hat sich das Wachstum im Jahres Bereich von 8-12% betragen. Datenträgerkosten pro Byte verbessert auch fast 45% pro Jahr in 1990-2010, und verlangsamte nach 2010 aufgrund der Thailand Überschwemmungen und Schwierigkeiten bei der Migration von Perpendicular Recording auf neueren Technologien. Während das Wachstum kann nicht ewig weiter, ob Festplattendichte Wachstumsflächen kehrt auf seine früheren hohen Rate ist eine offene Frage.

Zunehmende Flächendichte entspricht einer immer kleiner werdenden Bit Zellgröße. Im Jahr 2013 wäre ein Produktions Desktop 3 TByte HDD eine Flächendichte von etwa 500 Gbit /, in dem zu einer Bit-Zelle, die etwa 18 magnetischen Körner betragen hatten. Seit Mitte der 2000er Jahre Flächendichte Fortschritte zunehmend von einer superparamagnetischen Trilemma mit Korngröße, Korn magnetische Kraft und die Fähigkeit des Kopfes zu schreiben Frage gestellt. Um akzeptable Signal-Rausch kleinere Körner beizubehalten sind erforderlich; kleinere Körner können selbst umkehren, wenn ihre Magnetstärke erhöht wird, aber bekannt Schreibkopf Materialien sind nicht in der Lage, ein Magnetfeld ausreicht, um das Medium zu schreiben generieren. Mehrere neue magnetische Speichertechnologien entwickelt werden, zu überwinden oder zumindest mindern dieses Trilemma und dadurch aufrecht zu erhalten, die Wettbewerbsfähigkeit der Festplatten in Bezug auf Produkte, wie Flash-Speicher-basierten Solid-State Drives.

Eine solche Technik, Schindel magnetische Aufzeichnung, wurde im Jahr 2013 als "der erste Schritt zum Erreichen einer 20 TB HDD bis 2020" vorgestellt Andere neue HDD Technologien noch im Labor gehören wärmeunterstützte magnetische Aufzeichnungs, mikrowellenunterstützte magnetische Aufzeichnungs zweidimensionale magnetische Aufzeichnungsbitsch gemusterten Aufzeichnungs und "Strom senkrecht zur Ebene" Riesenmagnetoköpfen.

In Abhängigkeit von Annahmen in Bezug auf die Machbarkeit und den Zeitpunkt dieser Technologien die mittlere Prognose von Branchenbeobachtern und Analysten für das Jahr 2016 und darüber hinaus für die Dichtewachstum Areal ist 20% pro Jahr mit einer Bandbreite von 10% bis 40%.

Die ultimative Grenze für BPR kann die superparamagnetische Grenze eines einzelnen Teilchens, der geschätzt wird, um etwa zwei Größenordnungen höher als 500 Gbits sein / im Jahr 2013 die Produktion Desktop-HDDs vertreten.

Kapazität

Die Kapazität einer Festplatte auf einen Endbenutzer durch das Betriebssystem gemeldet wird, ist geringer als die von einem Antriebssystem oder Hersteller angegebenen Menge durch unter anderem unterschiedliche Einheiten die Messung der Kapazität, Kapazität verbraucht System und / oder Redundanz.

Berechnung

Da moderne Plattenlaufwerke scheinen ihre Schnittstelle als eine zusammenhängende Gruppe von logischen Blöcken Bruttokapazität kann durch Multiplizieren der Anzahl von Blöcken mit der Größe des Blocks zu berechnen. Diese Informationen erhalten Sie von den Herstellerangaben und vom Antrieb selbst durch die Verwendung von speziellen Dienstprogrammen Aufrufen niedrigen Niveau-Befehle.

Die Brutto-Leistung von älteren HDDs kann durch Multiplikation für jede Zone des Antriebs die Zahl der Zylinder, die durch die Anzahl der Köpfe der Anzahl von Sektoren / Zone der Anzahl von Bytes / Sektor und danach Summieren der Gesamtsummen für alle Zonen berechnet werden. Einige moderne SATA-Laufwerke werden auch Cylinder Head Sector Werte an die CPU zu berichten aber, da die berichteten Zahlen werden durch historische Betriebssystem-Schnittstellen eingeschränkt sind nicht mehr tatsächlichen physikalischen Parameter.

Der alte C / H / S-Schema wurde von Logical Block Addressing ersetzt. In einigen Fällen, um zu "kraftschlüssig" die C / H / S-Schema, um mit großer Kapazität Laufwerke versuchen, wurde die Anzahl der Köpfe als 64 gegeben, obwohl keine modernen Antrieb hat annähernd 32 Platten: die typische 2-TB-Festplatte ab 2013 verfügt über zwei 1 TB Platten.

Redundancy

Bei modernen Festplatten, ist freie Kapazitäten für die Defekt-Management nicht in der veröffentlichten Kapazität enthalten sind; aber in vielen frühen Festplatten eine bestimmte Anzahl von Sektoren wurden für Ersatzteile reserviert, wodurch Kapazitäten für Endverbraucher erhältlich.

In einigen Systemen kann es versteckte Partitionen zur Wiederherstellung des Systems, die die Fähigkeit zur Verfügung, um den Endverbraucher zu reduzieren.

Für RAID-Subsysteme, Datenintegrität und Fehlertoleranzanforderungen auch eine Verringerung der Kapazitäten realisiert. Zum Beispiel wird ein RAID 1 Subsystem etwa die Hälfte der Gesamtkapazität als Folge der Datenspiegelung sein. RAID5-Subsysteme mit x-Laufwerke, würde 1 / x der Kapazitäten, um die Parität zu verlieren. RAID-Subsysteme sind mehrere Laufwerke, um ein Laufwerk oder mehrere Laufwerke für den Benutzer angezeigt, aber bietet ein hohes Maß an Fehlertoleranz. Die meisten RAID-Hersteller verwenden irgendeine Form von Prüfsummen, um die Integrität der Daten auf Blockebene zu verbessern. Für viele Anbieter ist dies mit Hilfe HDDs mit Sektoren von 520 Bytes pro Sektor zu 512 Byte Nutzdaten und Prüfsumme acht Bytes enthalten oder mit separaten 512-Byte-Sektoren für die Prüfsumme Daten.

Dateisystem verwenden

Die Vorlage einer Festplatte auf seinem Host ist durch seine Steuerung bestimmt. Diese können erheblich von nativen Schnittstelle des Antriebs vor allem in Großrechnern oder Servern abweichen.

Moderne Festplatten, wie SAS und SATA-Laufwerke, erscheinen an ihren Grenzflächen als eine zusammenhängende Gruppe von logischen Blöcken; typischerweise 512 Bytes lang, aber die Industrie ist in den Prozess der Veränderung zu 4096-Byte-Logikblöcke; siehe Advanced Format.

Der Prozess der Initialisierung diese logische Blöcke auf die physische Festplatte Platten heißt niedrige Formatierungsebene, die normalerweise in der Fabrik durchgeführt wird, und ist nicht in der Regel im Bereich verändert.

Hohe Level-Formatierung schreibt dann den Dateisystemstrukturen in ausgewählte logische Blöcke die verbleibenden Logikblöcke zur Verfügung, um das Host-Betriebssystem und seine Anwendungen zu machen. Die Betriebssystem-Dateisystem verwendet einen Teil des Festplattenspeicher, um Dateien auf der Festplatte zu organisieren, die Aufnahme ihrer Dateinamen und die Reihenfolge der Festplattenbereiche, die die Datei repräsentieren. Beispiele von Datenstrukturen auf der Festplatte gespeichert sind, um Dateien abzurufen sind die File Allocation Table in der DOS-Dateisystem und I-Nodes in vielen UNIX-Dateisysteme, wie auch andere Betriebssystem-Datenstrukturen. Als Konsequenz nicht der gesamte Speicherplatz auf einer Festplatte ist für die Benutzerdateien zur Verfügung. Dieses Dateisystem-Overhead ist in der Regel weniger als 1% auf Platten mit mehr als 100 MB.

Einheiten

Die Gesamtkapazität der Festplatten wird von den Herstellern in Megabyte angegeben, Gigabyte oder Terabyte. Dieses Nummerierungskonvention, wo Präfixe wie Mega- und Giga-Mächte von 1000 zu bezeichnen, ist auch für Datenübertragungsraten und DVD-Kapazitäten verwendet. Allerdings ist die Konvention andere als die vom Hersteller von Speicher und CDs, verwendet werden, wo Präfixe wie Kilo- und Mega mittleren Leistungen von 1024.

Die Praxis der Verwendung von Präfixen auf Potenzen von 1000 innerhalb der Festplatte und Computer-Industrie zugeordnet stammt aus der Frühzeit der Datenverarbeitung. In den 1970er Jahren Millionen, Mega und M wurden konsequent in die Befugnisse der 1.000 Sinne verwendet, um Festplattenkapazität zu beschreiben.

Computer nicht intern repräsentieren oder HDD Speicherkapazität in Potenzen von 1024; Berichterstattung darüber auf diese Weise ist nur eine Konvention. Microsoft Windows nutzt die Kräfte der 1024 Convention, bei der Berichterstattung Festplattenkapazität, also eine Festplatte vom Hersteller angeboten werden, wie eine 1 TB-Laufwerk wird von diesen Betriebssystemen als 931 GB HDD gemeldet. Mac OS X 10.6, verwendet Mächte von 1000, bei der Berichterstattung Festplattenkapazität.

Im Fall von "Mega", gibt es eine fast 5% Unterschied zwischen den Mächten der 1000 Definition und die Befugnisse der 1024-Definition. Weiterhin wird die Differenz von 2,4% bei jedem inkrementell größer Präfix compoundiert. Die Diskrepanz zwischen den beiden Konventionen für Messkapazität war Gegenstand mehrerer Sammelklagen gegen HDD-Hersteller. Die Kläger argumentierten, dass die Verwendung der Nachkommastellen Messungen effektiv irre Verbraucher, während die Angeklagten bestritten jegliches Fehlverhalten oder Haftung, zu behaupten, dass ihre Marketing und Werbung in jeder Hinsicht mit dem Gesetz und kein Klassenmitglied erlitten keine Schäden oder Verletzungen, eingehalten werden.

Im Dezember 1998 angesprochen Normungsorganisationen diese doppelte Definitionen der herkömmliche Präfixe durch die Standardisierung auf eindeutigen binären Präfixe und Präfix-Symbole, um ein Vielfaches von 1024, wie "Mebibyte", die exklusiv bezeichnet 2 oder 1.048.576 Byte bezeichnen. Diese Norm wurde wenig Annahme durch die Computer-Industrie zu sehen, und die konventionell voran Formen von "Byte" weiter leicht unterschiedliche Werte je nach Kontext zu bezeichnen. Sie werden gelegentlich verwendet, jedoch.

Formfaktoren

Großrechner und Minicomputer-Festplatten waren von sehr unterschiedlicher Abmessungen, typischerweise in freistehende Schränke der Größe von Waschmaschinen oder entwickelt, um ein 19 "Rack passen. Im Jahr 1962 führte IBM sein Modell 1311 Festplatte, die 14-Zoll-Platten verwendet. Dieses wurde zu einem Standard- Größe für Großrechner und Minicomputer Antriebe für viele Jahre. Solche großen Platten nie mit dem Mikroprozessor-basierten Systemen eingesetzt.

Mit zunehmendem Umsatz von Mikrocomputern mit in Diskettenlaufwerke gebaut, Festplatten, die an den FDD-Halterungen passen würde geworden wünschenswert. Somit HDD-Formfaktoren, zunächst gefolgt diejenigen von 8 Zoll, 5,25 Zoll und 3,5 Zoll-Diskettenlaufwerke. Weil es keine kleineren Diskettenlaufwerke, Festplatten kleineren Formfaktoren von Produktangeboten oder Industrie-Standards entwickelt.

Ab 2012 waren 2,5-Zoll- und 3,5-Zoll-Festplatten die beliebtesten Größen.

Bis 2009 hatten alle Hersteller, die Entwicklung neuer Produkte für die 1,3-Zoll, 1 Zoll und 0,85-Zoll-Formfaktoren aufgrund der sinkenden Preise für Flash-Speicher, die keine beweglichen Teile hat abgebrochen.

Während diese Größen werden üblicherweise durch eine annähernd richtige Zahl in Zoll beschrieben, wurden tatsächliche Größe lang in Millimetern angegeben.

Leistungsmerkmale

Zeit, auf Daten zuzugreifen

Die Faktoren, die die Zeit, um die Daten auf einer Festplatte zugreifen zu begrenzen sind meist im Zusammenhang mit der mechanischen Natur der rotierenden Scheiben und Moving Heads. Suchzeit ist ein Maß dafür, wie lange es dauert, die Kopfanordnung auf die Spur der Platte, der Daten enthält reisen. Rotationslatenz entstanden ist, weil die gewünschten Festplattensektor nicht direkt unter dem Kopf, wenn die Datenübertragung angefordert wird. Diese beiden Verzögerungen sind in der Größenordnung von Millisekunden je. Die Bitrate oder Datenübertragungsrate erzeugt Verzögerung, die eine Funktion der Anzahl von Blöcken übertragen wird; typischerweise relativ klein, aber ziemlich lang mit der Übertragung von großen zusammenhängenden Dateien sein. Verzögerung kann auch auftreten, wenn die Antriebsscheiben sind angehalten, um Energie zu sparen.

Ein Festplatten durchschnittliche Zugriffszeit ist die durchschnittliche Suchzeit, die technisch ist die Zeit, alles möglich zu tun sucht durch die Anzahl aller möglichen sucht geteilt, aber in der Praxis wird durch statistische Methoden ermittelt oder einfach als die Zeit einer angenähert suchen mehr als ein Drittel von der Anzahl der Spuren.

Defragmentierung ist ein Verfahren verwendet werden, um Verzögerungen bei der Wiedergewinnung von Daten, indem Sie verwandte Artikel zu sachnahen Bereichen auf der Festplatte zu minimieren. Einige Computer-Betriebssystemen durchführen Defragmentierung automatisch. Obwohl die automatische Defragmentierung soll den Zugang Verzögerungen zu reduzieren, wird die Leistung vorübergehend reduziert werden, während das Verfahren durchgeführt wird.

Zeit, um Daten zugreifen, indem zunehmender Drehzahl und / oder durch Reduzieren der Zeitaufwand der Suche verbessert werden. Zunehmender Flächendichte erhöht den Durchsatz durch Erhöhung der Datenrate und durch die Erhöhung der Menge an Daten unter einem Satz von Köpfen, wodurch potenziell suchen Wirkung für eine gegebene Menge von Daten. Die Zeit für den Datenzugriff nicht mit Durchsatzsteigerungen, die sich nicht mit dem Wachstum in Bit-Dichte und Speicherkapazität gehalten gehalten.

Zugriffszeit

Durchschnittliche Suchzeit reicht von unter 4 ms für High-End-Server-Laufwerke bis 15 ms für den mobilen Laufwerken mit den gängigsten mobilen Laufwerke bei etwa 12 ms und die häufigste Desktop-Typ typischerweise etwa 9 ms. Die erste Festplatte hatte eine durchschnittliche Suchzeit von ca. 600 ms; Bis Mitte der 1970er Jahre waren HDDs mit Zugriffszeiten von etwa 25 ms. Einige frühe PC-Laufwerke verwendet einen Schrittmotor, um die Köpfe zu bewegen, und als Ergebnis hatte Suchzeiten so langsam wie 80-120 ms, aber dies wurde schnell von Schwingspulentyp Betätigung in den 1980er Jahren verbessert, wodurch Suchzeiten um 20 ms. Zugriffszeit hat sich weiter langsam über die Zeit zu verbessern.

Einige Desktop-und Laptop-Computer-Systeme ermöglichen es dem Benutzer, um einen Kompromiss zwischen Leistung suchen und fahren Lärm zu machen. Schneller suchen Raten erfordern in der Regel mehr Energieverbrauch, um die Köpfe schnell bewegen sich über den Plattenteller, was lauter Geräusche aus dem Schwenklager und einem größeren Gerät Vibrationen, wie die Köpfe schnell während dem Start des Suchbewegung beschleunigt und am Ende der Suchbewegung abgebremst . Leiser Betrieb verringert das Bewegungstempo und Beschleunigungen, aber zu einem Preis von reduzierten suchen Leistung.

Latency

Latenz ist die Verzögerung für die Drehung der Scheibe um die erforderliche Plattensektor unter dem Schreib-Lese-Kopf vorbeigeführt. Es hängt von der Drehzahl einer Platte in Umdrehungen pro Minute gemessen. Durchschnittliche Rotationslatenz ist in der folgenden Tabelle gezeigt ist, basierend auf der statistischen Beziehung, dass die durchschnittliche Wartezeit in Millisekunden für einen solchen Antrieb ist eine Hälfte der Drehperiode.

Datenübertragungsrate

Ab 2010 hat eine typische 7200-rpm-Desktop HDD eine anhaltende "Disk-to-Buffer" Datenübertragungsrate von bis zu 1030 Mbit / s. Diese Rate ist abhängig von der Spurposition; die Rate höher ist für Daten auf den äußeren Spuren und unteren zu den inneren Spuren; und ist im allgemeinen für 10.000 rpm Antriebe etwas höher. Eine aktuelle weit verbreiteter Standard für den "Puffer-zu-Computer" Interface ist 3,0 Gbit / s-SATA, die aus dem Puffer an den Computer senden kann etwa 300 Megabyte / s und ist somit noch bequem im Vorfeld der heutigen Disk-to-Puffer Übertragungsraten. Datenübertragungsrate kann durch das Schreiben einer großen Datei auf die Festplatte mit Hilfe spezieller Dateigenerator Werkzeuge, dann wieder das Lesen der Datei gemessen werden. Übertragungsrate kann durch Dateisystemfragmentation und der Anordnung der Dateien beeinflussen.

HDD Datenübertragungsrate hängt von der Drehgeschwindigkeit der Platten und der Datenaufzeichnungsdichte. Da Wärme und Vibrationsgrenzdrehzahl, voran Dichte wird die Hauptmethode, um sequentielle Transferraten zu verbessern. Höhere Geschwindigkeiten erfordern einen stärkeren Spindelmotor, die mehr Wärme erzeugt. Während die Flächendichte Fortschritte durch Erhöhung sowohl der Anzahl von Spuren, über die Platte, und die Anzahl der Sektoren pro Spur, erhöht nur letztere die Datenübertragungsrate für einen gegebenen Drehzahl. Da die Datenübertragungsrate die Leistung nur Spuren einer der beiden Komponenten der Flächendichte, seine Leistung verbessert zu einem niedrigeren Zinssatz.

Weitere Überlegungen

Andere Leistungsinformationen beinhalten Stromverbrauch, kein hörbarerOise, und Stoßfestigkeit.

Zugang und Schnittstellen

Festplatten werden über eine von einer Reihe von Bus-Typen, darunter ab 2011 parallel ATA, Serial ATA, SCSI, Serial Attached SCSI und Fibre Channel abgerufen. Brückenschaltung ist manchmal verwendet, um Festplatten zu den Bussen, mit denen sie nicht nativ kommunizieren können, wie IEEE 1394, USB und SCSI verbinden.

Moderne Festplatten stellen eine konsistente Schnittstelle zum Rest des Computers, egal welche Datencodierungsschema intern verwendet wird. Typischerweise wird ein DSP in der Elektronik im Inneren der Festplatte nimmt die rohen Analogspannungen von dem Lesekopf und nutzt PRML und Reed-Solomon-Fehlerkorrektur, um die Sektorgrenzen und Sektordaten zu decodieren, sendet dann die Daten aus dem Standard-Schnittstelle. Das DSP-Uhren auch durch Fehlererkennung und -korrektur ermittelte Fehlerquote und führt schlechte Sektor Remapping, Datensammlung für Self-Monitoring, Analysis, and Reporting Technology, und andere interne Aufgaben.

Moderne Schnittstellen schließen Sie eine Festplatte auf einem Host-Bus-Schnittstellenadapter mit einem Daten- / Steuerkabel. Für jedes Laufwerk auch einen zusätzlichen Stromkabel, in der Regel direkt an das Netzteil an.

  • Small Computer System Interface, ursprünglich SASI für Shugart Associates System Interface, war Standard für Server, Workstations, Commodore Amiga, Atari ST und Apple Macintosh-Computer durch die Mitte der 1990er Jahre, in welcher Zeit die meisten Modelle waren auf IDE Festplatten-Familie überführt worden. Die Bereichseinschränkungen von dem Datenkabel ermöglicht die externe SCSI-Geräte.
  • Integrated Drive Electronics, später unter dem Namen AT Attachment nachträglich bei Einführung SATA hinzugefügt standardisiert) bewegt den HDD-Controller aus der Schnittstellenkarte auf die Festplatte. Dies trug dazu bei, den Host / Controller-Schnittstelle vereinheitlichen, reduzieren den Programmieraufwand im Host-Gerätetreiber, und reduzierte Systemkosten und Komplexität. Die 40-pin IDE / ATA-Anschluss werden 16 Bit Daten zu einer Zeit auf dem Datenkabel. Das Datenkabel ursprünglich 40-Leiter, aber später höhere Geschwindigkeitsanforderungen für die Datenübertragung zu und von der Festplatte führte zu einem "Ultra-DMA" -Modus als UDMA bekannt. Progressiv schnellere Versionen dieses Standards letztlich fügte der Forderung nach einer 80-adriges Variante des gleichen Kabel, wo die Hälfte der Leiter bietet Erdung für eine verbesserte Hochgeschwindigkeits-Signalqualität erforderlich, indem ein Übersprechen.
  • EIDE war eine inoffizielle Update auf die ursprüngliche IDE-Standard, mit der Schlüssel Verbesserung wobei die Verwendung von direkten Speicherzugriff, um Daten zwischen der Scheibe und dem Computer ohne Beteiligung der CPU, eine Verbesserung später von den offiziellen ATA Standards verabschiedet übertragen. Durch die direkte Übertragung von Daten zwischen Speicher und Festplatte, eliminiert DMA die Notwendigkeit für die CPU, um Byte für Byte zu kopieren, damit so dass sie, um andere Aufgaben zu verarbeiten, während die Datenübertragung stattfindet.
  • Fibre Channel ist ein Nachfolger von SCSI-Schnittstelle auf Enterprise-Markt parallel. Es ist ein serielles Protokoll. In Plattenlaufwerke in der Regel die Fibre Channel Arbitrated Loop Verbindungstopologie verwendet wird. FC hat viel breitere Nutzung als reine Plattenschnittstellen, und es ist der Grundstein für Storage Area Networks. Kürzlich andere Protokolle für dieses Feld, wie iSCSI und ATA over Ethernet haben auch entwickelt worden. Verwirrend, Antriebe in der Regel verwenden Kupfer-Twisted-Pair-Kabel für Fibre Channel, keine Faseroptik. Letztere sind gewöhnlich für große Geräte, wie beispielsweise Server oder Plattenarray-Controller reserviert.
  • Serial Attached SCSI. Die SAS ist eine neue Generation serielles Kommunikationsprotokoll für Geräte entwickelt, um für viel höhere Datenübertragungsraten zu ermöglichen und ist mit SATA kompatibel. SAS verwendet einen mechanisch identischen Daten und Stromanschluss an Standard 3,5-Zoll SATA1 / SATA2-Festplatten, und viele serverorientierte SAS-RAID-Controller sind auch in der Lage Adressierung SATA-Festplatten. SAS nutzt die serielle Kommunikation statt der parallelen Verfahren in den traditionellen SCSI-Geräte gefunden, aber immer noch verwendet SCSI-Befehle.
  • Serial ATA. Das SATA-Datenkabel hat ein Datenpaar zur differentiellen Datenübertragung an das Gerät, und ein Paar zum Empfangen von der Differentialvorrichtung, so wie EIA-422. Das setzt voraus, dass Daten seriell übertragen werden. Eine ähnliche Differential Signaling System ist in RS485 verwendet, Localtalk, USB, FireWire, und Differential SCSI.

Integrität und Versagen

Aufgrund der extrem geringen Abstand zwischen den Köpfen und der Plattenoberfläche, sind Festplatten anfällig für die von einem Kopf beschädigt Absturz ein Versagen der Festplatte, in dem die Kopf Kratzer auf der Plattenteller Oberfläche, oft Abschleifen der dünnen magnetischen Schicht und verursacht Datenverlust . Kopf stürzt durch elektronische Versagen, einem plötzlichen Stromausfall, Erschütterungen, Verunreinigung der inneren Gehäuse des Laufwerks, Verschleiß, Korrosion oder schlecht hergestellten Platten und Köpfen verursacht werden.

Die Festplatten Spindelsystem stützt sich auf die Luftdichte im Inneren des Plattengehäuse, um die Köpfe in ihre richtige Flughöhe zu unterstützen, während die Scheibe dreht. Festplatten benötigen eine bestimmte Reihe von Luftdichten, um richtig zu arbeiten. Die Verbindung zu der äußeren Umgebung und der Dichte tritt durch eine kleine Öffnung im Gehäuse, in der Regel mit einem Filter an der Innenseite. Wenn die Dichte der Luft zu niedrig ist, dann gibt es nicht genügend Auftrieb für den fliegenden Kopf, so dass der Kopf zu nahe an der Platte, und es besteht ein Risiko von Kopfabstürze und Datenverlust. Speziell gefertigte verschlossen und Festplatten werden für eine zuverlässige Höhen-Betrieb benötigt wird, oberhalb von etwa 3000 m. Moderne Festplatten sind Temperatursensoren und stellen ihren Betrieb an die Betriebsumgebung. Entlüftungslöcher können auf allen Festplatten zu sehen ist sie in der Regel einen Aufkleber neben ihnen, der Benutzer gewarnt wird nicht, um die Löcher zu bedecken. Die Luft im Inneren des Betriebs Laufwerk ist ständig in Bewegung zu, in Bewegung durch Reibung mit den Spinn Platten gefegt. Diese Luft strömt durch eine interne Umluftfilter, übrig gebliebene Verunreinigungen aus der Herstellung, keine Partikel oder Chemikalien, die das Gehäuse irgendwie eingegeben haben können, zu entfernen und alle Partikel oder Ausgasen im Normalbetrieb intern erzeugt. Sehr hohe Luftfeuchtigkeit für längere Zeit kann die Köpfe und Platten korrodieren vorhanden.

Für Riesenmagnetoköpfe insbesondere eine kleine Head-Crash von Verunreinigungen immer noch zu den Kopf vorübergehend Überhitzung, aufgrund der Reibung mit der Plattenoberfläche, und kann die Daten nicht lesbar für einen kurzen Zeitraum, bis die Kopftemperatur stabilisiert rendern.

Wenn die Hauptplatine der Festplatte ausfällt, kann der Antrieb oft funktionierenden Ordnung und die durch Austausch der Leiterplatte eines eines identischen Festplatte wiederhergestellten Daten wieder hergestellt werden. Im Fall des Schreib-Lese-Kopf Fehler können sie mit Spezialwerkzeugen in einer staubfreien Umgebung ersetzt werden. Wenn die Festplatte Platten unbeschädigt sind, können sie in einem identischen Gehäuse übertragen werden und die Daten können kopiert oder geklont werden auf eine neue Festplatte. Im Falle eines scheiben platter Defekt, De- und Abbildung und Scheiben können erforderlich sein. Für logische Schäden an Dateisystemen eine Vielzahl von Werkzeugen, einschließlich fsck auf Unix-ähnlichen Systemen und CHKDSK unter Windows, können Sie für die Datenwiederherstellung verwendet werden. Erholung von logischen Schäden können Datei carving erforderlich.

Eine gemeinsame Erwartung ist, dass Festplatten für Server-Einsatz konzipiert werden weniger häufig nicht als Verbraucher-Grade-Laufwerke in der Regel in Desktop-Computern verwendet. Eine Studie der Carnegie Mellon University und ein unabhängiger einem von Google sowohl gestellt, dass die "Klasse" des Antriebes nicht zu Ausfallrate des Laufwerks beziehen.

A 2011 Zusammenfassung der Erforschung von SSD und Magnetplattenfehlermuster von Toms Hardware zusammengefasst Forschungsergebnisse wie folgt:

  • MTBF bedeutet nicht, Zuverlässigkeit; die annualisierte Ausfallrate ist höher und in der Regel mehr relevant.
  • Magnetplatten nicht über eine bestimmte Tendenz, während der frühen Nutzung scheitern, und die Temperatur hat nur einen geringen Einfluss; stattdessen Ausfallraten stetig steigen mit dem Alter.
  • S.M.A.R.T. warnt vor mechanischen Probleme, aber keine anderen Themen, die Zuverlässigkeit und ist daher kein verlässlicher Indikator für die Bedingung.
  • Ausfallraten von Laufwerken als "Unternehmen" und "Verbraucher" verkauft werden, sind "sehr ähnlich", wenn auch für die verschiedenen Umgebungen angepasst werden.
  • In Drive Arrays, Ausfall eines Laufwerks erhöht die kurzfristige Chance auf eine zweite Antriebs Versagen.

Marktsegmente

Hersteller und Vertrieb

Mehr als 200 Unternehmen haben Festplatten mit der Zeit gefertigt. Western Digital, Seagate und Toshiba: Aber Konsolidierungen haben die Produktion in nur drei Hersteller heute konzentriert.

Weltweit Einnahmen für Plattenspeicher waren 32 Mrd. $ im Jahr 2013 um etwa 3% gegenüber 2012. Dies entspricht Sendungen von 552 Millionen Einheiten im Jahr 2013 im Vergleich zu 578 Millionen im Jahr 2012 und 622 Millionen im Jahr 2011. Der geschätzte 2013 Marktanteile sind etwa 40-45 % jeweils für Seagate und Western Digital und 13-16% für Toshiba.

Externe Festplatten

Externe Festplatten zu verbinden in der Regel über USB; Varianten mit USB 2.0-Schnittstelle haben in der Regel langsamere Datenübertragungsraten im Vergleich zu Festplatten intern über SATA verbunden ist. Plug-and-Play-Funktionalität bietet Antriebssystemkompatibilität und verfügt über große Speicheroptionen und tragbaren Design.

Externe Festplatten sind in der Regel als vormontierte integrierte Produkte erhältlich, können aber auch durch die Kombination einer äußeren Hülle mit einem separat gekauft HDD montiert werden. Sie sind erhältlich in 2,5-Zoll und 3,5-Zoll-Größen; 2,5-Zoll-Varianten werden in der Regel als portable externe Festplatten, während 3,5-Zoll-Varianten werden als Desktop externe Laufwerke bezeichnet. "Portable" Laufwerke werden in kleineren und leichteren Gehäuse als die "Desktop" Platten verpackt; zusätzlich "portable" Laufwerke verwenden Macht durch die USB-Verbindung zur Verfügung gestellt, während "Desktop" Laufwerke erfordern externe Strom Ziegeln.

Ab April 2014 Kapazitäten von externen Festplatten reichen im Allgemeinen von 160 GB bis 6 TB; gängigen Größen sind 160 GB, 250 GB, 320 GB, 500 GB, 640 GB, 750 GB, 1 TB, 2 TB, 3 TB, 4 TB, 5 TB und 6 TB. Features wie biometrische Sicherheit oder mehrere Schnittstellen zur Verfügung zu höheren Kosten.

Es gibt vormontiert externen Festplatten, die, wenn aus ihren Gehäusen entnommen, nicht intern in einem Laptop oder Desktop-Computer durch eingebettete USB-Schnittstelle auf den Leiterplatten verwendet werden, und das Fehlen von SATA-Schnittstellen.

Icons

Festplatten werden traditionell als eine stilisierte Stapel von Platten oder als Zylinder symbolisiert und in Diagrammen festgestellt, oder leuchtet, um Festplattenzugriff anzuzeigen. In den meisten modernen Betriebssystemen werden Festplatten durch eine Illustration oder Fotografie der Laufwerksgehäuse vertreten.

(0)
(0)
Kommentare - 0
Keine Kommentare

Fügen Sie einen Kommentar

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Zeichen übrig: 3000
captcha