Ansichten eines Informatikers

Random Read Operations (4kB) : up to 70,000 IOPS

Hadmut
2.8.2014 14:01

Ah, ja.

Vorhin ist mir im Elektronik-Markt eine vergleichsweise günstige SSD mit 480GB aufgefallen (sowas um die 169 oder 179 Euro), darauf aber kein Wort zur Geschwindigkeit.

Faktisch ist das mit der Geschwindigkeit von SSDs so eine Sache. Denn bei den allermeisten Anwendungen spielt sie keine oder fast keine Rolle. Wenn’s nicht gerade um Datenbanken, High-Speed-Fileserver, streaming-Server oder turboschnelle Netsniffer geht, ist das eigentlich belanglos, und sowieso schneller als eine normale Festplatte. Für gewöhnlich kann man da zur langsameren greifen, wenn sie billiger ist. Der Wertverfall der SSDs ist das größere Problem. Zumal auch die SSD-Geschwindigkeiten meist von der Lese-/Schreibmethode (bzw. Reihenfolge) abhängen, insofern eh nur ein Grenzwert sind. Wenn schon so ein „up to” oder „bis zu” dransteht, fühle ich mich immer an die DSL-Provider erinnert, die die Geschwindigkeiten ihrer Anschlüsse mit „bis zu” bewerben, gerade so, als sollten sie nicht Durchsatz, sondern nur die Obergrenze garantieren und sicherstellen, dass auf keinen Fall mehr als das durchgeht.

Nun mal aus Neugierde auf der Webseite des Herstellers geguckt, und dann steht da

PERFORMANCE
Random Read Operations (4kB) : up to 70,000 IOPS
Random Write Operations (4kB) : up to 70,000 IOPS

Also so, dass garantiert kaum ein Kunde in der Lage (oder bezüglich der Umrechnung willens) ist, das mit anderen SSDs zu vergleichen.

Rechnet man das mal durch, nämlich 70.000 * 4096 Byte pro Sekunde, kommt man auf 286720000, also 286 MB (bzw. 273 MB, wenn man mit Zweierpotenzen rechnet), was ein vergleichsweiser lahmer Durchsatz ist, und das ist ja nur die Obergrenze. Realität also noch deutlich drunter. Kein Wunder, dass sie das nicht so explizit dranschreiben.

Kurioserweise habe ich das nun aber auch bei anderen Herstellern entdeckt: Da, wo sie schnell sind (sequentielles Lesen und Schreiben) geben sie MB/Sek an (natürlich mit Zehnerpotenzen als Grundeinheit), damit sie im Vergleich flott dastehen. Da, wo sie nicht so schnell sind und im Bewerberfeld schwach aussehen (zufälliges Lesen und Schreiben), da geben sie dann IOPS (Input/Output Operations per Second) an, und da stört es sie dann auch nicht mehr, dass die sich auf 4K-Sektoren und damit auf Zweierpotenzen beziehen.

Ja, auf Geschwindigkeit kommt es nicht so wirklich an. Aber bei so deutlichen Unterschieden lohnt es sich vielleicht dann doch, ein paar Kröten draufzulegen, wenn man nicht gerade eine Spezialanwendung hat, wo langsame SSD reichen.

32 Kommentare (RSS-Feed)

Joe
2.8.2014 14:34
Kommentarlink

In einem meiner PCs steckt eine SanDisk G25. Die hat laut Datenblatt irgendwo bei 6.000 bis 7.000 IOPS (also eine Zehnerpotenz weniger). Dafür braucht sie weniger Strom.

Macht dann so 25 MB/s random access. Eine 2.5″-Festplatte schafft da mit Müh und Not so ca. 0,25 MB/s, braucht also Faktor 100 länger. Sequentiell sehen wir 500 MB/s vs. 50 MB/s. Was immerhin Faktor 10 ist.

Der PC bedient sich dank der SSD absolut flüssig, trotz der Celeron-CPU.

In einem anderen PC steckt eine Samsung 840. Gibt es einen fühlbaren Performance-Unterschied zwischen den PCs? Nein. Spielen 6k vs 90k IOPS im Desktop-Einsatz eine Rolle? Ebenfalls nein.


Ari
2.8.2014 15:45
Kommentarlink

Ich werde immer bei “up to” hellhörig. Es gab mal eine Werbung mit “bis zu drei Gewinne garantiert”. Das ist bei uns zum geflügelten Wort geworden, wenn mal wieder jemand eine Nullnummer als etwas Positives verkaufen will.


michael
2.8.2014 16:15
Kommentarlink

“bis zu” ist natürlich immer eine Nullaussage wenn es die einzige Angabe ist.

IOPS ist jedoch tatsächlich die relevate Größe wenn es um kleine, verteilte Zugriffe geht. Da die internen Flashblöcke wesentlich größer sind, muß das alles per Read-Modify-Write-Zyklus erledigt werden. Die gleiche Platte würde ähnliche IOPS-Zahlen auch mit doppelt so großen geschriebenen Blöcken erreichen – einfach weil es egal ist, ob bei einem 128k-Read-Modify-Write-Zyklus 4k oder 8k ausgetauscht werden müssen.

Übrigens geben alle Hersteller die Geschwindigkeit bei Wahlfreiem Zugriff in IOPS an – Vergleiche sind also sehr einfach möglich.


hans wurscht
2.8.2014 17:11
Kommentarlink

Bei Platten oder SSDs schaue ich nur auf eines: sind die Dinger zuverlässig, wenn man da dann in Foren recherchiert bleiben nur wenige Hersteller: Intel, Samsung, ein anderer Hersteller von Flashchips der SSDs unter Eigennamen verkauft und vielleicht noch Kingston.
So überzüchteter Schrott wie OCZ oder uralt-SSDs die extrem lahm sind lässt man besser die Finger, ausser man hat zu viel Zeit und die Daten und Zeit sind nix wert. Wenn man Glück hat ist in so einer Noname-Billigmarke auch was ordentliches verbaut aber das weiss man vorher nicht, zudem kommt dann noch der Controller, Firmware,… der Müll sein kann.

Nein, bei Platten/SSDs gehe ich auf Nummer sicher.


Uwe
2.8.2014 18:10
Kommentarlink

Rechnet man das mal durch, nämlich 70.000 * 4096 Byte pro Sekunde, kommt man auf 286720000, also 286 MB (bzw. 273 MB, wenn man mit Zweierpotenzen rechnet),
@Hadmut
Weil du hier extra erwähnst, dass sich die eine Größenangabe in Zweierpotenzen ergibt, hälst du von der dafür geschaffenen Schreibweise nichts? (MebiByte, MiB)


Hadmut
2.8.2014 19:02
Kommentarlink

> hälst du von der dafür geschaffenen Schreibweise nichts? (MebiByte, MiB)

Nein, weil sie keine Sau kennt und deshalb keiner weiß, wovon man redet. Ist mir in der beruflichen Praxis bisher auch nur sehr, sehr selten begegnet.

Ich neige auch immer noch dazu, die Breite meiner Festplatten in Zoll und nicht in Zentimeter zu bemessen.


Eldoran
2.8.2014 18:20
Kommentarlink

Naja, für eine consumer SSD sind das gar kein keine so schlechten Werte. Da schlägt auch die überdurchschnittliche Größe durch (grösser als 250GB).

(jeweils die iops – die sind bei allen Herstellern “up to”):

intel 730 (480GB): 89,000 / 74,000
samsung 850 pro: 100,000 / 90,000
OCZ Vector (480GB): 100,000 / 95,000
samsung 840 evo (500GB): 98,000 / 90,000
crucial MX 100 (512GB): 90,000 / 85,000

Wobei in der Praxis natürlich deutlich niedrigere Werte möglich sind (hängt von einem Haufen Faktoren ab und mit den hier erwähnten Daten ist das natürlich kaum abschätzbar).

Gerade bei billig SSDs kommt noch dazu, dass die teilweise nicht einmal gleiche Hardware unter dem selben Produktnamen & Preis verkaufen…

Und apropos “langsam” – je nach Revision von SATA ist das auch hart an der Grenze des technisch machbaren (oder darüber).

Nur so nebenbei – bei der guten alten festplatte ist ja auch das jeweilige Zugriffsmuster durchaus ein relevanter Faktor bezüglich des Datendurchsatzes. Das wird ja sogar in Zukunft noch wichtiger werden mit Shingled Magnetic Recording, oder auch nur das aktuelle Advanced Format hat da durchaus spezifische Auswirkungen.


prx
2.8.2014 18:37
Kommentarlink

Dem Heimanwender kann es schnurz sein, ob die SSD 40K oder 70K solcher 4K Transaktionen kann, weil er sowieso beides nie sehen wird. Denn eine solche Transaktionsrate kriegt man bei Heimanwendungen nur per Benchmarkprogramm zustande, nie mit realen Programmen. Die Transferrate hingegen kriegt man hin.

Andererseits werden professionelle SAN/NAS-Systeme der besseren Sorte üblicherweise mit Transaktionen pro Sekunde beworben, weil das bei denen der vergleichsweise wichtigere Wert ist. Eine Disk-Transaktion hat bestimmte Kosten, und bei eher kleiner pro Transaktion übertragener Datenmenge sind die Kosten der Transaktion nur gering von der exakten Grösse abhängig.


prx
2.8.2014 18:41
Kommentarlink

Wenn eine Disk 40K 4K-Transaktionen kann, dann sind das 40K einzelne Transaktionen mit 4KB Requests. Sequentieller Transfer verwendet aber keine 4KB Requests, sondern vielleicht 64KB Requests, und kann damit weit über diese 280MB/s kommen, ist oft durch die SATA Rate begrenzt.


Hadmut
2.8.2014 19:00
Kommentarlink

@prx: Umso wichtiger wäre es, dass sie da mal Klartext reden.


Alex Schwarzer
2.8.2014 18:43
Kommentarlink

Unsere Regierung bekommt es ja dank exzessiver Lobbyarbeit seit Jahrzehnten nicht hin die Hersteller zu einer eindeutigen Angabe zu verpflichten. “Man könne den Kunden dadurch verwirren”, heißt es dazu aus dem Verbraucherschutzministerium.

Ja, der wäre sicher verwirrt wenn er plötzlich statt DSL 32000 ab 19.95€ nur DSL 3875 für 658,80€ bekommt.

Gleiches gilt für Festplatten. Solch ein Müll wäre dann von einem Tag auf den anderen unverkäuflich.


prx
2.8.2014 20:12
Kommentarlink

Wie könnte so ein Klartext aussehen? Die Transferrate, zumal die schreibende, ist von derart vielen Faktoren abhängig, dass man ein exakt spezifiziertes Testszenario festlegen müsste. Und bis ein Gremium sich auf sowas geeinigt hätte wären SSDs Schnee von gestern.


prx
2.8.2014 20:13
Kommentarlink

Sorry, ich meinte Transaktionsrate. Also:

Wie könnte so ein Klartext aussehen? Die Transaktionsrate, zumal die schreibende, ist von derart vielen Faktoren abhängig, dass man ein exakt spezifiziertes Testszenario festlegen müsste. Und bis ein Gremium sich auf sowas geeinigt hätte wären SSDs Schnee von gestern.


Michael
2.8.2014 20:25
Kommentarlink

Bei Festplatte, wo im Hausgebrauch genau zwei Grössen wichtig sind (3.5 und 2.5), da ist Zoll eher eine kategorisierende Grösse als eine Längenangabe. Bei den Platten (Musik, lalala etc.) ist es doch genau gleich.

Hingegen ist es im Verkauf immer noch sehr ärgerlich, dass die Festplatten 10er und Windows zweier im Angebot hat. Dann gibt es mehr als genug Kunden, die reklamieren. Aber wenn es immer noch deren Leute gibt, die heuer weder Linux noch Windows 8 gesehen haben, dann ist das glaub ich ganz normal.


maSu
2.8.2014 21:15
Kommentarlink

hachja… noch eine Sache bei der SSDs besser sind: Alle Anwendungen, die größere Datenmengen laden müssen. Nicht nur Datenbanken, auch Videobearbeitung und auch so belanglose Sachen wie Videospiele profitieren massiv(!) von SSDs. Insgesamt kann eine (gute!) SSD das ganze System bedeutend schneller machen.

Natürlich ist es sinnvoll das Kleingedruckte zu lesen und zu verstehen.

Für den Heimanwender sind SSDs gerade in Notebooks ideal. Natürlich haben SSDs in einem NAS wenig zu suchen. Gerade zB Videokameras ihre Daten auf das(den?) NAS schieben, dann sind SSDs da tödlich, da ihre Lebensdauer bei einem konstant hohen Datendurchsatz enorm leidet.

Das erste was ich mittlerweile bei Notebooks mache: HDD gegen SSD tauschen. Der Akku hält länger und alles läuft bedeutend schneller.


Knut
2.8.2014 21:57
Kommentarlink

Du scheinst den Wert IOPS nicht zu kennen.
Zum Vergleich : Rotierende Medien haben zwischen 80 und 400 IOPS
Da fehlt tatsächlich kein 1000 er !
Ein fetziges NAS kann in den 10000er Bereich kommen.
Da ist alles was da drüber ist schon Klagen auf Extremniveau.


Alice
3.8.2014 0:21
Kommentarlink

Kleine Besserwisserei am Rande:

Die 3.5 Zoll Festplatte ist in Wirklichkeit 95mm. Alles metrisch. Genau wie bei der 3.5 Zoll Floppy, die ist glaube ich 90 mm.

Die Größe von Festplatten wurde immer schon in Zehnerpotenzen gemessen, und die Übertragungsrate auch.
Die Zweierpotenzen sind nur bei Software und RAM üblich.

Alles nicht-metrische verstößt gegen das Gesetz über die Einheiten im Messwesen.
Wenn eine Firma das anders handhabt, dann viel Spaß beim Abmahnen.


Hadmut
3.8.2014 0:30
Kommentarlink

> Die 3.5 Zoll Festplatte ist in Wirklichkeit 95mm. Alles metrisch. Genau wie bei der 3.5 Zoll Floppy, die ist glaube ich 90 mm.

Nein. Die Amis mögen metrisch nicht, warum sollten sie metrisch entwickeln?

Die Angabe 3,5 Zoll bezieht sich auf den Durchmesser der Scheibe, nicht auf die Gehäuse-Größe. Tatsächlich nämlich ist der Schacht exakt 4 Zoll breit = 10,16 cm. Damit man die Festplatte aber leicht in den Schacht schieben kann und nicht gewaltsam drücken muss oder an Toleranzen hängen bleibt, sind die Festplatten in der Realität so ungefähr 3,98 bis 3,99 Zoll breit.

Siehe auch

http://en.wikipedia.org/wiki/Drive_bay#3.5.E2.80.B3


Joe
3.8.2014 1:24
Kommentarlink

Nein. Die Amis mögen metrisch nicht, warum sollten sie metrisch entwickeln?

Alle Floppies sind innen metrisch: 300 mm, 200 mm, 130 mm, 90 mm. Daran war maßgeblich IBM beteiligt und rate mal wofür das “I” im Namen steht.

Bei Laufwerken sieht es wieder anders aus, deren Formfaktoren gehen glaube ich auf die amerikanische Firma Shugart zurück. Aber die heutigen Formfaktoren werden von der SFF festgelegt und die schreibt:

The dimensioning conventions are described in ASME-Y14.5M, Geometric Dimensioning and Tolerancing. All dimensions are in millimeters, which are the controlling dimensional units (if inches are supplied, they are for guidance only).

ftp://ftp.seagate.com/pub/sff/SFF-8200.PDF

Die Millimeterangaben sind also verbindlich. In dem Dokument zeigt sich auch, daß die heutigen Formfaktoren ein bunter Mischmasch aus historischen Inchbrüchen und glatten metrischen Maßen darstellen.

Die Angabe “3,5 in” benutzt man strenggenommen eigentlich nicht, weil man Inchbruchteile eigentlich nur als rationalen Bruch aufschreibt (3 1/2 “), da eine dezimale Teilung des Inches nicht vorgesehen ist.


Hanz Moser
3.8.2014 1:38
Kommentarlink

@ maSu

Dass SSDs bei ein bisschen Schreiblast gleich kaputt waeren ist eine Maer. Irgendeine US Seite, ich glaube es war Techreport, hat stinknormale Consumerplatten gefoltert. Ich weiss nicht was der aktuelle Stand ist, die Marke von einem halben Petabyte haben noch alle namhaften Platten problemlos geknackt.

So ziemlich alles was nicht kontinuierlich extremste Schreiblast erzeugt stellt fuer SSDs kein Problem dar. Selbst semiprofessioneller Videoschnitt tut das nicht.

@ Hadmut
IOPS bei 4k gehoeren zu den Standardangaben bei SSDs. Das kann ein Kunde sehr gut vergleichen, auch wenn die Angaben natuerlich das Maximum unter idealen Bedingungen beschreiben. Die notwendige Wartenschlangenlaenge fuer den maximalen IOPS Durchsatz willst du auch nicht an einem Desktop haben, das ist nicht mehr fluessig. Deswegen sind auch schon Seiten auf die Idee gekommen, durchschnittliche und Worst Case Latenz fuer Zugriffe bei desktoptypischeren Szenarien zu testen.
Unterm Strich sind die Zahlen bei SSDs auch nicht wesentlich hilfreicher oder nutzloser als bei normalen Festplatten.

Die Obergrenze bei der Transferrate erreichst du auch nicht durch Multiplikation der IOPS bei 4k mit 4k. Wie bereits vorher erwaehnt sind 4k Schreib-/Lesezugriffe nicht ideal. Wenn du dir eine beliebige Seite suchst, die fuer einen Test die ueblichen Standardbenchmarks verwendet, kommt bspw. eine Intel 335 mit 240GB auf rund 50k IOPS (bei 4k), liest aber problemlos sequentiell mit ueber 500MB/s und schreibt noch mit ueber 300 MB/s.
Ueber 250 MB/s bei 4k wahlfreiem Zugriff sind uebrigens fuer eine Consumerplatte nicht lahm.

Im Vergleich zu frueher lassen die in Richtung Informatik/IT orientierten Artikel ein bisschen zu wuenschen uebrig. Die Beschaeftigung mit dem Feminismus fordert da wohl ihren Tribut.


Hadmut
3.8.2014 10:26
Kommentarlink

@Hanz: Umso wichtiger wäre es, konkretere Daten anzugeben.

> Im Vergleich zu frueher lassen die in Richtung Informatik/IT orientierten Artikel ein bisschen zu wuenschen uebrig. Die Beschaeftigung mit dem Feminismus fordert da wohl ihren Tribut.

Gut möglich. Man kann nicht alles machen, auch mein Tag hat nur 24 Stunden.


Manfred P.
3.8.2014 1:48
Kommentarlink

> Nein. Die Amis mögen metrisch nicht, warum sollten sie metrisch entwickeln?

Tja, und dann kracht einem die Mars-Sonde in den Boden und macht einen hübschen Krater:

http://edition.cnn.com/TECH/space/9909/30/mars.metric.02/

(CNN) — NASA lost a $125 million Mars orbiter because a Lockheed Martin engineering team used English units of measurement while the agency’s team used the more conventional metric system for a key spacecraft operation, according to a review finding released Thursday.


maSu
3.8.2014 3:11
Kommentarlink

Knut: stimmt … hier evt. mal ein hilfreicher Artikel:
http://de.wikipedia.org/wiki/Input/Output_operations_Per_Second

😉

Ich muss leider ein bestimmtes Notebook benutzen, da ist eine SSD und eine HDD drin (für eine zweite SSD hatte da keiner mehr Geld/Lust…whatever) und die HDD ist quasi unbrauchbar, wenn man täglich größere Datenpakete (80gb) verschieben muss. Klar, die Verschlüsselung kann das auch träge machen, dennoch ist die SSD mehr als 5x so schnell beim normalen kopieren und ich denke, dass das Limit der SSD noch nicht erreicht wurde, es also eher an der Zielfestplatte liegt 😉


yasar
3.8.2014 5:45
Kommentarlink

@Alice

Du bist offensichtlich zu jung, um die ursprünglichen Maße mitbekommen zu haben.

Alle Längenangaben in der Computerei wurden ursprünglich immer in Zoll angegeben. Auf metrische Angaben wechselte man als findige Anwälte angefanegn haben wegen der zoll-Angaben Händler abzumahnen.

Und Speicherkapazitäten und deren transferrate beruhte imemr auf zweierpotenzen, bis marktingleute gemerkt haben, wie man mit der Angabe in 10er-Potenzen schwindeln kann.


Hanz Moser
3.8.2014 11:24
Kommentarlink

@ Hadmut

Was willst du denn als konkrete Daten angeben?
Bei Festplatten bekommst du idr auch nur Drehzahl, da teilweise auch nur in Marketingsprech, eine je nach Hersteller anders berechnete Zugriffszeit und eine maximale Transferrate, bei der du nicht weisst, ob sie am Anfang oder am Ende der Platte gemessen wurde – ob die Angabe Base10 oder Base2 ist musst du auch im Kleingedruckten nachschlagen.

Bei SSDs bekommt man da teilweise mehr Infos im Datenblatt.
Das Problem ist auch, dass eine SSD eine Art State Machine ist. Je nach dem welche Daten in welcher Reihenfolge vorher geschrieben wurden verhaelt sie sich (leicht) anders. Im Besonderen spielt es eine Rolle, wie voll die Platte ist. Das Problem schlechter werdender Performance bei nahezu vollem Laufwerk durch Fragmentierung kennt man, bei SSDs passiert quasi dasselbe im Laufwerk selbst. Wenn die Platte fast voll ist lassen sich Schreibvorgaenge evtl. nicht mehr auf alle Flashkanaele gleichmaessig verteilen oder es muessen vorhandene Daten umkopiert werden, weil Flashbloecke fuer kleinere Zugriffe nur teilweise gefuellt wurden. Ein Schreibzugriff heisst dann lesen, loeschen, schreiben, loeschen, schreiben fuer den Controller und das dauert natuerlich erheblich laenger (Latenz) und hat geringeren Durchsatz (IOPS und Transferrate).

Bei normalen Platten ist das ein Problem einer hoeheren Schicht, Dateisystem, und die Platte selbst verhaelt sich unabhaenging von den bereits geschriebenen Daten gleich. Bei einer SSD gibt es eine wesentlich dickere und komplexere Abstraktionsschicht zwischen logischer und physischer (SSD interner) Adresse. Dazu koennen auch noch Artefakte der Garbage Collection kommen, die im Kern obiges Szenario verhindern soll und dementsprechend wie eine Art Online-Defragmentierung im Hintergrund laeuft.

Wenn du jetzt aber auf eine SSD schreibst, sie schaffe 50k IOPS oder 450MB/s, sicherst du das als Eigenschaft zu und je nach oertlicher Rechtslage hat man mehr oder weniger Verstaendnis dafuer, dass das typische oder maximale Werte sind. Sinnvoll zu spezifizieren unter welchen Bedingungen das gilt waere aufwaendig, kaum vergleichbar und falls man sich doch etwas Einheitliches einigen wuerde, wuerde jeder Hersteller auf genau diesen Fall hin die Firmware optimieren damit er die groessten Zahlen im Prospekt hat.
Also nimmt man typischerweise den fabrikneuen Zustand und den besten Wert, den man kriegen kann. Kauft eh jeder nach der groessten Zahl auf der Packung oder in irgend einem Benchmark.

Verschiedene Controller unterscheiden sich auch durchaus deutlich darin, wie sie auf gewisse Szenarien reagieren, bspw. unterschiedliche Warteschlangenlaengen, Mischungen von Blockgroessen etc.
Auch hier wuerde wieder jeder Hersteller exakt das Szenario waehlen, dass die groesste Zahl gibt.

Das Problem ist ergo, dass “konkrete Daten” gar nicht so einfach zu haben sind, zumindest nicht, wenn sie einen wirklichen Wert besitzen sollen. Und verakufen tut man eben auch immer noch mit grossen, nicht mit konkreten, Zahlen…


prx
3.8.2014 15:40
Kommentarlink

> Die Amis mögen metrisch nicht, warum sollten sie metrisch entwickeln?

In der Elektronik gibts mittlerweile ein buntes Gemisch aus zölligen und metrischen Massen. So sind die sehr verbreiteten TQFP Gehäuse metrisch definiert (z.B. 0,8mm, 0,5mm).

Beim Hühnerfutter (wie Widerständen) hat man Gehäusemasse wie 0603 zwar dem Namen nach aus zölligen 6×3 mil abgeleitet, die exakte Massdefinition ist aber metrische 1,6×0,8mm statt zöllige 6,3×3,1mil. Weshalb natürlich jemand auf die Idee kam, auch den Namen metrisch zu machen und es mindestens pro forma deshalb neben dem o.A. zölligen 0603 auch auch ein metrisches 0603 mit 0,6×0,3mm gibt.

Pfostenstecker wiederum werden weiterhin gerne im üblichen 2,54mm/100mil Abstand ausgeführt. Ausser man ist in Asien und findet dort gerne 2,0mm Abstand.

Die archaischen Sub-D Stecker wiederum ergeben weder metrisch noch zöllig irgendeine Logik.


Joe
3.8.2014 16:46
Kommentarlink

wuerde jeder Hersteller auf genau diesen Fall hin die Firmware optimieren damit er die groessten Zahlen im Prospekt hat.

Das passiert doch längst. Samsung baut in die 840 Evo extra einen SLC-Cache ein, um die lineare Schreibleistung in Benchmarks zu erhöhen. Außer zusätzlichem Stromverbrauch und zusätzlichem Fehlerpotential bringt das im reellen Praxiseinsatz, der eben nicht aus linearem Schreiben besteht überhaupt nichts.

Ein ähnliches Benchmark-Opfer sind Festplatten mit winzig kleinem Flash-Cache (8 GB). (Marketingbullshitbegriff “SSHD”). Die sehen in Benchmarks gut aus und lassen einen frisch installierten PC etwas schneller booten. Ansonsten wieder nur zusätzliches Ausfallrisiko durch Kombination der Nachteile von Festplatte und SSD.


Alice
3.8.2014 17:37
Kommentarlink

@yasar

Sorry, ich kann es mir nicht verkneifen:

Du bist offensichtlich zu alt, den teilweisen Wechsel zu metrischen Einheiten mitbekommen zu haben.

Sehr viele Hardwarekomponenten sind heute metrisch, und das seit langer Zeit. Früher waren z.B. Elektronikkomponenten ein Vielfaches von 2.54 mm lang, aber seit etlichen Jahren sind sie fast alle metrisch.

Auch Floppies sind ab der 3.5 Zoll Variante komplett metrisch.
http://homepage.ntlworld.com/jonathan.deboynepollard/FGA/floppy-discs-are-90mm-not-3-and-a-half-inches.html

Die wurden nur so genannt, weil sich niemand in den USA etwas unter Millimetern vorstellen kann.

Die Aussendimensionen der 3.5 “Zoll” Platten sind historisch zoll, incl. der komischen Schrauben, das liegt an der drive bay Spezifikation, die in dem verlinkten Wiki Artikel von Hadmut ist.
Dort steht auch, dass die neueren drive bays teilweise (2.5, Höhe bis exakt 15 mm) und komplett (1.8 “Zoll” = 60×70 mm) metrisch sind.

Hier sind Zeichnungen für eine 3.5 “Zoll” HDD
http://www.seagate.com/staticfiles/support/docs/manual/desktop/Barracuda%207200.14/100686584.pdf
Das einzig zöllige ist die Breite.

Die kleineren Platten (hier eine SSD) haben metrische Dimensionen, Seite 18
http://m.seagate.com/files/www-content/product-content/seagate-laptop-fam/600-ssd/en-us/docs/100722309b.pdf

Da steht auch drin:
One GB equals one billion bytes and 1TB equals one trillion bytes when referring to hard drive capacity.

Das war bei Festplatten im Großen und Ganzen immer schon so.
Es heisst auch abkekürzt 4K Sektor, nicht 4 kB Sektor.
http://en.wikipedia.org/wiki/Binary_prefix

Die Platten in den Festplatten sind ebenso komplett metrisch. Das ist wie mit den Silizium Wafern, in den 70ern hat man die 4 Zoll Größe erreicht, aber da ist nichts zölliges dran, die Wafer sind exakt 100 mm. Es gibt auch keine 6, 8 oder 12 Zoll Wafer, alles metrisch.
Der letzte Wafer, der nicht metrisch war, ist der 3″ Wafer. Es gibt zwei Typen davon, einen zölligen mit 3″ = 76.2 mm , und einen mit exakt 75 oder 76 mm.
Wenn man heute einen 3″ Wafer kauft, dann bekommt man 75 oder 76 mm.

Hier ist z.B. diese Firma, die verkauft Zangen für die Platten, die gibt es in den Größen 48 mm, 65 mm und 95 mm, das sind 1.8, 2.5 oder 3.5 “Zoll”.

http://www.h-square.com/I_HardDisk_Products.html


yasar
3.8.2014 22:05
Kommentarlink

@Alice: man sollt enicht alles glauben, was im Web steht. Außedem waren hat die IEC die disketten nachträglich genormt. Die gab es voher schon zöllig.

Und Du übersiehst, daß die Dinger ursprüglich zöllig definiert wurden u dda man Zoll durchaus linear in metrische Maße umrechnen kann, diese dan speter auch in metrischen Maßen spezifiziert wurden. das ist kein Widerspruch in sich.

Und die Fetsplattenherstelerl blubebrn nur marketinggewäsch, weil sie damit “größere” Platten haben, als tatsächlich vorhanden. ZUmindest wurde unter den technikern konsequent 2^10=1024 als Basis für die umrechnungen zwischen den Größenordnungen genommen udn wird teilweise heute noch so verwendet, trotz SI-Einheiten.


prx
4.8.2014 10:01
Kommentarlink

@yasar: Immerhin waren die Kapazitäten noch nie zöllig, oder?


Eine IOPS-Angabe ist die für den Datenbanker relevante Angabe: Sie gibt an, wie viele Seek-Operationen bzw. wie viele fsync/fdatasync-Operationen pro Sekunde das Medium so schafft. Eine einzelne rotierende Platte schafft ohne weitere Unterstützung schafft zwischen 125 und 200 IOPS. SSD sind da eine große Hilfe.

Der begrenzende Faktor ist dabei der Seek bzw die rotational Delay, und das sind beides Werte, die im Bereich von Millisekunden liegen, daher bekommt man von einem rotierenden Medium auch nur hunderte von IOPS. Die Blockgröße der Datenbank (4K, 8K, 16K oder ähnlich) spielt eine untergeordnete Rolle und entsprechend sind auch die MB/s irrelevant (und sehr, sehr klein, der Bus wird sicher nicht saturiert).

Beim Streaming, bei Medienservern und bei Datenbanken, die indexlos arbeiten (also Daat Warehouses, die Hash Joins machen, oder Hadoop-Nodes in der Map-Phase) hat man stattdessen das lineare Durchlesen von Dateien, und interessiert sich eher für MB/s. Dabei muß man jedoch nicht nur die Transferleistung der Platte rechnen, sondern auch im Auge behalten, daß man nicht zu viele Medien an ein Kabel, denselben PCI-Sub-Bus und andere Flaschenhälse hängt.

Je nach Anwendung ist das eine oder das andere Maß wichtiger.

Die schnellste Weise, eine SSD zu zerstören ist nebenbei bemerkt, eine Column-Oriented Database drauf zu hosten: Ein Graphite ohne Write-Cache, ein Cassandra oder eine große Menge kleiner RRD-Dateien erzeugen einen Haufen Writes an unterschiedliche Datei-Enden und führen zu maximaler Write-Amplification in einer SSD. Die Lebensdauer einer Graphite-Whisper-SSD kann unter 2 Monaten liegen.


Hadmut
4.8.2014 18:44
Kommentarlink

> Die Lebensdauer einer Graphite-Whisper-SSD kann unter 2 Monaten liegen.

Erstaunlich. War mir in dieser Schärfe auch nicht bewusst.