Gigabyte

3.4352583586731 (1645)
Geschrieben von bishop 04/03/2009 @ 16:08

Tags : gigabyte, festplatten, computer, high-tech, grafikkarten, mainboards, notebooks, pc-gehäuse

Neueste Nachrichten
Gigabyte mit neuer Luxusmaus GM-M7800S: Gold, Leder & Swarovski-Steine - PC Games Hardware
Mit der GM-M7800S zeigt Gigabyte eine Drahtlos-Maus mit 1.800 dpi, die abseits der technischen Daten durch Verwendung von Gold, Leder und Swarovski-Kristallen eher die stylingbewusste Kundschaft ansprechen soll. Gigabyt GM-M7800S - Luxusobjekt unter...
Superschnelle Panasonic SD Speicherkarten - fotointern.ch
Die Gold-Karten werden in Speichergrössen von vier bis 32 Gigabyte erhätlich sein. Hamburg, Mai 2009 – Zum 1. Juni 2009 löst Panasonic sein SD Speicherkarten-Angebot durch ein komplett neues Sortiment ab. Bei den vollformatigen Karten ersetzen die drei...
PSP Go!: Erste Infos zum neuen Sony-Handheld - COMPUTER BILD
Spiele laden Sie vermutlich vom Online-Marktplatz (Playstation Store) herunter und speichern sie auf dem internen, 16 Gigabyte großen Speicher ab. Zum Start des Taschenspielers soll unter anderem das Rennspiel „Gran Turismo Mobile“ bereitstehen....
Asus schickt sein neues Fliegengewicht in den Ring - WELT ONLINE
Die restlichen Leistungsmerkmale sind Netbook-Standard: 10,1 Zoll-Bildschirm, Intel Atom-Prozessor, 1 Gigabyte Arbeitsspeicher, 160 Gigabyte Festplatte und ein Preis von 399 Euro. Neben WLAN und einem Speicherkarten-Lesegerät hat das 1008 HA auch...
P55-Platinen von Gigabyte mit SATA-III gesichtet - Hard Tecs 4U
Heute sind es zwei Mainboards von Gigabyte mit Intels neuem P55-Chipsatz. Die auffälligsten Merkmale des P55-UD5 und P55-UD4P sind dabei sicherlich die extravaganten Spannungsversorgung für die CPU und der Support für SATA-III....
Apple iPhone 4G: T-Mobile Österreich kündigt 32-Gigabyte-Version an - COMPUTER BILD
Seit einiger Zeit halten sich hartnäckig Gerüchte, wonach die neue Version des Multimedia-Handys iPhone von Apple unter anderem über 32 Gigabyte Speicher verfügen wird. Nun scheint es amtlich zu sein: T-Mobile Österreich hat das Handy bereits im...
Nokia 6730 classic exklusiv bei Vodafone - Onlinekosten.de
Der interne Speicher fasst 48 Megabyte, eine microSD-Speicherkarte mit einer Kapazität von einem Gigabyte ist als Erweiterung im Lieferumfang bereits inklusive. Optional ist eine Erweiterung auf bis zu 16 Gigabyte möglich. An Extras liefert das 6730...
Neues 13,3-Zoll-Notebook von Acer - connect.de
Der Arbeitsspeicher beträgt bis zu vier Gigabyte. Was den Festplattenspeicher anbetrifft, so kann der Nutzer zwischen einem HDD (160 Gigabyte) und einem SSD (keine Größenangabe) wählen. Zum Schutz vor unbefugtem Zugriff ist das Notebook je nach Modell...
ASUS Eee PC 1101HA - Der 11,6-Zoll-Eee PC ist da! - Netbook News
So sind ein Gigabyte RAM und eine 160-Gigabyte-Festplatte verbaut. Was die Anschlüsse betrifft, so ist von drei USB-2.0-Ports, einem Multi-Kartenleser und wahrscheinlich auch den weiteren üblichen Verdächtigen die Rede. Sascha und seine Mitstreiter...
Was die Playstation als Multimedia-Zentrale taugt - WELT ONLINE
Im Internet gibt es die Konsole mit 80-Gigabyte-Festplatte für weniger als 300 Euro. Um bei der Ehefrau gar nicht erst den Verdacht aufkommen zu lassen, man mutiere zum nachtaktiven Gamer, sollte der mit ausgelieferte Dualshock-Controller in der...

Gigabyte Technology

Gigabyte Technology (chin. 技嘉科技, Jìjiā Kējì) ist ein taiwanesischer Hersteller von Computerhardware, der vor allem für seine Mainboards und Grafikkarten bekannt ist. Der Vorsitzende des 1986 gegründeten Unternehmens mit über 6000 Mitarbeitern ist Yeh Pei-Cheng. Gigabyte Technology ist in Deutschland durch die G.B.T. Trading GmbH vertreten.

Das Unternehmen ist heute Hersteller von Mainboards für AMD- und Intel-Prozessoren sowie von ATI- und NVIDIA-Grafikkarten. Des Weiteren stellt Gigabyte Computergehäuse, PC-Netzteile, Kühler, Monitore, Tastaturen, Lautsprecher, Server, Laptops und Desktop-PCs her. Das Unternehmen wurde mehrfach mit Preisen ausgezeichnet.

Aufgrund der Ähnlichkeit mit Micro-Star International wurde mehrfach über eine Fusion beider Unternehmen spekuliert.

Zum Seitenanfang



Solid State Drive

CompactFlash-Karten sind die günstigsten, aber auch kapazitätsärmsten SSDs, die Festplatten ersetzen können – wie hier mit P-ATA-Adapter.

Ein Solid State Drive (SSD, dt. Festkörperlaufwerk), auch Solid State Disk (dt. Festkörperscheibe) genannt, ist ein Speichermedium, das wie eine herkömmliche Festplatte eingebaut und angesprochen werden kann, ohne eine rotierende Scheibe oder andere bewegliche Teile zu enthalten, da nur Halbleiterspeicherbausteine vergleichbar großer Kapazität verwendet werden.

Der englische Begriff solid state in der Geschichte der Elektronik bedeutet, dass keinerlei bewegliche mechanische Teile wie Relais, Röhren usw. verwendet werden, sondern Halbleiterbauteile, die mit Hilfe der Festkörperphysik entwickelt wurden. Insofern erscheint die Bezeichnung paradox, da ein eben gerade ohne bewegliche Teile auskommendes Medium als 'Drive' bzw. 'Disk' angesprochen wird, dies geschieht in Analogie zu anderen Festplatten.

Vorteile eines 'Solid State Drive' sind Robustheit, kurze Zugriffszeiten und niedriger Energieverbrauch. Nachteile sind noch bei Kapazität und Preis zu finden. Wird eine herkömmliche Festplatte mit einem Solid-State-(Zwischen)Speicher ausgestattet bzw. funktionsgleich eingesetzt, spricht man von einer Hybridfestplatte (HHD).

Es gibt zwei Arten verwendeter Speicherchips: einerseits Flash-basierte und andererseits SDRAMs.

Erstere sind besonders energieeffizient und sogar stromunabhängig, wenn es um das Beibehalten des Inhaltes geht. Herstellerseitig werden hier rund 10 Jahre versprochen, bei den konventionellen Festplatten fehlt diese Angabe, da ihre Magnetisierung im Laufe der Zeit nachlässt.

Die SDRAM-Chips ihrerseits sind flüchtig und verbrauchen pro Gigabyte deutlich mehr Energie als eine konventionelle Festplatte. Ihr Vorteil liegt dafür in der extremen Geschwindigkeit. Mitte der 1990er auch als „RAM Disks“ eingeführt, fanden sie von Anfang an Einsatz in Servern, wo auf ihnen Caches, temporäre Dateien und Journale von Datei-, Web-, Datenbank-Servern o. Ä. abgelegt wurden. Sie können als Steckkarte oder auch als Gerät mit emulierter Festplatten-Schnittstelle realisiert sein; oft mit einer Sicherungsbatterie oder eigenem Stromanschluss. Sie haben gegenüber Festplatten eine rund 700-fach geringere Verzögerung, um beliebige Daten aufzufinden, gegenüber der Flash-Technik sind sie 80-fach schneller. Ein zweiter Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind hier auf 0,1 bis 5 Millionen Schreibzyklen begrenzt. Diese Beschränkung gilt jedoch nicht für Lesevorgänge und zudem für jede einzelne Speicherzelle. Eine solche wird bei Verschleiß automatisch gegen eine von rund zwei Prozent Reservezellen ausgetauscht.

Es liegt nahe, die Geschwindigkeit der SDRAMs mit dem Datenerhalt anderer Speichertypen - Festspeicher - zu verbinden. So integrieren manche Hersteller etwa auch eine konventionelle Festplatte in das Gehäuse der SDRAM-SSD, um ein Abbild dieser bei einem Stromausfall zu haben. An dieser Stelle schließt sich der Kreis: denn umgekehrt verfügen konventionelle Festplatten über immer mehr SDRAM- und neuerdings Flashchips als Zwischenspeicher (sog. „Cache“).

Der Wegfall der empfindlichen Motorlagerung und Lese-/Schreibmechanik der Laufwerke mit rotierenden Platten ergibt eine Vervielfachung der Schocktoleranz. Aus gleichem Grund beschleunigt sich das Ansteuern beliebiger Bereiche des Datenträgers. Es genügt ein elektrischer Impuls, statt des Bewegens der Mechanik. Aber auch die Temperaturtoleranz ist größer, ebenso wie deren schnelle Änderung keine Probleme mit sich bringt. Beides qualifiziert SSDs für den mobilen Einsatz. Am häufigsten finden sich die flashbasierten daher in MP3-Playern und USB-Sticks. Da sie zudem weniger Energie verbrauchen als Festplatten, dazu leichter und kleiner sind, werden sie auch für (Sub-)Notebooks interessant. Dort kommt auch zugute, dass ihre Geschwindigkeit nicht vom Formfaktor abhängt – auf kleinen rotierenden Platten dagegen finden pro Umdrehung weniger Daten Platz als auf größeren. Hybridfestplatten und reine SSD-Modelle sind seit 2007 im Handel.

Im stationären Einsatz finden sich eher die SDRAM-basierten SSDs und dies meist weit ab vom Massenmarkt. Ihr Einsatzgebiet sind Anwendungen, die sehr laufwerkslastig arbeiten (Datenbanken, Sortieranwendungen), indem sie wiederholt kleine Datenmengen von verschiedensten Speicherbereichen anfordern. Gern werden diese Laufwerke auch von Entwicklern und Testern benutzt, um die Leistungsfähigkeit von Festplatten-Controllern und -bussen zu messen, da sie diese maximal auslasten. Ihre Geschichte startete 1978, als das Unternehmen StorageTek die „Solid State Disk STK 4305“ auf den Markt brachte, welche kompatibel zum Festkopfplattenspeicher IBM 2305 war und mit Großrechnern vom Typ System/370 benutzt wurde. StorageTek selber benutzt die Bezeichnung „Solid-State Disk“. Aktuell sind hier die RamSan-Laufwerke der Texas Memory Systems zu nennen, die in Form eines Desktopgehäuses die derzeit schnellsten (Massen-)Speicher darstellen. Ihre Preise starten bei 1700 $ pro Gigabyte, ihre Geschwindigkeit liegt beim 30fachen der Flash-SSDs und dem über 300fachen normaler Server-Festplatten.

Aber auch im Bereich der eingebetteten Systeme, in denen es ausschließlich auf den Verzicht der mechanischen Teile ankommt, werden häufig Solid State Drives verwendet. Eine Ein-Chip-Mikrocontrolleranwendung verfügt aus Platz- und Energiegründen häufig erst gar nicht über einen Festplattenanschluss. Stattdessen liegt deren Steuerungsprogramm oder Betriebssystem meist in einem Flash-Chip. Einen solchen hat heutzutage auch jeder neue PC. Dieser fasst unter einem Megabyte und enthält das BIOS.

Weitere Anwendungsgebiete finden sich in sehr elektronikfeindlichen Umgebungen, in denen Schmutz, Erschütterungen, sowie Druckschwankungen, Temperatur und Magnetfelder (Raumfahrt) den Einsatz mechanischer Platten verhindern.

Durch Temposteigerungen und Preisverfall bei den Solid-State- und besonders den Flashspeichern ist damit zu rechnen, dass sie in den nächsten Jahren die konventionelle Festplattentechnik ergänzen und sogar ersetzen, und zwar besonders in mobilen Geräten durch Flashspeicher. So entschloss sich Fujitsu, im 1,8"-Segment nur noch Flashfestplatten zu entwickeln; der Marktforscher iSuppli sagt die Verwendung von Hybrid- oder reinen Flashfestplatten in mindestens jedem zweiten Notebook bis 2009 voraus. Mit einer Ablösung wären gleichzeitig auch zahlreiche Unterscheidungsmerkmale der Hersteller verschwunden. Dazu gehören die entfallenden Punkte Lautstärke und Kühlungsbedarf, aber auch die dann prinzipbedingt sehr ähnliche Schockresistenz, Zugriffszeit und der Energiebedarf. Herstellern bliebe Gestaltungsfreiraum bei Geschwindigkeit, Kapazität und Preis. Aber auch hier sind die bisherigen Produkte gleicher Generationen kaum zu unterscheiden. Diese Situation besteht bereits bei USB-Sticks. Dort wurden daher zusätzliche Eigenschaften eingeführt, etwa beigelegte Software zur Verschlüsselung der Daten oder die Abdichtung des Speichers gegenüber Wasser und Schmutz. Trotz dieser Versuche ist aber mit einer Phase der Fusionen und Allianzen zu rechnen, insbesondere zwischen den heutigen Festplatten- und Flashherstellern. Dies äußerte sich bislang in Aufteilungen von Märkten. So beliefert ein Hersteller nur OEM-Kunden, während er seine Laufwerke anderen Herstellern für den Endkundenmarkt zur Verfügung stellt. Bislang bestehen jedoch deutliche Leistungsunterschiede sowohl zwischen Produkten verschiedener Hersteller, als auch denen gleicher Preisgestaltung.

Bei der Hybridfestplatte (Hybrid Hard Disk) wird eine herkömmliche Festplatte mit einem Solid-State-Speicher kombiniert. Seine nur geringe Größe soll den Mehrpreis auffangen, seine Vorteile aber schon heute einem breiten Markt zugänglich machen. Die Kombination mit DDR-SDRAM bietet vorerst nur ein Hersteller innerhalb Japans und fern des Massenmarktes ab rund 1000 € an. Die DTS „Platinum HDD“ verwendet einen Chip desselben Herstellers, der über die Zeit lernen soll, welche Inhalte sich für den schnellen Zwischenspeicher empfehlen. Dieser behält durch einen Kondensator seine Daten bis anderthalb Minuten nach Ende der Stromzufuhr und besteht aus einem ein Gigabyte DDR-SDRAM-Modul. Dieses ist mit einer 2,5″-Festplatte in einem 3,5″-Gehäuse untergebracht. Dadurch ist dieser Ansatz nicht für mobile Geräte verwendbar, spart aber ein Drittel der Energie konventioneller 3,5″-Festplatten. Da hier ein Chip die Auswahl übernimmt, beschleunigt dieses Laufwerk jedes Betriebssystem; bei HHDs muss dies das Betriebssystem übernehmen. Bisher leistet dies nur Windows Vista. Im Desktop- und kleinen Serverbereich kann das Laufwerk für Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich übertreffen. Die eingebaute Festplatte fasst zwischen 80 und 200 GB, die kleinste Ausführung kostet rund 900 €. Die Kombination mit Flash ist bereits verfügbar und wird wegen der Unterstützung durch große Hersteller, sowie Mobileignung und Datenerhalt auch zukünftig weiter verbreitet sein. Mit ihr befassen sich daher die folgenden Absätze. Technisch gibt es zwei Umsetzungen. Intel integriert den Flashspeicher nicht in die Festplatte selbst, sondern verwendet wie für den Arbeitsspeicher einen proprietären Anschluss auf dem Mainboard. Damit entsteht eigentlich keine Hybridfestplatte, der erzielte Effekt ist aber derselbe. Dieses Prinzip nennt Intel „Turbo Memory“ . Alle anderen Anbieter dieser Technologie sind Festplattenhersteller und integrieren den Flashspeicher in das Laufwerk selbst – meist 256 MB. Intel verwendet die vier- bis achtfache Kapazität. Ob dies aber einen Praxisvorteil ergibt, ist derzeit nicht abzusehen.

Grundlage beider Varianten ist, dass Flashchips ihre Daten schneller als die Festplatte selbst liefern können. Die in den Festplatten bereits vorhandenen SDRAM-Zwischenspeicher verlieren ihren Inhalt ohne permanente Stromversorgung. Flash ist jedoch beim Schreiben nicht nur langsamer als dieser SDRAM, sondern unterbietet auch die Festplatte selbst. Er ist also kein Ersatz, sondern eine Ergänzung. Eine Datei wird daher auch nicht beim ersten Zugriff, sondern erst nach häufiger Verwendung in den Flashbereich aufgenommen; mitunter auch nur einzelne Bestandteile. Diese werden beim Lesen dann deutlich schneller bereitgestellt, als die Festplatte es könnte. Sie wird nur bei Bedarf – also für selten benutzte Dateien – gestartet. Bei Internet- oder Büroarbeit sind die Hybrid-Konzepte somit oft lautlos und sehr energiesparend (um 0,3 W). Diese beiden Punkte, zusammen mit der im Stillstand höheren Stoßfestigkeit sind ihre Vorteile. Da diese besonders dem Mobileinsatz zugutekommen, werden HHDs bisher nur in 2,5 Zoll gefertigt. Dank des S-ATA-Anschlusses sind sie aber auch im Desktop verwendbar. „Turbo Memory“ dagegen ist nur für Notebooks verfügbar, 2008 soll die zweite Generation dann auch den Desktop erreichen. Intels Lösung ist dabei immer an einen Mainboard-Chipsatz aus gleichem Hause gebunden.

Beide Konzepte benötigen Windows Vista, das bislang als einziges Betriebssystem den Flashbereich mit den meistbenötigten Daten zu bestücken vermag. Alle anderen Betriebssysteme benutzen den Flashbereich nicht. Dort entspricht das Verhalten dem konventioneller Festplatten. Allein der Aufpreis von 20 € bleibt bestehen. Im Folgenden sind die theoretischen Vorteile der Praxis gegenübergestellt.

Flash-Verwendung. HHDs sammeln beim Schreiben zunächst 32 MB an Daten, bevor der Spindelmotor startet. Noch einmal soviel wird den über Sondertasten einiger Tastaturen startbaren Programmen bereitgestellt. Der weitere Bereich steht den meistverwendeten Daten zur Verfügung. „Turbo Memory“ wird stattdessen erst durch einen nachzuinstallierenden Treiber aktiviert, der nicht in Windows Vista enthalten ist. Eine Hälfte des Flashmoduls funktioniert dann wie der einer HHD, die andere wird wie ein schneller Auslagerungsspeicher verwendet (siehe ReadyBoost). Dies beschleunigt PCs mit 1 GB RAM wirksam auf das Niveau einer 2GB-Ausstattung, ist jedoch auch nicht abstellbar, wenn diese bereits vorhanden ist. Ohne Auslagerungsbedarf bleibt also eine Hälfte des Moduls ungenutzt.

Akku-Laufzeit. Um tatsächlich Energie zu sparen, erfordern beide Konzepte manuelle Eingriffe. Da bei „Turbo Memory“ eine konventionelle Festplatte Anwendung findet, wird diese durch die Windows-Energieoptionen heruntergefahren, nicht durch einen HHD-Laufwerkscontroller. Deren Voreinstellung sieht aber eine mehrminütige statt sekündliche Verzögerung nach einem Festplattenzugriff vor. Wird die Einstellung auf „3 Minuten“ korrigiert, verlängert sich die Akkulaufzeit durchaus um 15 %, so beispielsweise von drei auf dreieinhalb Stunden. Ein vergleichbarer Effekt stellt sich auch bei HHDs ein, wenn die Einstellung „Windows Hybrid-Festplattenenergiesparmodus“ in den Energieoptionen aktiviert wurde.

Tempogewinn. Viele Benchmarks können die Mehrleistung der Hybride prinzipiell nicht wiedergeben – denn sie verwenden möglichst viele, verschiedene und große Dateien, um eine maximale Last zu erzeugen. Diese überschreiten dann die Kapazität des Zwischenspeichers um ein Vielfaches. Zudem verwenden sie gerade kein wiederkehrendes Zugriffsmuster – um auszuschließen, das ein Laufwerkshersteller sein Produkt daraufhin optimiert. Damit werden viele verfügbare Leistungstests jedoch der typischen Notebook-Verwendung nicht gerecht – und ähnlich einem Hybridauto unter Volllast – haben HHDs und „Turbo Memory“ in diesen Tests keinen Vorteil. Erstere beschleunigen Windows-Start und Herunterfahren um rund 20 Prozent; ähnlich den Start häufig benutzter Programme. „Turbo Memory“ bewirkt nach ersten Tests von AnandTech.com jedoch keine Beschleunigung. Die Notebookhersteller Sony und Dell kamen zu gleichen Ergebnissen und verzichten daher vorerst auf diese Technologie. AnandTech untersuchte dies zusammen mit Intel und stellte im „PCMark“-Test tatsächlich die vom Hersteller versprochene Leistungsverdopplung fest. Außerhalb des Benchmarks zeigten sich jedoch keine Tempovorteile, weder beim normalen Arbeiten, noch beim Windows-Start oder Herunterfahren.

Auch wenn Hybridfestplatten erst 2007 auf den Markt gekommen sind, gab es eine ähnliche Technik schon mehr als zehn Jahre zuvor: Der Hersteller Quantum hatte eine SCSI-Festplattenserie namens Rushmore im Programm. Diese kombinierte eine herkömmliche Festplatte statt – mit damals eher bremsendem – Flash, mit SD-RAM in Laufwerksgröße. Die reichte bei Einstellung der Serie anno 2000 von 130 Megabyte bis 3,2 Gigabyte. Alle gespeicherten Daten wurden im Betrieb aus dem extrem schnellen „Cache“ geliefert. Da dieser jedoch auf Strom angewiesen war, wappnete der Hersteller das Produkt mit Batterien gegen Datenverlust. Deren Energie ließ im Notfall die Festplatte starten und alle Daten aus dem RAM übernehmen. Wegen der hohen Preise für RAM-Chips waren die Rushmore-Platten für Privatanwender aber praktisch unerschwinglich – sie lagen beim Tausendfachen heutiger Flashchips. Daher war auch die optional verfügbare Grundversion keine Ausnahme: ihr fehlten die sowieso relativ günstigen Bauteile Festplatte und Batterie.

Nach Samsungs Debüt der ersten HHD im März 2007 begann Seagate im Juli mit der Fertigung eines Modells gleicher Flashgröße . Das starke Engagement des Samsung-Konzerns, Festplatten möglichst bald durch Flashspeicher zu ersetzen, dürfte durch die Chipproduktion im eigenen Haus unterstützt werden, denn über diese Synergie verfügt neben Samsung nur noch Toshiba als einziger Festplattenhersteller. Toshiba plant ebenfalls massive Investitionen in den neu entstehenden Markt, den sie bislang zu rund einem Drittel beliefern. Marktführer ist mit 45 Prozent Samsung. Hitachi beließ es bei der Ankündigung einer um Flashspeicher ergänzten Version ihrer aktuellen Notebook-Festplatten. Der Aufpreis liegt bei allen um 20 €.

Zusammen mit Fujitsu, die noch keine HHD ankündigten, gründeten die genannten Hersteller Anfang 2007 die „Hybrid Storage Alliance“ , um die Vorteile der neuen Technologie besser vermarkten zu können – denkbar wären etwa einheitliche Logos und Mindeststandards zu deren Erlangung.

Die verfügbaren HHDs werden von den Notebook-Herstellern jedoch kaum angenommen, da ihre Vorteile den Mehrpreis derzeit nicht rechtfertigten. Zum gleichen Ergebnis gelangen verschiedene Computermagazine. Erst ein weitaus größerer Flashanteil könnte die erwartete Leistungssteigerung bringen, der wiederum würde aber den Mehrpreis deutlich erhöhen. Ein weiterer Grund könnte die Bindung an das bislang verhalten gestartete Windows Vista sein. Einige Hersteller bieten aufgrund der Kundennachfrage wieder den Vorgänger XP an, das den Flashspeicher und damit die Vorteile einer HHD jedoch völlig ungenutzt lässt.

Intels Lösung wurde mit der Centrino-Generation „Santa Rosa“ im Mai 2007 eingeführt. Sony, HP, Dell und MSI nahmen jedoch bisher Abstand davon, das entsprechende Intel-Flashmodul auch in ihre Notebooks einzubauen. Von Microsoft zurückgewiesen wird Sonys Begründung, die zur Nutzung von HHD und auch „Turbo Memory“ nötige Unterstützung sei in Vista nicht vollständig enthalten. Tests (siehe Absatz Tempogewinn) bestätigen diese Annahme. Ein Sony-Sprecher sagte zuvor, Vista könne gar nicht entscheiden, welche Dateien im Flashbereich vorgehalten werden sollen. So erklärten sich auch die nur geringen erzielten Geschwindigkeitsvorteile. Da er diese Funktion mit dem ersten ServicePack für Vista erwarte, hält er einen dann folgenden Einbau der Flashmodule für wahrscheinlich. HP nennt als Begründung für den vorläufigen Verzicht auch den hohen Preis der Intel-Flashmodule. Sie seien mit 50$ pro Gigabyte etwa doppelt so hoch, wie marktüblich. Motivation für die eigene Lösung – Flashspeicher und Festplatte zu kombinieren – dürfte bei Intel wie auch Samsung darin liegen, die Flash-Chips aus eigener Produktion so auch selbst zu vermarkten. Da Intel jedoch keine Festplatten fertigt, entstand diese Lösung mit separatem Flashmodul. PC-Hersteller können dadurch beliebige konventionelle Festplatten mit verschieden großen Flashspeichern kombinieren. Und Käufer diesen gegen größere und schnellere tauschen, so sie einzeln verkauft würden.

Während Intel mit der Version „2.0“ seines Produkts diesen Weg auch 2008 weiterverfolgt, gibt es seitens der HHD-Anbieter keine Ankündigungen zu Nachfolgern der ersten Generation von 2007.

Diese Laufwerke bestehen aus Flash- und Controllerchips, die auf einer Leiterplatte angeordnet sind. Deren Größe hat keinen Einfluss auf die Geschwindigkeit, nur auf die Chip-Anzahl. Auf kleinem Formfaktor sind also weiter nur geringere Kapazitäten realisierbar, nun jedoch mit hoher Performance. Viele Modelle sind mit Plastik oder Metall (teil-)verkleidet, um die Bauteile zu schützen und – im zweiten Fall – Solidität zu vermitteln. Dies hebt dafür den Vorteil geringen Gewichts und teilweise der Stoßfestigkeit durch die Unnachgiebigkeit des Metallmantels wieder auf. Bestehen bleiben hohe Temperaturtoleranz, Lautlosigkeit, sowie Energieeffizienz. Letzteres galt jedoch nicht für die 2007 produzierten, ersten Flashfestplatten mit SATA-Anschluss, da diese noch für den Vorgänger PATA entwickelt wurden. Sie enthielten einen Chip, der die Übersetzung übernahm; dafür jedoch rund ein Watt benötigte. Daher verbrauchten sie mit zwei Watt im Leerlauf das Doppelte herkömmlicher Notebooklaufwerke in 2.5"-Bauform. Gleiches war zuvor beim Wechsel konventioneller Festplatten vom PATA- zum SATA-Anschluss zu beobachten und verschwand wie bei den aktuellen Flashfestplatten mit den ersten reinen SATA-Designs. Verwendung finden in allen Preissegmenten die sogenannten NAND-Chips in der schnelleren SLC-, oder beim Schreiben langsameren MLC-Ausführung (siehe Kasten Architektur-Vergleich). Sie erreichen unter den Flashtechniken den besten Kompromiss zwischen Kapazität, Preis und Geschwindigkeit. Nur ihre Zugriffszeit ist zweigeteilt: Betriebssystem und Programme starten von Flashfestplatten zwar zwei- bis dreimal so schnell wie von konventionellen Festplatten. Beim Schreiben zeigt sich jedoch der Nachteil des Kompromisses, der bei den Hybrid-Konzepten noch kaschiert werden kann – insbesondere die MLC-basierten Flash-SSDs liegen bei kontinuierlichen Schreibvorgängen unter dem Niveau normaler Festplatten . Bei reinen Lesevorgängen aber auch bei Multitasking, also bei gleichzeitigem Lesen und Schreiben, sind die SSDs überlegen . In einer Desktopumgebung wird meist gelesen, sodass hier die Schreibschwäche nicht zu sehr ins Gewicht fällt.

Die I/O-Performance, die sehr wichtig für Server ist, ist bei guten SLC-SSDs deutlich besser als bei konventionellen Festplatten. Die MLC-SSDs sind aufgrund kleinerer Wiederbeschreibbarkeitszyklen für Server mit hohem Schreibaufkommen ungeeignet.

Die Geschwindigkeitssteigerungen in neuen Produkt-Generationen werden wie in Grafikchips vor allem durch starke Parallelisierung erlangt: So verfügen die neusten SSDs bereits über einen 10-Kanal-Controller.

Was diese Laufwerke beim verteilten Zugriff so langsam schreiben lässt, ist ihre interne Organisation. Sie sind in Blöcke unterteilt. Wird auch nur ein Byte darin geändert, muss der gesamte Block neu geschrieben werden. Tatsächlich schreibt das Laufwerk intern also im vom Hersteller angegebenen Tempo die Blöcke neu. Anwender und Leistungstests nehmen jedoch nur die wenigen geänderten Bytes wahr. Der Schreibvorgang erscheint langsam. Dieser Effekt wird im Englischen „Write Amplification“ genannt. Demzufolge wird also das Schreiben umso schneller, je mehr es dem Volumen eines Blockes entspricht. Dateien mit mehreren Megabyte werden so tatsächlich mit der angegebenen Transferrate geschrieben, denn hier werden alle Bytes in den Blöcken geändert – die Nutzrate entspricht der Schreibrate. Ein erster Versuch, diesen Effekt aufzuheben ist die „Managed Flash Technology“ von EasyCo. Sie ordnet auf Betriebssystemebene die Schreibkommandos so an, das sie möglichst zusammenhängend, statt verteilt geschehen. Vom Hardwareprodukt unabhängig, ist sie für den Heimgebrauch vorerst noch zu kostenintensiv. Praktikabler wäre der Einbau eines SDRAM-Zwischenspeichers. Konventionelle Festplatten verfügen über einen solchen Chip – um dieselben Performanceprobleme abzufedern. Auch Flashlaufwerke ab 2008 integrieren diesen weitgehend, verwalten darin jedoch oft die Daten zur Nutzungsverteilung. Die eigentliche Zwischenspeicherung erfolgt hier meist im noch schnelleren SRAM des SSD-Controllerchips . Ähnlich wie konventionelle Festplatten leisten auch Flash-Festplatten bei nur geringer Restkapazität nicht mehr die volle Leistung. Bei beiden Laufwerks-Typen spielt dabei die Suche nach den nur wenigen freien Speicher-Bereichen die Hauptrolle. Der oben beschriebene Effekt der „Write Amplification“ verstärkt dies noch auf Seiten der Flashfestplatten. Die Gesamtleistung sinkt so im Alltagsbetrieb um etwa ein Drittel .

Zwischenzeitlich eignen sich Flashfestplatten besonders für den Mobileinsatz, spezielle Desktops und wenige Server. Hier vor allem zum Ausliefern von Webseiten, weniger für Datenbankanwendungen und kaum für Mailserver, da in diesen Fällen zunehmend kleine Datenmengen auch geschrieben werden.

Bereits 1995 führte MSystems die ersten flashbasierten SSDs ein. Bis 2006 blieben diese aber militärischen und anderen wenig preissensitiven Märkten vorbehalten. Im März 2006 fertigte Samsung dann ein Modell, das mit einem Achtel des Preises einen anderen Zielmarkt anvisierte: Notebooks mit 2,5- und 1,8-Zoll-Festplatten – und per Adapter auch Desktop-PCs. Damit wurde versucht, einen neuen Markt für erschwingliche Flash-Festplatten zu eröffnen. Mit 600 $ für 32 GB gelang dies zwar noch nicht, allerdings eroberte Samsung die Marktführerschaft mit einem Marktanteil von 45 %. So ist Apple ein wichtiger Großabnehmer und auch Mtron im oberen SSD-Segment steuert – mit eigenem Controller – ebenfalls Samsung-Chips an. Im Jahr 2007 forschten eine Reihe von Anbietern mit gleicher Zielstellung an Konkurrenzprodukten zu Samsungs erstem Versuch. Im zweiten Quartal dieses Jahres erschienen die Vertreter der zweiten Generation. Momentan findet im Bereich der Flashfestplatten für Heimanwender ein sehr starker Preisverfall bei gleichzeitiger massiver Steigerung der Kapazität statt.

Da die Flashfestplatten im Vergleich zu herkömmlichen Festplatten gut skalierbar sind – die Mechanik entfällt schließlich völlig – werden sie auch in den sogenannten Mini-Notebooks eingebaut. Damit kommt diese neue Technik überraschenderweise im günstigsten Segment mobiler Computer zuerst serienmäßig ohne Aufpreis zum Einsatz. Die verwendeten Laufwerke fassen zwischen 0,5 und 8 GB und kosten mit rund 10 $ deutlich weniger als konventionelle Festplatten, die dafür ein vielfaches Fassungsvermögen haben.

In der folgenden Tabelle werden der Verbrauchersektor dem immer noch existenten Hochpreissektor der Flash-Laufwerke sowie konventionellen Festplatten gegenübergestellt.

Windows Vista führte zwei Möglichkeiten ein, um Flashspeicher zur Unterstützung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten.

Für Linux gibt es momentan zwei spezielle Dateisysteme, die an die Besonderheiten von Flashspeichern angepasst sind, YAFFS und JFFS2. Beide zielen darauf ab, Flashspeicher so verwenden, dass ihr Vorteile bestmöglich genutzt werden können. Dadurch können höhere Geschwindigkeiten und bessere Datenintegritäts-Kontrolle erreicht werden.

Vista erkennt die Möglichkeiten von HHDs und kopiert meistverwendete Programm- und Betriebssystem-Dateien in deren Flashteil. Die erzielbaren Effekte sind weiter oben beschrieben.

Vista soll zudem von USB-Sticks oder Flash-Speicherkarten profitieren. Es bietet hierzu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Hierbei wird auf dem Flashspeicher jedoch nur das gesammelt, was während des Betriebs nicht mehr in den Arbeitsspeicher passt. Repräsentative Tests zeigen daher nur bei PCs mit weniger als einem GB Arbeitsspeicher einen spürbaren Vorteil für die „ReadyBoost“ genannte Idee . Sie dient somit als leicht zu installierende RAM-Erweiterung. Unter Berücksichtigung der Preise für Arbeitsspeicher ist dies jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden, oder eine Erweiterung des Arbeitsspeichers nicht möglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin auf Touren, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Die Festplatte enthält zudem ein Abbild des Zwischenspeichers, das bei Entfernen des Flashspeichers verwendet wird. Die darauf ausgelagerten Daten werden sicherheitshalber mit 128 Bit verschlüsselt und das Medium vor Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. ReadyBoost erfordert eine Laufwerksgröße von 256 MB, maximal verwendet Vista 4 GB. Der verwendete Anteil ist beim Anschließen einstellbar. Unter Linux ist eine ähnliche Methode schon seit langem möglich, in dem man den Flashspeicher als Swapping mountet.

Windows XP verfügt von Haus aus über keine der beiden Vista-Optionen, Flashspeicher zur Temposteigerung einzusetzen. Das Moskauer Unternehmen MDO Limited bietet mit „eBoostr“ jedoch ein Tool an, das die „ReadyBoost“-Idee unter XP umsetzt. Zwar funktioniert es auch mit älteren externen Flashspeichern, um aber tatsächlich einen Tempogewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet werden. Dieses erhalten USB-Sticks und Speicherkarten, die ein von Microsoft festgelegtes Performancelevel erreichen. Das Programm kann - anders als Vista - auch mehrere Flashspeicher gleichzeitig nutzen und dabei die Lastverteilung zwischen Festplatte und Flashspeicher anzeigen. Zielgruppe sind jene PCs, die bereits über einen USB 2.0-Port verfügen, für die eine RAM-Erweiterung jedoch technisch oder ökonomisch nicht möglich ist. Die Demoversion erlaubt die volle Nutzung für vier Stunden nach einem Neustart, die Vollversion kostet rund 17 €.

Konventionelle und Flashfestplatten verschleißen mit der Zeit. Während sich das bei ersteren aus der Abnutzung der Mechanik ergibt, wirkt bei der Flashtechnik ein elektrischer Effekt begrenzend. Lesevorgänge sind hier zwar unbegrenzt möglich, je nach Qualität kann eine Flashzelle aber nur zwischen 100.000 und 5 Millionen Schreibvorgänge absolvieren. Danach „vergisst“ sie, was neu geschrieben wird und kann nur noch gelesen werden . Flashspeicher wären so mitunter schon nach wenigen Tagen defekt. Dem wirken seit einigen Jahren „Wear-Levelling“-Verfahren entgegen. Der Controller im Flashlaufwerk verteilt Schreibvorgänge auf alle Speicherzellen so, dass jede möglichst gleich häufig beschrieben wird. Die hierfür verwendeten Algorithmen sind herstellerspezifisch, in jedem Fall aber vom Rest des Computers aus weder sichtbar noch beeinflussbar. Dieses Verteilungs-Verfahren gibt es in verschiedenen Ausbaustufen. So verwendet eine Flashfestplatte häufig komplexere Controller als ein USB-Stick und sehr wenige Wechseldatenträger auch gar keinen . Hier können dann Software-Lösungen wie in Windows Vista oder das Dateisystem JFFS2 unter Linux aushelfen.

Je nach Ausbaustufe führt das Verfahren zu einer Haltbarkeit, die konventionellen Festplatten nahe kommt oder sie übertrifft . Eine Ausfallvorhersage wie bei konventionellen Festplatten (z. B. durch S.M.A.R.T.) fehlte bei SSDs jedoch. Bei Laufwerken über 1000 € hat sie MTron daher vor einigen Jahren und SiliconSystems im Jahr 2007 durch eine vergleichbare ergänzt . Letztere ist jedoch kein Standard und auf diesen Hersteller begrenzt. Die Prüfung ist im Vergleich zu konventionellen Festplatten sehr übersichtlich: Es wird ausschließlich geprüft, ob von den 2 bis 4 Prozent Reserveblöcken noch mehr als 95 Prozent übrig sind . Ist dies nicht mehr der Fall, geht das Laufwerk sicherheitshalber in einen Nur-Lese-Modus über. Da bei guten „Wear-Levelling“-Verfahren alle normalen Sektoren zu ähnlicher Zeit abgenutzt sind, ist ein Ausfall nach der Verwendung erster Reservesektoren vermutlich nahe.

Ein Nebeneffekt aller Verteilungs-Verfahren ist, dass kein sicheres Löschen mehr möglich ist. Der Hintergrund ist im folgenden Abschnitt Sicheres Löschen und Defragmentierung erläutert.

Dateien werden immer als Bitfolge geschrieben. Heute enthält eine Flashzelle meist 2 Bits (ein Viertel Byte), welche in Blöcken von 2.000 oder 4.000 Byte zusammengefasst sind. Angesprochen werden vom Controller immer ganze Blöcke. Beim Lesen einzeln, beim Schreiben werden sie abermals zusammengefasst – zu einem „Erasable Block“. Dieser enthält 32 oder 64 Blöcke. Bei jeder Änderung in einem seiner Blöcke wird der zunächst nicht gelöscht, sondern als unaktuell markiert. Geschrieben wird in den nächsten freien Block desselben Erasable Block. Erst, wenn alle seine Blöcke unaktuell sind, wird er einmal komplett gelöscht. Somit müssen bei jedem geänderten Byte mehrere Kilobyte (der nächste Block) neu geschrieben werden. Und damit entstünde eine inakzeptable Haltbarkeit. Im folgenden Beispiel wird eine Textdatei viermal überarbeitet und gespeichert.

Dynamic Wear Levelling Soll ein Erasable Block beschrieben werden, wird hier von den noch nicht belegten der am wenigsten abgenutzte ausgewählt. Dies ist vergleichsweise einfach im Controller umzusetzen. Es hat den Nachteil, dass bei gut gefülltem Laufwerk der wenige freie Platz schneller abgenutzt wird. Die Schreibzyklen steigen um den Faktor 25 gegenüber fehlendem Wear-Levelling.

Static Wear Levelling Soll ein Erasable Block beschrieben werden, wird hier der am wenigsten abgenutzte ausgewählt. Ist dieser schon belegt, werden dessen Daten auf einen anderen umverlagert, dann die neuen Daten geschrieben. Dies erfordert einen etwas komplexeren Controller, führt aber zu sehr gleichmäßiger Abnutzung. Die Schreibzyklen steigen um den Faktor 100 gegenüber fehlendem Wear-Levelling.

Defekte Blöcke Scheitert ein Schreibversuch auf einen Block, wird dieser wie bei konventionellen Festplatten als nicht mehr benutzbar markiert und ein Reserveblock aktiviert.

Alle bekannten Betriebssysteme löschen nicht den Dateiinhalt selbst, sondern entfernen lediglich den Eintrag im Inhaltsverzeichnis des Dateisystems. Dies beschleunigt den Löschvorgang, ermöglicht aber auch eine Wiederherstellung der Datei. Daher gibt es Software oder wie bei Linux Befehle, um die Datei tatsächlich in Gänze zu überschreiben. Dieses Überschreiben leiten Flashspeicher mit Nutzungsverteilung dann aber auf die bisher am wenigsten benutzten Blöcke, nicht auf jene, in denen die Datei steht. Um dieses Sicherheitsleck zu nutzen, müsste aber das Laufwerk geöffnet und der Controller gegen einen ausgetauscht werden, der dann alle Blöcke ausliest. Zudem fehlt die Information, welche Blöcke zu einer durch „Überschreiben“ gelöschten Datei in welcher Reihenfolge gehören. Kryptographiehersteller warnen trotzdem vor dem Einsatz solcher Laufwerke, da zumindest Schlüssel auffindbar sein könnten.

Behebbar ist das Problem erst durch einen Controller, der auf Wunsch vorübergehend die Nutzungsverteilung abschalten kann und so ein „Secure Erase“ ermöglicht. Entsprechende Laufwerke sind aber nur im Hochpreissegment zu finden, etwa von M-Systems. Diese enthalten dann auch Löschalgorithmen nach US-Airforce- oder Navy-Standard.

Für den Heimgebrauch dürfte es bereits genügen, das Laufwerk einmalig mit Dateien zufälligen Inhalts vollständig zu beschreiben. Somit wird jeder Sektor einmal überschrieben, unbesehen seines Nutzungsgrades. Ab Windows XP leistet dies etwa DiskBench . Ein Nebeneffekt ist das unberührt bleibende Inhaltsverzeichnis des Dateisystems, das alle Datei- und Verzeichnisnamen enthält. Dieser Nebeneffekt tritt nicht auf, wenn die zufälligen, hinreichend großen Datenmengen nicht in eine Datei, sondern direkt in die Partition geschrieben werden, so dass alle Informationen innerhalb dieser Partition zuverlässig zerstört werden. Behauptungen, dass die Verwendung von Dateien wichtig sei, weil ein dateisystemloses Beschreiben nicht den gewünschten Effekt habe, entbehren einer plausiblen Begründung.

Eine Defragmentierung ist aufgrund der marginalen Lese-Zugriffszeiten nicht mehr nötig. In Bezug auf die Schreibleistung differieren die Herstellerangaben jedoch. So warnt OCZ die Nutzer seiner MLC-basierten Core-Serie vor dem Defragmentieren , während MTron für seine SLC-basierten Produkte ein Defragmentieren sogar empfiehlt .

Im Folgenden sind die derzeit aktuellen Verfahren zum Vergleich aufgeführt, der Hochpreissektor der Solid State Drives bleibt dabei unberücksichtigt. Ein Video-Vergleich ist ebenfalls verfügbar .

Die in der Tabelle angegebenen Werte sind in der Regel Bestwerte. Insbesondere die Geschwindigkeiten können je nach Modell auch deutlich niedriger liegen.

Bei Betriebssystem-, Programmstarts und wo immer Zugriffszeiten eine Rolle spielen, sind diese Solid-State-Verfahren den Festplatten überlegen. Prinzipbedingt gelingt es ihnen, die obigen Geschwindigkeiten bei zufällig verteilten Zugriffen aufrecht zu erhalten.

Für die CompactFlash-Variante ergibt sich eine weitere Anwendungsmöglichkeit. Dank Adaptern, die als Slotblende befestigt werden, kann die CF-Karte von außen ausgetauscht werden – die Verkabelung bleibt im Gehäuse. Da der Adapter außerdem weder PCI- noch andere Kontaktleisten hat, kann er ganz nach Platzangebot eingebaut werden. Das ist ein Unikum dieser Solid-State-Variante und ermöglicht so Anwendungen, Benutzer oder Betriebssysteme sauber und sicher voneinander zu trennen. Denn so kann jeder Benutzer seine bevorzugte Betriebssystem- und Arbeitsumgebung mitbringen, wobei er gleichzeitig keinerlei Daten im PC hinterlässt, da er die „Festplatte“ einfach mitnimmt. Zusätzlich sind CompactFlash-Karten viel robuster und handlicher als ihre „Vorfahren“, die Festplatten im Wechselrahmen .

Zum Seitenanfang



JUGENE

Eine Knotenkarte des BlueGene/P

JUGENE (Jülich Blue Gene) ist ein Supercomputer vom Typ BlueGene/P im Forschungszentrum Jülich und Nachfolger der weiterhin dort betriebenen JUBL und JUMP. Der Rechner gehört zum Institut Jülich Supercomputing Centre (JSC) und zum virtuellen Gauss Centre for Supercomputing.

Mit 65.536 auf 850 MHz getakteten Power-PC-450-Kernen und 32 Terabyte Hauptspeicher – jeder der 16.384 Knoten enthält einen Quad-Core-Prozessor sowie zwei Gigabyte RAM – in 16 Schränken soll der Rechner eine Spitzenleistung von 222,8 TFLOPS (Rpeak) erbringen. Mit einer offiziellen Linpack-Leistung von 167,3 TFLOPS (Rmax) sicherte sich JUGENE als schnellster zivil genutzter Rechner Platz 2 der TOP500-Liste vom November 2007. Momentan (November 2008) ist JUGENE mit 180 TFLOPS noch der elftschnellste Computer weltweit.

Finanziert wurde die Anschaffung vom Forschungszentrum, dem Bundesland Nordrhein-Westfalen, dem Bundesministerium für Bildung und Forschung sowie der Helmholtz-Gesellschaft. Der Leiter des JSC Thomas Lippert betonte „das Besondere an unserem JUGENE ist der im Vergleich zu anderen Systemen äußerst geringe Stromverbrauch bei allerhöchster Rechenleistung“ – ein BlueGene/P-System soll nach Herstellerangaben ca. 0,35 GFLOP/Watt leisten und damit fast doppelt so effizient sein wie das an gleicher Stelle benutzte Vorgängermodell.

Die offizielle Einweihung in Anwesenheit des nordrhein-westfälischen Ministerpräsidenten Jürgen Rüttgers erfolgte am 22. Februar 2008; gleichfalls an diesem Tag ging wenige Stunden später der ebenfalls zivile aber noch schnellere Ranger am Texas Advanced Computing Center (TACC) der University of Texas at Austin offiziell in Betrieb.

Bis Mitte des Jahres 2009 soll Jugene von 65.536 auf 294.912 Prozessoren erweitert werden und eine Spitzenleistung von 1 Petaflop erreichen. Er wird damit der erste europäische Petaflop-Rechner sein.

Zum Seitenanfang



Professional Disc for Broadcast

Du kannst Wikipedia helfen, indem du sie recherchierst und einfügst.

Die Professional Disc wird in den professionellen Kamerasystemen XDCAM und XDCAM HD von Sony eingesetzt. Eine sogenannte MAZ, also ein Studio-Videorekorder für dieses System ist der PDW-1500 von Sony. Die Disk kann 23 Gigabyte speichern und hat gegenüber bandbasierten Formaten den Vorteil, dass man das Videomaterial nicht in Echtzeit umkopieren muss, bevor man es auf dem Computer weiterverarbeitet, sondern die Daten können schneller als in Echtzeit über die Firewire-Schnittstelle kopiert werden. Die Disk verwendet denselben blauen Laser wie die Blu-ray Disc, jedoch ein anderes Dateiformat. Sie ist stets mit einem Gehäuse ("Cartridge") umschlossen. Die Professional Disc kann unterschiedliche digitale Videoformate speichern, sie hat im IMX-Betrieb eine Aufzeichnungsdauer von 45 Minuten und im DVCAM-Betrieb von 85 Minuten. Bei Verwendung in einer XDCAM HD-Kamera ergibt sich in der höchsten Qualitätsstufe eine Aufzeichnungsdauer von etwa 60 Minuten. Die Disc wird in Verbindung mit dem System XDCAM von führenden Rundfunkanstalten Europas eingesetzt, unter anderem vom WDR. Das Medium ist wiederbespielbar. Sony gibt offiziell eine Datenhaltbarkeit von 50 Jahren an. Mittlerweile gibt es Dual-Layer Medien mit einer Kapazität von 50 Gigabyte. Diese sind jedoch nur in neueren Geräten einsetzbar. Bei diesen Geräte befindet sich unterhalb des "PD" Logos noch die Buchstabenkobination "DL". Da auch schon eingeführte Geräteserien Dual-Layer fähig gemacht wurden, endet bei diesen die Modellbezeichnung zur Unterscheidung auf "5" statt auf "0".

Zum Seitenanfang



Iomega Jaz

Logo Iomega Jaz 2GB

Iomega Jaz, auch Jaz-Drive, ist ein Computer-Laufwerk mit wechselbarem Datenträger, dessen Produktion eingestellt worden ist. Wechselmedien gab es in den Kapazitäten 500 Megabyte (selten), 1 Gigabyte und 2 Gigabyte. Im Unterschied zum älteren iomega Zip kommen beim Jaz Festplatten zum Einsatz. Ein Medium mit einem Gigabyte beinhaltet zwei Platten, die von vier Schreib-/Leseköpfen im Laufwerk bearbeitet werden. Auch der Spindelantrieb befindet sich im Laufwerk.

Technisch war das Jaz-Drive ähnlich der Wechselplattenlaufwerke der Firma Syquest, allerdings mit höherer Kapazität und zusätzlichen Features: Ein Metallband am Wechselmedium verschließt beim Jaz den Innenraum mit den Platten staubdicht, wenn das Medium aus dem Laufwerk genommen wird. Gleichzeitig werden die Platten blockiert, so dass sie sich beim Transport nicht bewegen können.

Ein Nachfolgelaufwerk mit ähnlicher Technik ist das iomega REV mit bis zu 120 Gigabyte Kapazität. Das REV ist nicht abwärtskompatibel zu Jaz-Medien.

Zum Seitenanfang



RapidShare

Logo von RapidShare

RapidShare ist ein deutscher Sharehoster mit Sitz im schweizerischen Cham, der sich durch kostenpflichtige „Premium“-Zugänge finanziert. Nach eigenen Angaben ist RapidShare mit über 160 Millionen hochgeladenen Dateien und 42 Millionen Besuchern täglich der weltweit größte Filehoster. Das Unternehmen mit seinen über 40 Mitarbeitern (Stand: 23. Februar 2009) erzielt einen geschätzten Umsatz von 5 Mio. Euro im Monat. Der Erfinder von RapidShare, Christian Schmid, hält sich stets bedeckt im Hintergrund. Der aktuelle Geschäftsführer des Unternehmens ist Bobby Chang.

Die Größe einer hochzuladenden Datei ist bei rapidshare.de auf 300 MB, bei rapidshare.com auf 200 MB beschränkt (Stand: Februar 2009). Premium-Kunden können Dateien mit einer Größe von bis 2000 MB bei beiden Diensten hoch- und herunterladen. Die Gesamt-Festplattenkapazität der RapidShare.com-Server beträgt nach eigenen Angaben ca. 4,5 Petabyte (4,5 Millionen Gigabyte), angebunden sind die Server mit einer Bandbreite von 240 Gigabit pro Sekunde (Stand: 31. Mai 2008).

Die Website RapidShare.de wird seit 2001 von der deutschen Firma RapidTec mit Sitz in Kenzingen betrieben, die auch den Internetforen-Dienst Rapidforum anbietet. Das 2004 noch ezshare genannte Angebot wurde aus namensrechtlichen Gründen in RapidShare umbenannt. Im September 2004 lag die Dateigrößenbeschränkung von ezshare.de noch bei 5 MB, doch schon bald wurde das Limit immer wieder erhöht, und auch das anfängliche Verbot von Split-Archiven wurde schnell aufgehoben.

Im Oktober 2006 wurde die Firma RapidShare AG mit Sitz im schweizerischen Cham gegründet, die unter der Domain RapidShare.com einen sehr ähnlichen Dienst anbietet. Teilhaber sind u. a. der Geschäftsführer Bobby Chang und der Inhaber von RapidShare.de Christian Schmid. Kurz nach der Gründung erschien auf der deutschen Seite die Meldung „Leider sind alle Festplatten von RapidShare.de derzeit voll“, wodurch für normale Benutzer keine Uploads mehr möglich waren. Zwischenzeitlich bot die deutsche Firma nur Uploads von Bezahlkunden an. Mittlerweile ist das aber auch für kostenlose Nutzer wieder möglich. Sowohl die Server von RapidShare.de als auch die von RapidShare.com haben ihren Standort in Deutschland.

Nutzer können die Dateien entweder über die Hauptseite, die „Collector’s Zone“ oder die „Premium-Zone“ hochladen. Im ersten Fall erfolgt allerdings keine Vergütung der Downloads (siehe Downloadvergütungssystem weiter unten); außerdem können die auf diese Weise hochgeladenen Dateien nur 10-mal heruntergeladen werden, jedoch später auf Wunsch einem Collector’s- oder Premium-Account zugeordnet werden. Während des Uploadvorgangs werden u. a. ein Fortschrittsbalken, die Upload-Geschwindigkeit sowie die voraussichtlich noch benötigte Zeit angezeigt. Über die kostenlose und offizielle Upload-Anwendung RapidUploader können nacheinander mehrere Dateien automatisch hochgeladen werden.

Nach erfolgreichem Hochladen kann der Benutzer die Datei über einen Link herunterladen und über einen geheimzuhaltenden Link auch wieder löschen.

Die kostenlose Nutzung unterliegt verschiedenen Einschränkungen, die im Laufe der Zeit mehrmals geändert wurden: Ein „Free-User“ musste zunächst einige Minuten lang warten, bevor er die gewünschte Datei herunterladen konnte, anschließend ein Captcha eingeben und nach dem Download erneut eine gewisse Zeit abwarten, die sich nach der Größe der vorangegangenen Datei richtete (bis zu 2 Stunden), um weitere Inhalte herunterladen zu können. Da diese Beschränkung allerdings durch Trennung der Internetverbindung leicht umgangen werden konnte (neue IP-Adresse), wurde die Übertragungsgeschwindigkeit für nicht zahlende Kunden auf 2 MBit/s (in Spitzenzeiten auf bis zu 0,2 MBit/s) gedrosselt. Zudem wurde das Captcha abgeschafft und die Wartezeit vor einem Folgedownload von maximal 2 Stunden auf maximal 15 Minuten verkürzt.

Um die Wartezeit zu umgehen, können Premium-Zugänge gekauft werden, mit denen 80 GB im Monat (eingeteilt in 2,66 GB pro Tag) heruntergeladen werden können. Nicht verbrauchtes Volumen sammelt sich dabei bis zu einem Maximum von 12 GB an. Für Premium-Accounts, die vor dem 23. Oktober 2008 erstellt oder verlängert wurden, gelten bis zu deren Ablaufdatum die alten Konditionen von 10 GB pro Tag. Premium-Accounts können dabei insgesamt nicht mehr als 500 GB an hochgeladenen Dateien beinhalten, die mögliche Nutzungsdauer eines Accounts reicht von 3 Tagen bis zu einem Jahr. Dateien, die mit einem Premium-Account hochgeladen wurden, werden außerdem unabhängig von der Anzahl der Downloads nie gelöscht, solange kein (gemeldeter) Urheberrechtsverstoß vorliegt. Regulär werden Dateien von nicht zahlenden Kunden 90 Tage nach dem letzten Download von den Servern entfernt.

Ein besonderes Merkmal stellt der so genannte Remote-Upload dar. Über ihn können Dateien ohne den Umweg über die Festplatte des Benutzers direkt vom Server zu RapidShare gespiegelt werden. Über die Premium-Zone ist eine Verwaltung der hochgeladenen Dateien möglich.

Die Bezahlung erfolgt entweder über PayPal, Banküberweisung in die Schweiz (die seit 2008 Mitglied im kostengünstigen SEPA Zahlungsraum der EU ist), über zertifizierte nationale Reseller oder beim 72-Stunden-Account auch über einen Pay-By-Call-Anbieter.

Seit dem 27. August 2005 gibt es ein Vergütungssystem für hochgeladene Dateien, das ab einer Dateigröße von 5 MB wirksam wird, sofern innerhalb der letzten Stunde nicht mehr als 3 „RapidPoints“ vom Downloader generiert wurden. Bei jedem Download der Datei erhält der Besitzer des dazugehörigen Collector’s- bzw. Premium-Accounts einen „RapidPoint“ gutgeschrieben. Mit 10.000 dieser Punkte kann ein neuer Account mit einer Laufzeit von einem Monat erstellt oder ein bereits bestehender Premium-Account um einen weiteren Monat verlängert werden. Seit dem 2. Juli 2008 werden auch „RapidPoints“ gutgeschrieben, wenn der Downloader ein Premium-User ist; zuvor konnten nur Free-User solche Punkte generieren. Die maximale Anzahl an Punkten, die von einem Premium-Mitglied pro Tag erzeugt werden kann, beträgt derzeit 255 Punkte.

Seit dem 23. Mai 2007 bietet RapidShare auch professionelles Filehosting an. Das Angebot richtet sich dabei vornehmlich an Firmen, die Dateien mit besonders hohem Traffic-Aufkommen auslagern wollen. Dazu können Pakete mit einem enthaltenen Traffic von 100 GB bis zu 2,5 TB erworben werden. Der Unterschied zu den normalen kostenlosen Download-Links besteht darin, dass der Nutzer die Datei direkt und ohne Wartezeit herunterladen kann, auch wenn er keinen Premium-Account besitzt. Gesicherte Links ermöglichen es fortgeschrittenen Anwendern, den Download nur über die eigene Webseite zuzulassen und Deep Links entgegenzuwirken. Jeder Premium-Benutzer hat einmalig 5 GB für den kostenlosen Test des Angebotes zur Verfügung.

Am 18. Januar 2007 gab die GEMA bekannt, dass sie gegen die Dienste RapidShare.de und RapidShare.com einstweilige Verfügungen erwirkt habe. Mit dem Urteil vom 21. März 2007 wurde dies auch bestätigt. Im Detail ging es dabei um die „rechtswidrigen Nutzung von Werken des GEMA-Repertoires“, so die GEMA in einer Pressemitteilung. RapidShare.de hat laut GEMA zeitweise damit geworben, dass bis zu 15 Millionen Dateien auf ihren Servern abrufbar seien. Die Gesellschaft verlangte dabei insbesondere eine genaue Zahl der Werke aus ihrem Repertoire, die sich auf den RapidShare-Servern befinden.

Das Landgericht Köln erließ eine Verfügung, die dem Unternehmen untersagte, einige bestimmte Musikwerke weiterhin öffentlich zugänglich zu machen. RapidShare kündigte daraufhin an, im Rahmen eines Widerspruchsverfahrens eine Aufhebung der Verfügung erwirken zu wollen. Der Geschäftsführer Robert Chang beziffert die urheberrechtlich geschützten Dateien, die auf RapidShare unerlaubt zum Herunterladen freigegeben wurden, auf einen niedrigen einstelligen Prozentsatz. „Wir löschen alle Raubkopien, die uns bekannt werden, wir setzen darüber hinaus Software-Filter und ein ganzes Team von Abuse-Mitarbeitern ein“, beteuerte Chang.

Am 21. März 2007 verkündete das Kölner Landgericht, dass RapidShare im Rahmen seines Dienstes bei Urheberrechtsverletzungen zur Verantwortung gezogen werden kann und die illegale Nutzung von Werken aus dem GEMA-Repertoire kontrollieren muss. Eine Woche darauf kündigte die Schweizer Aktiengesellschaft an, in Berufung zu gehen. Chang ist der Meinung, dass es das Landgericht „abgelehnt , sich in der notwendigen Tiefe mit den Details des Sachverhalts auseinanderzusetzen“. Man hoffe daher, die Lage in zweiter Instanz verdeutlichen zu können. Gegenüber heise online rechtfertige sich Chang damit, dass sich das Urteil auf die Verbreitung geschützter musikalischer Werke beziehe, bei RapidShare allerdings nur Dateien mit beliebig versehenen Namen bereitgestellt werden, aus denen man ohne weiteres keine Rückschlüsse auf eventuell dahinter stehende Musikstücke ziehen könne.

Im April 2007 reichte RapidShare eine negative Feststellungsklage gegen die GEMA ein. Die Chamer Firma will damit Klarheit über die gesetzlichen Verpflichtungen eines Webhosters zur Verhinderung eines Urheberrechtsverstoßes erlangen.

Im September 2007 stellte das OLG Köln fest, dass RapidShare urheberrechtlich geschützte Werke vom Server entfernen muss, sobald das Unternehmen von konkreten Rechtsverletzungen Kenntnis erlangt. Allerdings bestehe keine umfassende Kontrollpflicht seitens des Filehosters, da dies den zumutbaren Aufwand übersteige. Somit muss RapidShare nur auf Anfrage tätig werden. Sowohl die GEMA als auch RapidShare begrüßten das Urteil.

Im April 2008 hat sich die rechtliche Situation für RapidShare drastisch geändert. Nach einem Urteil des LG Düsseldorf haftet der Webhoster für die von seinen Nutzern begangenen Urheberrechtsverletzungen als Störer. Das Gericht vertritt die Meinung, eine Filterung der MD5-Summe gelöschter Dateien sei nicht ausreichend. Der Richter meinte: „Es existieren effektivere Maßnahmen, mit denen die Klägerin die Verbreitung der streitgegenständlichen Musikwerke im Speziellen und das Begehen von Urheberrechtsverstößen über ihre Plattform im Allgemeinen hätte verhindern können.“ RapidShare müsse alles mögliche und zumutbare unternehmen, um ähnliche Rechtsverletzungen zu unterbinden. Eine Registrierungspflicht wäre für den Richter solch eine Lösung, da „ jemand, der nicht anonym im Internet surft, wesentlich größere Hemmungen bezüglich der Begehung von Rechtsverstößen hat, als ein nicht angemeldeter Nutzer.“ Um Falschangaben zu unterbinden, wurden sogar ein Datenabgleich mit der Schufa oder die Nutzung des PostIdent-Verfahrens für zumutbar erklärt. Dass RapidShare eine Vielzahl von nicht-Deutschen Nutzern hat, die diese Services nicht nutzen können, blieb dabei völlig unbeachtet. Als letztes Mittel käme sogar eine Einstellung des Dateihosters in Betracht.

Ende Oktober 2008 kursierten unbestätigte Gerüchte im Netz, RapidShare würde hochgeladene Dateien künftig auf urheberrechtlich geschützte Inhalte genau kontrollieren. Damit wolle man den Anfang Oktober gestellten Forderungen des Oberlandesgerichts Hamburg nachkommen. Zwar war der konkrete Maßnahmenkatalog des Hosters zu dieser Zeit noch nicht bekannt, die Richter forderten aber eine einschränkungslose Prüfungspflicht. Somit käme auch das Entpacken und Analysieren von hochgeladenen Archiven in Frage; der Upload passwortgeschützter Archive sei dabei unter Umständen vollständig zu unterbinden. Kurze Zeit später veröffentlichte das Unternehmen eine offizielle Pressemeldung, in welcher dieses Gerücht eindeutig dementiert wurde.

Zum Seitenanfang



Source : Wikipedia