From owner-svn-doc-all@FreeBSD.ORG Tue Apr 21 17:42:05 2015 Return-Path: Delivered-To: svn-doc-all@freebsd.org Received: from mx1.freebsd.org (mx1.freebsd.org [8.8.178.115]) (using TLSv1.2 with cipher AECDH-AES256-SHA (256/256 bits)) (No client certificate requested) by hub.freebsd.org (Postfix) with ESMTPS id 8DC2DDAB; Tue, 21 Apr 2015 17:42:05 +0000 (UTC) Received: from svn.freebsd.org (svn.freebsd.org [IPv6:2001:1900:2254:2068::e6a:0]) (using TLSv1.2 with cipher ECDHE-RSA-AES256-GCM-SHA384 (256/256 bits)) (Client did not present a certificate) by mx1.freebsd.org (Postfix) with ESMTPS id 7A6FD169B; Tue, 21 Apr 2015 17:42:05 +0000 (UTC) Received: from svn.freebsd.org ([127.0.1.70]) by svn.freebsd.org (8.14.9/8.14.9) with ESMTP id t3LHg5N1042040; Tue, 21 Apr 2015 17:42:05 GMT (envelope-from bhd@FreeBSD.org) Received: (from bhd@localhost) by svn.freebsd.org (8.14.9/8.14.9/Submit) id t3LHg5SK042039; Tue, 21 Apr 2015 17:42:05 GMT (envelope-from bhd@FreeBSD.org) Message-Id: <201504211742.t3LHg5SK042039@svn.freebsd.org> X-Authentication-Warning: svn.freebsd.org: bhd set sender to bhd@FreeBSD.org using -f From: Bjoern Heidotting Date: Tue, 21 Apr 2015 17:42:05 +0000 (UTC) To: doc-committers@freebsd.org, svn-doc-all@freebsd.org, svn-doc-head@freebsd.org Subject: svn commit: r46583 - head/de_DE.ISO8859-1/books/handbook/zfs X-SVN-Group: doc-head MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit X-BeenThere: svn-doc-all@freebsd.org X-Mailman-Version: 2.1.20 Precedence: list List-Id: "SVN commit messages for the entire doc trees \(except for " user" , " projects" , and " translations" \)" List-Unsubscribe: , List-Archive: List-Post: List-Help: List-Subscribe: , X-List-Received-Date: Tue, 21 Apr 2015 17:42:05 -0000 Author: bhd Date: Tue Apr 21 17:42:04 2015 New Revision: 46583 URL: https://svnweb.freebsd.org/changeset/doc/46583 Log: Couple of small fixes, including: - Typos - EOL whitespace - Replace space with tabs - Two spaces after a sentence - Reword sentences to improve readability Approved by: bcr (mentor) Modified: head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml Modified: head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml ============================================================================== --- head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml Tue Apr 21 17:17:25 2015 (r46582) +++ head/de_DE.ISO8859-1/books/handbook/zfs/chapter.xml Tue Apr 21 17:42:04 2015 (r46583) @@ -57,7 +57,7 @@ Das Z-Dateisystem, oder kurz ZFS, ist ein fortgeschrittenes Dateisystem, das - entwickelt wurde, um viele der grossen Probleme in vorherigen + entwickelt wurde, um viele der großen Probleme in vorherigen Entwicklungen zu überwinden. Ursprünglich von &sun; entworfen, wird die weitere Entwicklung @@ -65,7 +65,7 @@ xlink:href="http://open-zfs.org">OpenZFS Projekt vorangetrieben. - ZFS hat drei grosse Entwurfsziele: + ZFS hat drei große Entwurfsziele: @@ -85,7 +85,7 @@ einem Pool zusammengefasst und der Speicherplatz wird von diesem gemeinsam genutzten Pool allokiert. Der Speicherplatz steht allen Dateisystemen zur Verfügung und kann durch das - Hinzufügen von neuen Speichermedien vergrössert werden. + Hinzufügen von neuen Speichermedien vergrößert werden. @@ -95,7 +95,7 @@ hauptspeicherbasierter Zwischenspeicher für Leseanfragen. Auf einer zweiten Stufe kann ein plattenbasierter L2ARC-Lesezwischenspeicher - hinzugefügt werden. Zusätzlich ist auch noch ein + hinzugefügt werden. Zusätzlich ist auch noch ein plattenbasierter, synchroner Schreibzwischenspeicher verfügbar, der sog. ZIL. @@ -114,7 +114,7 @@ Dateisystem ist. Durch die Kombination von traditionell getrennten Rollen von Volumenmanager und Dateisystem ist ZFS mit einzigartigen Vorteilen ausgestattet. - Das Dateisystem besitzt jetzt Kentniss von der zugrundeliegenden + Das Dateisystem besitzt jetzt Kenntnis von der zugrundeliegenden Struktur der Speichermedien. Traditionelle Dateisysteme konnten nur auf einer einzigen Platte gleichzeitig angelegt werden. Falls es zwei Festplatten gab, mussten auch zwei getrennte @@ -127,20 +127,20 @@ Fall von Software-RAID-Lösungen, wie die, die von GEOM bereitgestellt werden, war das UFS-Dateisystem der Ansicht, dass es auf nur - einem einzigen Gerät angelegt wurde. ZFS' + einem einzigen Gerät angelegt wurde. ZFS's Kombination eines Volumenmanagers und eines Dateisystems löst dies und erlaubt das Erstellen von vielen Dateisystemen, die sich alle den darunterliegenden Pool aus verfügbarem Speicher - teilen. Einer der grössten Vorteile von ZFS' - Kentniss des physikalischen Layouts der Platten ist, dass + teilen. Einer der größten Vorteile von ZFS's + Kenntnis des physikalischen Layouts der Platten ist, dass existierende Dateisysteme automatisch wachsen können, wenn zusätzliche Platten zum Pool hinzugefügt werden. Dieser neue Speicherplatz wird dann allen Dateisystemen zur Verfügung gestellt. ZFS besitzt ebenfalls eine Menge an unterschiedlichen Eigenschaften, die für jedes Dateisystem - angepasst werden könnnen, was viele Vorteile bringt, wenn man + angepasst werden können, was viele Vorteile bringt, wenn man unterschiedliche Dateisysteme und Datasets anlegt, anstatt ein - einziges, monolitisches Dateisystem zu erzeugen. + einziges, monolithisches Dateisystem zu erzeugen. @@ -170,7 +170,7 @@ Pools mit einer Platte Um einen einfachen, nicht-redundanten Pool mit einem - einzigen Gerät anzulegen, geben Sie folgendes ein: + einzigen Gerät anzulegen, geben Sie folgendes ein: &prompt.root; zpool create example /dev/da0 @@ -208,7 +208,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 2 Das example/compressed-Dataset ist nun ein komprimiertes ZFS-Dateisystem. - Versuchen Sie, ein paar grosse Dateien auf + Versuchen Sie, ein paar große Dateien auf /example/compressed zu kopieren. Deaktivieren lässt sich die Komprimierung durch: @@ -217,7 +217,7 @@ drwxr-xr-x 21 root wheel 512 Aug 29 2 Um ein Dateisystem abzuhängen, verwenden Sie zfs umount und überprüfen Sie dies - anschliessend mit df: + anschließend mit df: &prompt.root; zfs umount example/compressed &prompt.root; df @@ -251,8 +251,8 @@ example on /example (zfs, local) example/compressed on /example/compressed (zfs, local) Nach der Erstellung können ZFS-Datasets - wie jedes undere Dateisystem verwendet werden. Jedoch sind - jede Menge undere Besonderheiten verfügbar, die individuell + wie jedes andere Dateisystem verwendet werden. Jedoch sind + jede Menge andere Besonderheiten verfügbar, die individuell auf Dataset-Basis eingestellt sein können. Im Beispiel unten wird ein neues Dateisystem namens data angelegt. Wichtige Dateien werden dort abgespeichert, deshalb @@ -284,8 +284,8 @@ example/data 17547008 0 175 Partitionen und erlaubt es mehreren Dateisystemen den gleichen Pool zu belegen. - Um das Dateisystem zu zerstören und anschliessend den - Pool, da dieser nicht mehr benötigt wird, geben Sie + Um das Dateisystem und anschließend den Pool zu + zerstören, wenn dieser nicht mehr benötigt wird, geben Sie ein: &prompt.root; zfs destroy example/compressed @@ -314,7 +314,7 @@ example/data 17547008 0 175 &sun; empfiehlt, dass die Anzahl der Geräte in einer RAID-Z Konfiguration zwischen drei und neun beträgt. Für Umgebungen, die einen einzelnen Pool - enötigen, der aus 10 oder mehr Platten besteht, sollten Sie + benötigen, der aus 10 oder mehr Platten besteht, sollten Sie in Erwägung ziehen, diesen in kleinere RAID-Z-Gruppen aufzuteilen. Falls nur zwei Platten verfügbar sind und Redundanz benötigt wird, @@ -349,7 +349,7 @@ example/data 17547008 0 175 Daten von Anwendern werden nun auf dem frisch erstellten /storage/home abgelegt. Überprüfen Sie dies durch das Anlegen eines neuen Benutzers und das - anschliessende Anmelden als dieser Benutzer. + anschließende Anmelden als dieser Benutzer. Versuchen Sie, einen Dateisystemschnappschuss anzulegen, den Sie später wieder zurückrollen können: @@ -377,11 +377,11 @@ example/data 17547008 0 175 &prompt.root; ls /storage/home/.zfs/snapshot - Es ist möglich, ein Skript zu schreiben, um regelmässig + Es ist möglich, ein Skript zu schreiben, um regelmäßig Schnappschüsse von Benutzerdaten anzufertigen. Allerdings - verbrauchen Schnappschüsse über lange Zeit eine grosse Menge + verbrauchen Schnappschüsse über lange Zeit eine große Menge an Speicherplatz. Der zuvor angelegte Schnappschuss kann - durch folgendes Kommundo wieder entfernt werden: + durch folgendes Kommando wieder entfernt werden: &prompt.root; zfs destroy storage/home@08-30-08 @@ -414,8 +414,8 @@ storage/home 26320512 0 26320512 abgeschlossen. Tägliche Informationen über den Status der erstellten Dateisysteme können als Teil des nächtlichen &man.periodic.8;-Berichts generiert werden. Fügen Sie dazu - die folgende Zeile in die Datei - /etc/periodic.conf ein: + die folgende Zeile in /etc/periodic.conf + ein: daily_status_zfs_enable="YES" @@ -424,7 +424,7 @@ storage/home 26320512 0 26320512 <acronym>RAID-Z</acronym> wiederherstellen Jedes Software-RAID besitzt eine - Methode, um den Zustund (state) zu + Methode, um den Zustand (state) zu überprüfen. Der Status von RAID-Z Geräten wird mit diesem Befehl angezeigt: @@ -437,8 +437,8 @@ storage/home 26320512 0 26320512 all pools are healthy Wenn es ein Problem gibt, womöglich ist eine Platte - im Zustund Offline, - dann wird der Poolzustund ähnlich wie dieser aussehen: + im Zustand Offline, + dann wird der Poolzustand ähnlich wie dieser aussehen: pool: storage state: DEGRADED @@ -520,12 +520,12 @@ errors: No known data errors &prompt.root; zpool scrub storage Die Laufzeit einer Überprüfung hängt ab von der Menge an - Daten, die gespeichert sind. Grössere Mengen an Daten + Daten, die gespeichert sind. Größere Mengen an Daten benötigen proportional mehr Zeit zum überprüfen. Diese Überprüfungen sind sehr I/O-intensiv und es kann auch nur eine Überprüfung zur gleichen Zeit durchgeführt werden. Nachdem eine Prüfung beendet ist, kann - der Status mit dem Unterkommundo status + der Status mit dem Unterkommando status angezeigt werden: &prompt.root; zpool status storage @@ -559,7 +559,7 @@ errors: No known data errors Administration von ZFS ist unterteilt zwischen zwei Hauptkommandos. Das - zpool-Wekzeug steuert die Operationen des + zpool-Werkzeug steuert die Operationen des Pools und kümmert sich um das Hinzufügen, entfernen, ersetzen und verwalten von Platten. Mit dem zfs-Befehl können @@ -585,7 +585,7 @@ errors: No known data errors gestatten, sowie stripes, die zu Spiegeln umgewandelt werden können, indem man zusätzliche Platten zum vdev anhängt. Obwohl weitere vdevs eingefügt werden können, um einen Pool zu - vergrössern, kann das Layout des Pools nach dem Anlegen nicht + vergrößern, kann das Layout des Pools nach dem Anlegen nicht mehr verändert werden. Stattdessen müssen die Daten gesichert, der Pool zerstört und danach neu erstellt werden. @@ -641,11 +641,11 @@ errors: No known data errors Partition anstatt einer ganzen Platte verwendet wird. Durch den Einsatz von Partitionen kann der Administrator die Platten unter provisionieren, indem weniger als - die volle Kapazität Verwendung findet. Wenn in Zukunft ein - Ersatzfestplatte mit der gleichen Grösse als die + die volle Kapazität Verwendung findet. Wenn in Zukunft eine + Ersatzfestplatte mit der gleichen Größe als die Originalplatte eine kleinere Kapazität aufweist, passt die - kleinere Partition immer noch passen und die Ersatzplatte - immer noch verwendet werden. + kleinere Partition immer noch und die Ersatzplatte kann immer + noch verwendet werden. Erstellen eines RAID-Z2-Pools mit @@ -708,10 +708,10 @@ errors: No known data errors zpool attach können auch zusätzliche Platten zu einer Spiegelgruppe eingefügt werden, was die Redundanz und Lesegeschwindigkeit steigert. Wenn die Platten, - aus denen der Pool besteht, aus partitioniert sind, - replizieren Sie das Layout der ersten Platte auf die Zweite - und verwenden dann gpart backup, gefolgt - von gpart restore, um diesen Vorgang + aus denen der Pool besteht, partitioniert sind, + replizieren Sie das Layout der ersten Platte auf die Zweite. + Verwenden Sie dazu gpart backup und + gpart restore, um diesen Vorgang einfacher zu gestalten. Umwandeln eines (stripe) vdevs namens @@ -780,7 +780,7 @@ errors: No known data errors Zusätzliche vdevs bieten höhere Geschwindigkeit, indem Schreibvorgänge über die vdevs verteilt werden. Jedes vdev ist dafür verantwortlich, seine eigene Redundanz - sicherzustellen. Es ist möglich, aber nicht empfohlen, + sicherzustellen. Es ist möglich, aber nicht empfehlenswert, vdev-Arten zu mischen, wie zum Beispiel mirror und RAID-Z. Durch das Einfügen eines nicht-redundanten vdev zu einem @@ -920,21 +920,21 @@ errors: No known data errors Wenn ein Fehler erkannt wurde, werden die Lese-, Schreib- oder Prüfsummenzähler erhöht. Die Fehlermeldung kann - beseitigt und der Zähler zurückgesetzt werden mit + beseitigt und der Zähler mit zpool clear - mypool. Den - Fehlerzustand zurückzusetzen kann wichtig sein, wenn - automatisierte Skripte ablaufen, die den Administrator + mypool zurückgesetzt + werden. Den Fehlerzustand zurückzusetzen kann wichtig sein, + wenn automatisierte Skripte ablaufen, die den Administrator informieren, sobald der Pool Fehler anzeigt. Weitere Fehler werden nicht gemeldet, wenn der alte Fehlerbericht nicht entfernt wurde. - Ein defektes Gerät entfernen + Ein funktionierendes Gerät ersetzen Es gibt eine Reihe von Situationen, in denen es nötig - wird, eine defekte Platte mit einer anderen auszutauschen. + ist, eine Platte mit einer anderen auszutauschen. Wenn eine funktionierende Platte ersetzt wird, hält der Prozess die alte Platte während des Ersetzungsvorganges noch aktiv. Der Pool wird nie den Zustand zpool replace auf die Neue übertragen. Nachdem die Operation abgeschlossen ist, wird die alte Platte vom vdev getrennt. Falls die neue Platte grösser ist als die - alte Platte , ist es möglich den Pool zu vergrössern, um den + alte Platte , ist es möglich den Pool zu vergrößern, um den neuen Platz zu nutzen. Lesen Sie dazu Einen Pool vergrössern. + linkend="zfs-zpool-online">Einen Pool vergrößern. Ersetzen eines funktionierenden Geräts in einem Pool: @@ -1031,10 +1031,10 @@ errors: No known data errors Falls das vdev keine Redundanz besitzt oder wenn mehrere Geräte ausgefallen sind und es nicht genug Redundanz gibt, um - zu kompensieren, geht der Pool in den Zustand faulted über. Wenn eine - ausreichende Anzahl von Geräten nicht wieder an den Pool - angeschlossen werden können, fällt der Pool aus und die Daten + dies zu kompensieren, geht der Pool in den Zustand faulted über. Wenn keine + ausreichende Anzahl von Geräten wieder an den Pool + angeschlossen wird, fällt der Pool aus und die Daten müssen von Sicherungen wieder eingespielt werden. Wenn eine defekte Platte ausgewechselt wird, wird der Name @@ -1102,12 +1102,12 @@ errors: No known data errors Einen Pool überprüfen - Es wird empfohlen, dass Pools regelmässig geprüft (Es wird empfohlen, dass Pools regelmäßig geprüft (scrubbed) werden, idealerweise mindestens einmal pro Monat. Der scrub-Vorgang ist beansprucht die Platte sehr und reduziert die Geschwindigkeit während er läuft. - Vermeiden Sie Zeiten, in denen grosser Bedarf besteht, wenn + Vermeiden Sie Zeiten, in denen großer Bedarf besteht, wenn Sie scrub starten oder benutzen Sie vfs.zfs.scrub_delay, um die relative Priorität vom scrub @@ -1158,7 +1158,7 @@ errors: No known data errors welche die Daten überprüfen und reparieren. Diese Kommandos benötigen einige Zeit und in gravierenden Fällen muss ein Administrator manuelle Entscheidungen treffen, welche - Reparaturoperation vorgenommen werden soll. Wenn + Reparaturoperation vorgenommen werden soll. Wenn ZFS einen defekten Datenblock mit einer Prüfsumme erkennt, die nicht übereinstimmt, versucht es die Daten von der gespiegelten Platte zu lesen. Wenn diese Platte @@ -1209,12 +1209,12 @@ SHA1 (/healer) = 2753eff56d77d9a536ece66 Daten an den Anfang einer Platte des Spiegels simuliert. Um ZFS daran zu hindern, die Daten so schnell zu reparieren, wie es diese entdeckt, wird der Pool vor der - Veränderung exportiert und anschliessend wieder + Veränderung exportiert und anschließend wieder importiert. Dies ist eine gefährliche Operation, die wichtige Daten - zerstören kann. Es wird hier nur zu Demonstrationszwecken + zerstören kann. Es wird hier nur zu Demonstrationszwecken gezeigt und sollte nicht während des normalen Betriebs des Pools versucht werden. Dieses vorsätzliche Korrumpierungsbeispiel sollte auf gar keinen Fall auf einer @@ -1341,10 +1341,10 @@ errors: No known data errors Nach der scrub-Operation und der anschliessenden Synchronisation der Daten von ada0 nach - ada1, kann die Fehlermeldun vom - Poolstatus bereinigt - werden durch die Eingabe von - zpool clear. + ada1, kann die Fehlermeldung vom + Poolstatus durch die Eingabe von + zpool clear + bereinigt werden. &prompt.root; zpool clear healer &prompt.root; zpool status healer @@ -1361,7 +1361,7 @@ config: errors: No known data errors - Der Pool ist jetzt wieder in einen voll funktionsfähigen + Der Pool ist jetzt wieder in einem voll funktionsfähigen Zustand versetzt worden und alle Fehler wurden beseitigt. @@ -1369,20 +1369,20 @@ errors: No known data errors Einen Pool vergrössern - Die verwendbare Grösse eines redundant ausgelegten Pools + Die verwendbare Größe eines redundant ausgelegten Pools ist durch die Kapazität des kleinsten Geräts in jedem vdev - begrenzt. Das kleinste Gerät kann durch ein grösseres Gerät + begrenzt. Das kleinste Gerät kann durch ein größeres Gerät ersetzt werden. Nachdem eine replace oder resilver-Operation abgeschlossen wurde, kann der Pool anwachsen, um die Kapazität des neuen Geräts zu nutzen. Nehmen wir als Beispiel einen - Spiegel mit einer 1 TB und einer 2 TB Platte. Der + Spiegel mit einer 1 TB und einer 2 TB Platte. Der verwendbare Plattenplatz beträgt 1 TB. Wenn die 1 TB Platte mit einer anderen 2 TB Platte ersetzt wird, kopiert der resilver-Prozess die existierenden Daten auf die neue Platte. Da beide Geräte nun 2 TB Kapazität - besitzen, kann auch der verfügbare Plattenplatz auf die Grösse + besitzen, kann auch der verfügbare Plattenplatz auf die Größe von 2 TB anwachsen. Die Erweiterung wird durch das Kommando @@ -1416,8 +1416,8 @@ errors: No known data errors Beim Importieren eines Pool werden auch automatisch alle Datasets eingehängt. Dies ist möglicherweise nicht das - bevorzugte Verhalten und wird durch - zpool import -N verhindert. Durch + bevorzugte Verhalten und wird durch + zpool import -N verhindert. Durch zpool import -o temporäre Eigenschaften nur für diesen Import gesetzt. Mit dem Befehl zpool import altroot= ist es möglich, einen @@ -1425,10 +1425,9 @@ errors: No known data errors des Dateisystems einzubinden. Wenn der Pool zuletzt auf einem anderen System verwendet und nicht korrekt exportiert wurde, muss unter Umständen ein Import erzwungen werden durch - zpool import -f. Alle Pools lassen sich - durch zpool import -a importieren, die - nicht durch ein anderes System momemtan verwendet - werden. + zpool import -f. Alle Pools, die momentan + nicht durch ein anderes System verwendet werden, lassen sich + mit zpool import -a importieren. Alle zum Import verfügbaren Pools auflisten: @@ -1455,7 +1454,7 @@ mypool 110K 47.0G 31K Einen Pool aktualisieren - Nachdem &os; aktualisiert wurde oder wenn der Poo von + Nachdem &os; aktualisiert wurde oder wenn der Pool von einem anderen System, das eine ältere Version von ZFS einsetzt, lässt sich der Pool manuell auf den aktuellen Stand von ZFS bringen, um @@ -1574,7 +1573,7 @@ Enabled the following features on 'mypoo Der Bootcode muss auf Systemen, die von dem Pool starten, aktualisiert werden, um diese neue Version zu - unterstützen. Verwenden Sie + unterstützen. Verwenden Sie gpart bootcode auf der Partition, die den Bootcode enthält. Lesen Sie für weitere Informationen &man.gpart.8;. @@ -1585,11 +1584,11 @@ Enabled the following features on 'mypoo Aufgezeichnete Historie des Pools anzeigen Befehle, die den Pool in irgendeiner Form verändern, - werden aufgezeichnet. Diese Befehle beinhalten das Erstellen + werden aufgezeichnet. Diese Befehle beinhalten das Erstellen von Datasets, verändern von Eigenschaften oder das Ersetzen einer Platte. Diese Historie ist nützlich um nachzuvollziehen, wie ein Pool aufgebaut ist und welcher - Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die + Benutzer eine bestimmte Aktion wann und wie getätigt hat. Die aufgezeichnete Historie wird nicht in einer Logdatei festgehalten, sondern ist Teil des Pools selbst. Das Kommando zum darstellen dieser Historie lautet passenderweise @@ -1605,17 +1604,17 @@ History for 'tank': Die Ausgabe zeigt zpool und zfs-Befehle, die ausgeführt wurden zusammen mit einem Zeitstempel. Nur Befehle, die den Pool verändern - werden aufgezeichnet. Befehle wie - zfs list sind dabei nicht enthalten. Wenn + werden aufgezeichnet. Befehle wie + zfs list sind dabei nicht enthalten. Wenn kein Name angegeben wird, erscheint die gesamte Historie aller Pools. Der Befehl zpool history kann sogar noch mehr Informationen ausgeben, wenn die Optionen oder angegeben - werden. Durch zeigt ZFS - vom Benutzer eingegebene, als auch interne Ereignisse - an. + werden. Durch zeigt + ZFS vom Benutzer eingegebene, als auch + interne Ereignisse an. &prompt.root; zpool history -i History for 'tank': @@ -1629,7 +1628,7 @@ History for 'tank': Weitere Details lassen sich durch die Angabe von entlocken. Historische Einträge werden in - einem langen Format ausgegeben, einschliesslich Informationen + einem langen Format ausgegeben, einschließlich Informationen wie der Name des Benutzers, welcher das Kommando eingegeben hat und der Hostname, auf dem die Änderung erfolgte. @@ -1642,7 +1641,7 @@ History for 'tank': Die Ausgabe zeigt, dass der Benutzer root den gespiegelten Pool mit - den beiden Platten + den beiden Platten /dev/ada0 und /dev/ada1 angelegt hat. Der Hostname myzfsbox wird @@ -1659,7 +1658,7 @@ History for 'tank': eines Pools auszugeben. Die Pool Historie liefert wertvolle Informationen, wenn Aktionen nachverfolgt werden müssen oder zur Fehlerbeseitigung mehr Informationen gebraucht - werden. + werden. @@ -1670,7 +1669,7 @@ History for 'tank': zeigt die Menge von freiem und belegtem Speicherplatz auf dem Pool an, wieviele Lese- und Schreiboperationen pro Sekunde durchgeführt werden und die aktuell verwendete - I/O-Bandbreite. Standardmässig werden alle + I/O-Bandbreite. Standardmäßig werden alle Pools in einem System überwacht und angezeigt. Ein Poolname kann angegeben werden, um die Anzeige auf diesen Pool zu beschränken. Ein einfaches Beispiel: @@ -1684,7 +1683,7 @@ data 288G 1.53T 2 11 Um kontinuierlich die I/O-Aktivität zu überprüfen, kann eine Zahl als letzter Parameter angegeben werden, die ein Intervall in Sekunden angibt, die zwischen den - Aktulisierungen vergeben soll. Die nächste Zeile mit + Aktualisierungen vergehen soll. Die nächste Zeile mit Statistikinformationen wird dann nach jedem Intervall ausgegeben. Drücken Sie @@ -1748,29 +1747,29 @@ data 288G 1.53T Anders als in traditionellen Festplatten- und Volumenmanagern wird der Plattenplatz in - ZFS not + ZFS nicht vorher allokiert. Bei traditionellen Dateisystemen gibt es, nachdem der Plattenplatz partitioniert und zugeteilt wurde, keine Möglichkeit, ein zusätzliches Dateisystem hinzuzufügen, ohne eine neue Platte - anzuschliessen. Mit + anzuschließen. Mit ZFS lassen sich neue Dateisysteme zu jeder Zeit anlegen. Jedes Dataset besitzt Eigenschaften wie Komprimierung, Deduplizierung, Zwischenspeicher (caching), Quotas, genauso wie andere nützliche Einstellungen wie Schreibschutz, Unterscheidung - zwischen Gross- und Kleinschreibung, Netzwerkfreigaben und + zwischen Groß- und Kleinschreibung, Netzwerkfreigaben und einen Einhängepunkt. Datasets können ineinander verschachtelt werden und Kind-Datasets erben die Eigenschaften ihrer Eltern. - Jedes Dataset kann als eine Einheit verwaltet, + Jedes Dataset kann als eine Einheit verwaltet, delegiert, repliziert, mit Schnappschüssen versehen, in Jails gesteckt und zerstört werden. Es gibt viele Vorteile, ein separates Dataset für jede Art von Dateien anzulegen. Der - einzige Nachteil einer grossen Menge an Datasets ist, dass + einzige Nachteil einer großen Menge an Datasets ist, dass manche Befehle wie zfs list langsamer sind und dass das Einhängen von hunderten oder hunderttausenden von Datasets de &os;-Bootvorgang verzögert. @@ -1887,7 +1886,7 @@ mypool/var/tmp 152K 93.2G 152K Ein Volume kann mit einem beliebigen Dateisystem formatiert werden oder auch ohne ein Dateisystem als reiner - Datenspeicher zu dienen. Für den Benutzer erscheint ein + Datenspeicher fungieren. Für den Benutzer erscheint ein Volume als eine gewöhnliche Platte. Indem gewöhnliche Dateisysteme auf diesen zvols angelegt werden, ist es möglich, diese mit Eigenschaften auszustatten, @@ -1928,7 +1927,7 @@ Filesystem Size Used Avail Cap neuen Elternteil geerbt wird). Dieses Verhalten kann durch die Option verhindert werden. - Ein Dataset umbenennen und unter einem anderes + Ein Dataset umbenennen und unter einem anderen Elterndataset verschieben: &prompt.root; zfs list @@ -1992,11 +1991,10 @@ mypool/var/newname@new_snapshot_name property=value dataset fest. Die meisten Eigenschaften haben eine begrenzte Menge von gültigen - Werten. zfs get stellt diese dar und zeigt - jede mögliche Eigenschaft und gültige Werte an. Die meisten - Eigenschaften können wieder auf ihren Ausgangswert - zurückgesetzt werden über - zfs inherit. + Werten. zfs get stellt diese dar und zeigt + jede mögliche Eigenschaft und gültige Werte an. Die meisten + Eigenschaften können über zfs inherit + wieder auf ihren Ausgangswert zurückgesetzt werden. Benutzerdefinierte Eigenschaften lassen sich ebenfalls setzen. Diese werden Teil der Konfiguration des Datasets und @@ -2038,11 +2036,11 @@ tank custom:costcenter - COW), können Schnappschüsse schnell erstellt werden durch das Aufheben der älteren Version der Daten auf der Platte. Falls kein Snapshot existiert, wird der - Speicherplatz wieder für zukünfitge Verwendung freigegeben + Speicherplatz wieder für zukünftige Verwendung freigegeben wenn Daten geschrieben oder gelöscht werden. Schnappschüsse sparen Speicherplatz, indem diese nur die Unterschiede zwischen dem momentanen Dataset und der vorherigen Version - aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets + aufzeichnen. Schnappschüsse sind nur auf ganzen Datasets erlaubt, nicht auf individuellen Dateien oder Verzeichnissen. Wenn ein Schnappschuss eines Datasets erstellt wird, wird alles was darin enthalten ist, dupliziert. Das beinhaltet @@ -2057,14 +2055,14 @@ tank custom:costcenter - eine Anwendung Dateien auf mehreren Datasets ablegt, die miteinander in Verbindung stehen oder voneinander abhängig sind. Ohne Schnappschüsse würde ein Backup Kopien dieser - Dateien zu unterschiedlichen Zeitpunkten enthalten. + Dateien zu unterschiedlichen Zeitpunkten enthalten. Schnappschüsse in ZFS bieten eine Vielzahl von Eigenschaften, die selbst in anderen Dateisystemen mit Schnappschussfunktion nicht vorhanden sind. Ein typisches Beispiel zur Verwendung von Schnappschüssen ist, den momentanen Stand des Dateisystems zu sichern, - wenn eine riskante Aktion wie das Installieren von Softwre + wenn eine riskante Aktion wie das Installieren von Software oder eine Systemaktualisierung durchgeführt wird. Wenn diese Aktion fehlschlägt, so kann der Schnappschuss zurückgerollt werden und das System befindet sich wieder in dem gleichen @@ -2073,11 +2071,11 @@ tank custom:costcenter - Schnappschuss gelöscht werden, um Speicherplatz frei zu geben. Ohne Schnappschüsse, wird durch ein fehlgeschlagenes Update eine Wiederherstellung der Sicherung fällig, was oft mühsam - und zeitaufwändig ist, ausserdem ist währenddessen das System + und zeitaufwändig ist, außerdem ist währenddessen das System nicht verwendbar. Schnappschüsse lassen sich schnell und mit wenig bis gar keiner Ausfallzeit zurückrollen, selbst wenn das System im normalen Betrieb läuft. Die Zeitersparnis - ist enorm, wenn mehrere Terabyte grosse Speichersysteme + ist enorm, wenn mehrere Terabyte große Speichersysteme eingesetzt werden und viel Zeit für das Kopieren der Daten vom Sicherungssystem benötigt wird. Schnappschüsse sind jedoch keine Ersatz für eine Vollsicherung des Pools, können jedoch @@ -2161,12 +2159,12 @@ mypool/usr/home@my_recursive_snapshot Schnappschüsse in COW Manier funktionieren. Sie zeichnen nur die Änderungen (delta) auf, die währenddessen - enstanden sind und nicht noch einmal den gesamten Inhalt des - Dateisystems. Das bedeutet, dass Schnappschüsse nur wenig - Speicherplatz benötigen, wenn nur kleine Änderungen + entstanden sind und nicht noch einmal den gesamten Inhalt + des Dateisystems. Das bedeutet, dass Schnappschüsse nur + wenig Speicherplatz benötigen, wenn nur kleine Änderungen vorgenommen werden. Der Speicherverbrauch kann sogar noch deutlicher gemacht werden, wenn eine Datei auf das Dataset - kopiert wird und anschliessend ein zweiter Schnappschuss + kopiert wird und anschließend ein zweiter Schnappschuss angelegt wird: &prompt.root; cp /etc/passwd /var/tmp @@ -2180,7 +2178,7 @@ mypool/var/tmp@after_cp Der zweite Schnappschuss enthält nur die Änderungen am Dataset, die nach der Kopieraktion gemacht wurden. Dies bedeutet enorme Einsparungen von Speicherplatz. Beachten - Sie, dass sich die Grösse des Schnappschusses + Sie, dass sich die Größe des Schnappschusses mypool/var/tmp@my_recursive_snapshot in der Spalte USED ebenfalls geändert hat, um die Änderungen von sich selbst und dem @@ -2250,7 +2248,7 @@ M /var/tmp/ Vergleicht man die Ausgabe mit der Tabelle, wird klar, dass passwd - hinzugefügt wurde, nachdem der Schnappschuss + hinzugefügt wurde, nachdem der Schnappschuss mypool/var/tmp@my_recursive_snapshot erstellt wurde. Das resultierte ebenfalls in einer Änderung am darüberliegenden Verzeichnis, das unter @@ -2278,10 +2276,11 @@ M /var/tmp/ Ein Administrator, der für die Sicherung zuständig ist, kann zwei Schnappschüsse miteinander vergleichen, die vom - sendenen Host empfangen wurden, um festzustellen, welche - Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu den - Abschnitt Replication - um weitere Informationen zu erhalten. + sendenden Host empfangen wurden, um festzustellen, welche + Änderungen am Dataset vorgenommen wurden. Lesen Sie dazu + den Abschnitt Replication um weitere + Informationen zu erhalten. @@ -2290,7 +2289,7 @@ M /var/tmp/ Wenn zumindest ein Schnappschuss vorhanden ist, kann dieser zu einem beliebigen Zeitpunkt zurückgerollt werden. In den meisten Fällen passiert dies, wenn der aktuelle - Zustand des Datasets nicht mehr benötigt wurd und eine + Zustand des Datasets nicht mehr benötigt wird und eine ältere Version bevorzugt wird. Szenarien wie lokale Entwicklungstests, die fehlgeschlagen sind, defekte Systemaktualisierungen, welche die Funktionalität des @@ -2309,7 +2308,7 @@ M /var/tmp/ dies passiert, ist das Dataset immer noch aktiv und erreichbar ohne dass eine Ausfallzeit nötig wäre. Sobald der Schnappschuss zurückgerollt wurde, besitzt das Dataset - den gleichen Zustand, den es besass, als der Schnappschuss + den gleichen Zustand, den es besaß, als der Schnappschuss angelegt wurde. Alle anderen Daten in diesem Dataset, die nicht Teil des Schnappschusses sind, werden verworfen. Einen Schnappschuss des aktuellen Zustandes des Datasets vor @@ -2318,9 +2317,9 @@ M /var/tmp/ der Benutzer vor und zurück zwischen den Schnappschüssen springen, ohne wertvolle Daten zu verlieren. - Im ersten Beispiel wird en Schnappschuss aufgrund eines + Im ersten Beispiel wird ein Schnappschuss aufgrund eines unvorsichtigen rm-Befehls zurückgerollt, - der zuviele Daten gelöscht hat, als vorgesehen. + der mehr Daten gelöscht hat, als vorgesehen. &prompt.root; zfs list -rt all mypool/var/tmp NAME USED AVAIL REFER MOUNTPOINT @@ -2339,7 +2338,7 @@ vi.recover Dateien gelöscht wurden und möchte diese zurück haben. ZFS bietet eine einfache Möglichkeit, diese durch zurückrollen zurück zu bekommen, allerdings nur, - wenn Schnappschüsse von wichtigen Daten regelmässig angelegt + wenn Schnappschüsse von wichtigen Daten regelmäßig angelegt werden. Um die Dateien zurückzuerhalten und vom letzten Schnappschuss wieder zu beginnen, geben Sie ein: @@ -2369,9 +2368,9 @@ mypool/var/tmp@diff_snapshot zwischen dem momentanen Stand des Datasets und dem Schnappschuss, zu dem der Benutzer zurückrollen möchte, existieren. Um das Zurückrollen durchzuführen, müssen die - Schnappschüsse gelöscht werden. ZFS kann + Schnappschüsse gelöscht werden. ZFS kann nicht alle Änderungen zwischen verschiedenen Zuständen - eines Datasets verfolgen, da Schnappschüsse zur gelesen + eines Datasets verfolgen, da Schnappschüsse nur gelesen werden können. ZFS wird nicht die betroffenen Schnappschüsse löschen, es sei denn, der Benutzer verwendet die Option , um @@ -2400,7 +2399,7 @@ vi.recover Schnappschüsse sind unter einem versteckten Verzeichnis unter dem Eltern-Dataset eingehängt: .zfs/snapshots/snapshotname. - Standardmässig werden diese Verzeichnisse nicht von einem + Standardmäßig werden diese Verzeichnisse nicht von einem gewöhnlichen ls -a angezeigt. Obwohl diese Verzeichnisse nicht angezeigt werden, sind diese trotzdem vorhanden und der Zugriff darauf erfolgt wie auf @@ -2508,7 +2507,7 @@ cp: /var/tmp/.zfs/snapshot/after_cp/rc.c Schnappschusses. Um diese Klon-Funktionalität zu demonstrieren, wird dieses - Beispiel-Dataset verwendet: + Beispiel-Dataset verwendet: &prompt.root; zfs list -rt all camino/home/joe NAME USED AVAIL REFER MOUNTPOINT @@ -2548,7 +2547,7 @@ usr/home/joenew 1.3G 31k 1.3G Eigenschaft namens origin auf. Sobald die Abhängigkeit zwischen dem Schnappschuss und dem Klon durch das Befördern des Klons mittels zfs promote - entfernt wurde, wird auch die + entfernt wurde, wird auch die origin-Eigenschaft des Klons entfernt, da es sich nun um ein eigenständiges Dataset handelt. Dieses Beispiel demonstriert dies: @@ -2584,14 +2583,14 @@ usr/home/joe 1.3G 128k 1.3G Der geklonte Schnappschuss wird jetzt wie ein gewöhnliches Dataset behandelt. Es enthält alle Daten aus dem ursprünglichen Schnappschuss inklusive der Dateien, die - anschliessend hinzugefügt wurden, wie + anschließend hinzugefügt wurden, wie loader.conf. Klone können in unterschiedlichen Szenarien eingesetzt werden, um nützliche Eigenschaften für ZFS-Anwender zur Verfügung zu stellen. Zum Beispiel können Jails als Schnappschüsse bereitgestellt werden, die verschiedene Arten von installierten Anwendungen anbieten. Anwender können diese Schnappschüsse klonen und - ihre eigenen Anwendungen nach belieben hinzufügen. Sobald + ihre eigenen Anwendungen nach Belieben hinzufügen. Sobald sie mit den Änderungen zufrieden sind, können die Klone zu vollständigen Datasets ernannt werden und dem Anwender zur Verfügung gestellt werden, als würde es sich um echte @@ -2606,7 +2605,7 @@ usr/home/joe 1.3G 128k 1.3G Daten auf einem einzigen Pool an einem Platz aufzubewahren, setzt diese dem Risiko aus, gestohlen oder Opfer von Naturgewalten zu werden, sowie menschlichem - Versagen auszusetzen. Regelmässige Sicherungen des gesamten + Versagen auszusetzen. Regelmäßige Sicherungen des gesamten Pools ist daher unerlässlich. ZFS bietet eine Reihe von eingebauten Serialisierungsfunktionen an, die in der Lage ist, eine Repräsentation der Daten als Datenstrom @@ -2630,8 +2629,8 @@ backup 960M 77K 896M 0% 1.00x mypool 984M 43.7M 940M 4% 1.00x ONLINE - Der Pool namens mypool ist der - primäre Pool, auf den regelmässig Daten geschrieben und auch - wieder gelesen werden. Ein zweiter Pool, genannt + primäre Pool, auf den regelmäßig Daten geschrieben und auch + wieder gelesen werden. Ein zweiter Pool, genannt backup wird verwendet, um als Reserve zu dienen im Falle, dass der primäre Pool nicht zur Verfügung steht. Beachten Sie, dass diese Ausfallsicherung @@ -2644,7 +2643,7 @@ mypool 984M 43.7M 940M 4% 1.00x den backup-Pool abgelegt werden. Nur Schnappschüsse lassen sich auf diese Weise replizieren. Änderungen, die seit dem letzten Schnappschuss entstanden - sind, werden nicht mit repliziert. + sind, werden nicht mit repliziert. &prompt.root; zfs snapshot mypool@backup1 &prompt.root; zfs list -t snapshot @@ -2667,10 +2666,10 @@ You must redirect standard output.Um ein Dataset mit zfs send zu replizieren, leiten Sie dieses in eine Datei auf dem eingehängten Backup-Pool um. Stellen Sie sicher, dass der - Pool genug freien Speicherplatz besitzt, um die Grösse des + Pool genug freien Speicherplatz besitzt, um die Größe des gesendeten Schnappschusses aufzunehmen. Das beinhaltet alle Daten im Schnappschuss, nicht nur die Änderungen zum - vorherigen Schnappschuss. + vorherigen Schnappschuss. &prompt.root; zfs send mypool@backup1 > /backup/backup1 &prompt.root; zpool list @@ -2777,12 +2776,12 @@ mypool@replica2 Dateien und Daten vom Pool mypool verfügbar. Wenn die Option angegeben wird, werden die - Eigenschaften des Datasets kopiert, einschliesslich der - Komprimierungseinstellungen, Quotas und Einhängpunkte. + Eigenschaften des Datasets kopiert, einschließlich der + Komprimierungseinstellungen, Quotas und Einhängepunkte. Wird die Option verwendet, so werden alle Kind-Datasets des angegebenen Datasets kopiert, zusammen mit ihren Eigenschaften. Senden und Empfangen kann - automatisiert werden, so dass regelmässig Sicherungen auf + automatisiert werden, so dass regelmäßig Sicherungen auf dem zweiten Pool angelegt werden. @@ -2791,7 +2790,7 @@ mypool@replica2 SSH senden Datenströme über das Netzwerk zu schicken ist eine gute - Methode, um Sicherungen ausserhalb des Systems anzulegen. + Methode, um Sicherungen außerhalb des Systems anzulegen. Jedoch ist dies auch mit einem Nachteil verbunden. Daten, die über die Leitung verschickt werden, sind nicht verschlüsselt, was es jedem erlaubt, die Daten abzufangen @@ -2801,9 +2800,9 @@ mypool@replica2 das Internet auf ein entferntes System gesendet werden. SSH kann benutzt werden, um durch Verschlüsselung geschützte Daten über eine - Netzwerkverbindung zu übertragen. Da ZFS + Netzwerkverbindung zu übertragen. Da ZFS nur die Anforderung hat, dass der Strom von der - Standardausgaben umgeleitet wird, ist es relativ einfach, + Standardausgabe umgeleitet wird, ist es relativ einfach, diesen durch SSH zu leiten. Um den Inhalt des Dateisystems während der Übertragung und auf dem entfernten System weiterhin verschlüsselt zu lassen, @@ -2811,10 +2810,10 @@ mypool@replica2 xlink:href="http://wiki.freebsd.org/PEFS">PEFS nach. - Ein paar Einstellungen udn Sicherheitsvorkehrungen + Ein paar Einstellungen und Sicherheitsvorkehrungen müssen zuvor abgeschlossen sein. Es werden hier nur die nötigen Schritte für die zfs send-Aktion - gezeigt. Weiterführende Informationen zu + gezeigt. Weiterführende Informationen zu SSH, gibt es im Kapitel . @@ -2836,13 +2835,13 @@ mypool@replica2 root. Allerdings ist das Anmelden als root aus - Sicherheitsgründen standardmässig deaktiviert. Mit + Sicherheitsgründen standardmäßig deaktiviert. Mit ZFS Delegation lassen sich nicht-root-Benutzer auf jedem System einrichten, welche die nötigen Rechte besitzen, um die Sende- und Empfangsoperation - durchzuführen. + durchzuführen. @@ -2852,7 +2851,7 @@ mypool@replica2 - Um den Pool einzuhängen, muss der unpriviligierte + Um den Pool einzuhängen, muss der unprivilegierte Benutzer das Verzeichnis besitzen und gewöhnliche Benutzern muss die Erlaubnis gegeben werden, das Dateisystem einzuhängen. Auf dem empfangenden System @@ -2867,7 +2866,7 @@ vfs.usermount: 0 -> 1 - Der unpriviligierte Benutzer hat jetzt die Fähigkeit, + Der unprivilegierte Benutzer hat jetzt die Fähigkeit, Datasets zu empfangen und einzuhängen und das home-Dataset auf das entfernte System zu replizieren: @@ -2895,7 +2894,7 @@ vfs.usermount: 0 -> 1 wird das Dateisystem nicht auf der Empfängerseite eingehängt. Wenn enthalten ist, werden mehr Details zum Transfer angezeigt - werden, einschliesslich der vergangenen Zeit und der Menge + werden, einschließlich der vergangenen Zeit und der Menge an übertragenen Daten. @@ -2905,7 +2904,7 @@ vfs.usermount: 0 -> 1 Dataset-Quotas werden eingesetzt, um den Speicherplatz einzuschränken, den - ein bestimmtes Dataset verbrauchen kann. Referenz-Quotas funktionieren auf eine ähnliche Weise, jedoch wird dabei der Speicherplatz des Datasets selbst gezählt, wobei @@ -2917,19 +2916,19 @@ vfs.usermount: 0 -> 1 gesamten Speicherplatz im Pool oder auf dem Dataset zu verbrauchen. - Um eine 10 GB grösse Quota auf dem Dataset + Um ein 10 GB großes Quota auf dem Dataset storage/home/bob zu erzwingen, verwenden Sie folgenden Befehl: &prompt.root; zfs set quota=10G storage/home/bob - Um eine Referenzquota von 10 GB für + Um ein Referenzquota von 10 GB für storage/home/bob festzulegen, geben Sie ein: &prompt.root; zfs set refquota=10G storage/home/bob - Um eine Quota für storage/home/bob + Um das Quota für storage/home/bob wieder zu entfernen: &prompt.root; zfs set quota=none storage/home/bob @@ -2961,13 +2960,13 @@ vfs.usermount: 0 -> 1 - Um beispielsweise eine Benutzerquota von 50 GB für + Um beispielsweise ein Benutzerquota von 50 GB für den Benutzer names joe zu erzwingen: &prompt.root; zfs set userquota@joe=50G - Um jegliche Quota zu entfernen: + Um jegliche Quotas zu entfernen: &prompt.root; zfs set userquota@joe=none @@ -2986,7 +2985,7 @@ vfs.usermount: 0 -> 1 lautet: groupquota@group=size. - Um eine Quota für die Gruppe + Um ein Quota für die Gruppe firstgroup von 50 GB zu setzen, geben Sie ein: @@ -3017,8 +3016,8 @@ vfs.usermount: 0 -> 1 &man.zfs.1;. Benutzer mit ausreichenden Rechten sowie root können die Quota für - storage/home/bob anzeigen: + class="username">root können das Quota für + storage/home/bob anzeigen lassen: &prompt.root; zfs get quota storage/home/bob @@ -3037,7 +3036,7 @@ vfs.usermount: 0 -> 1 Das generelle Format der reservation-Eigenschaft ist reservation=size. - Um also eine Reservierung von 10 GB auf + Um also eine Reservierung von 10 GB auf storage/home/bob festzulegen, geben Sie Folgendes ein: @@ -3083,8 +3082,8 @@ vfs.usermount: 0 -> 1 *** DIFF OUTPUT TRUNCATED AT 1000 LINES ***