The translation is temporarily closed for contributions due to maintenance, please come back later.

Translation

Using an entire disk as part of a bootable pool is strongly discouraged, as this may render the pool unbootable. Likewise, you should not use an entire disk as part of a mirror or <acronym>RAID-Z</acronym> vdev. These are because it its impossible to reliably determine the size of an unpartitioned disk at boot time and because there's no place to put in boot code.
(itstool) path: caution/para
English
Using an entire disk as part of a bootable pool is strongly discouraged, as this may render the pool unbootable. Likewise, you should not use an entire disk as part of a mirror or <acronym>RAID-Z</acronym> vdev. These are because it is impossible to reliably determine the size of an unpartitioned disk at boot time and because there's no place to put in boot code.
Context English Turkish (tr_TR) State
Loader Tunables Yükleyici Ayarlanabilir
The <filename>kmem</filename> address space can be increased on all FreeBSD architectures. On a test system with 1 GB of physical memory, success was achieved with these options added to <filename>/boot/loader.conf</filename>, and the system restarted: <filename>Kmem</filename>adres alanı tüm FreeBSD mimarilerinde arttırılabilir. 1 GB fiziksel belleğe sahip bir test sisteminde, <filename>/boot/loader</filename> öğesine eklenen bu seçeneklerle başarı elde edildi.conf ve sistem yeniden başlatıldı:
vm.kmem_size="330M"
vm.kmem_size_max="330M"
vfs.zfs.arc_max="40M"
vfs.zfs.vdev.cache.size="5M"
vm.kmem_size="330M"
vm.kmem_size_max="330M"
vfs.zfs.arc_max="40M"
vfs.zfs.vdev.cache.size="5M"
For a more detailed list of recommendations for <acronym>ZFS</acronym>-related tuning, see <link xlink:href="https://wiki.freebsd.org/ZFSTuningGuide"/>. ZFS ile ilgili ayarlama için daha ayrıntılı bir öneri listesi için bkz. https://wiki.freebsd.org/ZFSTuningGuide.
Additional Resources Ek Kaynaklar
<link xlink:href="http://open-zfs.org">OpenZFS</link> <link xlink:href="http://open-zfs.org">OpenZFS</link>
<link xlink:href="https://wiki.freebsd.org/ZFSTuningGuide">FreeBSD Wiki - <acronym>ZFS</acronym> Tuning</link> <link xlink:href="https://wiki.freebsd.org/ZFSTuningGuide">FreeBSD Wiki - <acronym>ZFS</acronym> Tuning</link>
<link xlink:href="http://docs.oracle.com/cd/E19253-01/819-5461/index.html">Oracle Solaris <acronym>ZFS</acronym> Administration Guide</link> <link xlink:href="http://docs.oracle.com/cd/E19253-01/819-5461/index.html">Oracle Solaris <acronym>ZFS</acronym> Administration Guide</link>
<link xlink:href="https://calomel.org/zfs_raid_speed_capacity.html">Calomel Blog - <acronym>ZFS</acronym> Raidz Performance, Capacity and Integrity</link> <link xlink:href="https://calomel.org/zfs_raid_speed_capacity.html">Calomel Blog - <acronym>ZFS</acronym> Raidz Performance, Capacity and Integrity</link>
<acronym>ZFS</acronym> Features and Terminology <acronym>ZFS</acronym> Özellikleri ve Terminolojisi
<acronym>ZFS</acronym> is a fundamentally different file system because it is more than just a file system. <acronym>ZFS</acronym> combines the roles of file system and volume manager, enabling additional storage devices to be added to a live system and having the new space available on all of the existing file systems in that pool immediately. By combining the traditionally separate roles, <acronym>ZFS</acronym> is able to overcome previous limitations that prevented <acronym>RAID</acronym> groups being able to grow. Each top level device in a pool is called a <emphasis>vdev</emphasis>, which can be a simple disk or a <acronym>RAID</acronym> transformation such as a mirror or <acronym>RAID-Z</acronym> array. <acronym>ZFS</acronym> file systems (called <emphasis>datasets</emphasis>) each have access to the combined free space of the entire pool. As blocks are allocated from the pool, the space available to each file system decreases. This approach avoids the common pitfall with extensive partitioning where free space becomes fragmented across the partitions. <acronym>ZFS</acronym> temelde farklı bir dosya sistemidir çünkü sadece bir dosya sisteminden daha fazlasıdır. <acronym>ZFS</acronym>, dosya sistemi ve Birim Yöneticisi rollerini birleştirerek, ek depolama aygıtlarının canlı bir sisteme eklenmesini sağlar ve bu havuzdaki mevcut tüm dosya sistemlerinde yeni alana hemen sahip olur. Geleneksel olarak ayrı rolleri birleştirerek, <acronym>ZFS</acronym>, <acronym>RAID</acronym> gruplarının büyümesini engelleyen önceki sınırlamaların üstesinden gelebilir. Bir havuzdaki her üst düzey aygıta, basit bir disk veya bir ayna veya <acronym>RAID-Z</acronym> dizisi gibi bir <acronym>RAID</acronym> dönüşümü olabilen bir vdev denir. <acronym>ZFS</acronym> dosya sistemleri (<emphasis>veri kümeleri</emphasis> olarak adlandırılır) her biri tüm havuzun Birleşik boş alanına erişebilir. Bloklar havuzdan ayrıldığından, her dosya sistemi için kullanılabilir alan azalır. Bu yaklaşım, boş alanın bölümler arasında parçalandığı geniş bölümleme ile ortak tuzaklardan kaçınır.
pool havuz
A storage <emphasis>pool</emphasis> is the most basic building block of <acronym>ZFS</acronym>. A pool is made up of one or more vdevs, the underlying devices that store the data. A pool is then used to create one or more file systems (datasets) or block devices (volumes). These datasets and volumes share the pool of remaining free space. Each pool is uniquely identified by a name and a <acronym>GUID</acronym>. The features available are determined by the <acronym>ZFS</acronym> version number on the pool. Bir depolama <emphasis>havuzu</emphasis>, <acronym>ZFS</acronym>'NİN en temel yapı taşıdır. Bir havuz, verileri depolayan temel cihazlar olan bir veya daha fazla vdev'den oluşur. Bir havuz Daha sonra bir veya daha fazla dosya sistemi (veri kümesi) oluşturmak veya aygıtları (birimleri) engellemek için kullanılır. Bu veri kümeleri ve birimler kalan boş alan havuzunu paylaşır. Her havuz benzersiz bir ad ve bir <acronym>GUID</acronym> ile tanımlanır. Mevcut özellikler havuzdaki <acronym>zfs</acronym> sürüm numarası ile belirlenir.
vdev Types Vdev Türleri
<emphasis>Disk</emphasis> - The most basic type of vdev is a standard block device. This can be an entire disk (such as <filename><replaceable>/dev/ada0</replaceable></filename> or <filename><replaceable>/dev/da0</replaceable></filename>) or a partition (<filename><replaceable>/dev/ada0p3</replaceable></filename>). On FreeBSD, there is no performance penalty for using a partition rather than the entire disk. This differs from recommendations made by the Solaris documentation. <emphasis>Disk</emphasis> - en temel vdev Tipi Standart bir blok cihazdır. Bu, tüm bir disk (<filename><replaceable>/dev/ada0 veya /dev/da0</replaceable></filename> gibi) veya bir bölüm (<filename><replaceable>/dev/ada0p3</replaceable></filename>) olabilir. Freebsd'de, Tüm disk yerine bir bölüm kullanmak için performans cezası yoktur. Bu, Solaris dokümantasyonu tarafından yapılan önerilerden farklıdır.
Using an entire disk as part of a bootable pool is strongly discouraged, as this may render the pool unbootable. Likewise, you should not use an entire disk as part of a mirror or <acronym>RAID-Z</acronym> vdev. These are because it is impossible to reliably determine the size of an unpartitioned disk at boot time and because there's no place to put in boot code. Bu havuzun yeniden önyükleme yapamayan oluşturma gibi bir önyükleme havuzu parçası olarak tüm diski kullanarak kesinlikle önerilmez. Aynı şekilde, tüm diski bir ayna veya <acronym>RAID-Z</acronym> vdev'in bir parçası olarak kullanmamalısınız. Bunlar, önyükleme sırasında bölümlenmemiş bir diskin boyutunu güvenilir bir şekilde belirlemek imkansız ve önyükleme koduna koyulacak yer olmadığı için.
<emphasis>File</emphasis> - In addition to disks, <acronym>ZFS</acronym> pools can be backed by regular files, this is especially useful for testing and experimentation. Use the full path to the file as the device path in <command>zpool create</command>. All vdevs must be at least 128 MB in size. <emphasis>Dosya</emphasis>-disklere ek olarak, <acronym>ZFS</acronym> havuzları normal dosyalar tarafından desteklenebilir, bu özellikle Test ve deneme için yararlıdır.Dosyanın tam yolunu <command>zpool oluşturma</command> aygıt yolu olarak kullanın. Tüm vdev'ler en az 128 MB boyutunda olmalıdır.
<emphasis>Mirror</emphasis> - When creating a mirror, specify the <literal>mirror</literal> keyword followed by the list of member devices for the mirror. A mirror consists of two or more devices, all data will be written to all member devices. A mirror vdev will only hold as much data as its smallest member. A mirror vdev can withstand the failure of all but one of its members without losing any data. <emphasis>Ayna</emphasis>-bir <literal>ayna</literal> oluştururken, ayna anahtar sözcüğünü ve ardından ayna için üye aygıtların listesini belirtin. Bir ayna iki veya daha fazla cihazdan oluşur, tüm veriler tüm üye cihazlara yazılır. Bir ayna vdev sadece en küçük üyesi kadar veri tutar. Bir ayna vdev, herhangi bir veri kaybetmeden üyelerinden biri hariç hepsinin başarısızlığına dayanabilir.
A regular single disk vdev can be upgraded to a mirror vdev at any time with <command>zpool <link linkend="zfs-zpool-attach">attach</link></command>. Normal bir tek disk vdev <command>zpool<link linkend="zfs-zpool-attach"> attach</link></command> ile herhangi bir zamanda bir ayna vdev yükseltilebilir.
<emphasis><acronym>RAID-Z</acronym></emphasis> - <acronym>ZFS</acronym> implements <acronym>RAID-Z</acronym>, a variation on standard <acronym>RAID-5</acronym> that offers better distribution of parity and eliminates the <quote><acronym>RAID-5</acronym> write hole</quote> in which the data and parity information become inconsistent after an unexpected restart. <acronym>ZFS</acronym> supports three levels of <acronym>RAID-Z</acronym> which provide varying levels of redundancy in exchange for decreasing levels of usable storage. The types are named <acronym>RAID-Z1</acronym> through <acronym>RAID-Z3</acronym> based on the number of parity devices in the array and the number of disks which can fail while the pool remains operational. <emphasis><acronym>RAID-Z</acronym></emphasis>-<acronym>ZFS</acronym>, standart <acronym>RAID-5</acronym> üzerinde daha iyi bir parite dağılımı sunan ve beklenmedik bir yeniden başlatmadan sonra veri ve eşlik bilgilerinin tutarsız hale geldiği “<quote><acronym>RAID-5</acronym> yazma deliğini</quote>” ortadan kaldıran bir varyasyon olan <acronym>RAID-Z</acronym>'Yİ uygular. <acronym>ZFS</acronym>, kullanılabilir depolama seviyelerinin azaltılması karşılığında farklı düzeylerde fazlalık sağlayan üç RAID - Z seviyesini destekler. Türleri, dizideki eşlik aygıtlarının sayısı ve havuz çalışır durumda kalırken başarısız olabilir disklerin sayısına göre <acronym>RAID-Z3</acronym> aracılığıyla <acronym>RAID-Z1</acronym> olarak adlandırılır.
In a <acronym>RAID-Z1</acronym> configuration with four disks, each 1 TB, usable storage is 3 TB and the pool will still be able to operate in degraded mode with one faulted disk. If an additional disk goes offline before the faulted disk is replaced and resilvered, all data in the pool can be lost. Dört diskli bir <acronym>RAID-Z1</acronym> konfigürasyonunda, her biri 1 TB, kullanılabilir depolama alanı 3 TB'DİR ve havuz hala bir hatalı disk ile bozulmuş modda çalışabilir. Hatalı disk yerine ve resilvered önce ek bir disk çevrimdışı duruma gelirse, havuzdaki tüm veriler kaybolabilir.
In a <acronym>RAID-Z3</acronym> configuration with eight disks of 1 TB, the volume will provide 5 TB of usable space and still be able to operate with three faulted disks. <trademark>Sun</trademark> recommends no more than nine disks in a single vdev. If the configuration has more disks, it is recommended to divide them into separate vdevs and the pool data will be striped across them. Sekiz disk 1 TB olan bir <acronym>RAID-Z3</acronym> yapılandırmasında, birim 5 TB kullanılabilir alan sağlayacak ve yine de üç hatalı diskle çalışabilecektir. <trademark>Sun</trademark>™, tek bir vdev'de en fazla dokuz disk önerir. Yapılandırmada daha fazla disk varsa, bunları ayrı vdev'lere bölmeniz önerilir ve havuz verileri bunlar arasında çizgili olacaktır.
A configuration of two <acronym>RAID-Z2</acronym> vdevs consisting of 8 disks each would create something similar to a <acronym>RAID-60</acronym> array. A <acronym>RAID-Z</acronym> group's storage capacity is approximately the size of the smallest disk multiplied by the number of non-parity disks. Four 1 TB disks in <acronym>RAID-Z1</acronym> has an effective size of approximately 3 TB, and an array of eight 1 TB disks in <acronym>RAID-Z3</acronym> will yield 5 TB of usable space. Her biri 8 diskten oluşan iki <acronym>RAID-Z2</acronym> vdev konfigürasyonu, bir <acronym>RAID-60</acronym> dizisine benzer bir şey yaratacaktır. Bir <acronym>RAID-z</acronym> grubunun depolama kapasitesi, yaklaşık olarak, eşlik etmeyen disklerin sayısı ile çarpılan en küçük diskin boyutudur. <acronym>RAID-Z1</acronym>'deki dört 1 TB disk, yaklaşık 3 TB'lık etkili bir boyuta sahiptir ve <acronym>RAID-Z3</acronym>'teki sekiz 1 TB disk dizisi 5 TB kullanılabilir alan sağlar.
<emphasis>Spare</emphasis> - <acronym>ZFS</acronym> has a special pseudo-vdev type for keeping track of available hot spares. Note that installed hot spares are not deployed automatically; they must manually be configured to replace the failed device using <command>zfs replace</command>. <emphasis>Spare</emphasis>-<acronym>ZFS</acronym>, mevcut sıcak yedek parçaları takip etmek için özel bir sözde vdev tipine sahiptir. Yüklü sıcak yedek parçaların otomatik olarak dağıtılmadığını unutmayın; bunlar, <command>zfs replace</command> kullanarak başarısız olan aygıtı değiştirmek için el ile yapılandırılmalıdır.
<emphasis>Log</emphasis> - <acronym>ZFS</acronym> Log Devices, also known as <acronym>ZFS</acronym> Intent Log (<link linkend="zfs-term-zil"><acronym>ZIL</acronym></link>) move the intent log from the regular pool devices to a dedicated device, typically an <acronym>SSD</acronym>. Having a dedicated log device can significantly improve the performance of applications with a high volume of synchronous writes, especially databases. Log devices can be mirrored, but <acronym>RAID-Z</acronym> is not supported. If multiple log devices are used, writes will be load balanced across them. <acronym>Zfs</acronym> niyet günlüğü (<link linkend="zfs-term-zil"><acronym>ZIL</acronym></link>) olarak da bilinen <emphasis>Log</emphasis> - <acronym>ZFS</acronym> günlük aygıtları, niyet günlüğünü normal havuz cihazlarından, genellikle bir <acronym>SSD</acronym> olan özel bir aygıta taşıyın. Özel bir günlük cihazına sahip olmak, özellikle veritabanları olmak üzere yüksek hacimli senkron yazılara sahip uygulamaların performansını önemli ölçüde artırabilir. Günlük aygıtları yansıtılmış, ancak <acronym>RAID-Z</acronym> desteklenmiyor. Birden çok günlük aygıtı kullanılırsa, yazma yük dengelenir.
<emphasis>Cache</emphasis> - Adding a cache vdev to a pool will add the storage of the cache to the <link linkend="zfs-term-l2arc"><acronym>L2ARC</acronym></link>. Cache devices cannot be mirrored. Since a cache device only stores additional copies of existing data, there is no risk of data loss. <emphasis>Cache</emphasis> Önbellek-bir havuza bir önbellek Vdev eklemek, önbelleğin depolanmasını <link linkend="zfs-term-l2arc"><acronym>L2ARC</acronym></link>'YE ekler. Önbellek aygıtları yansıtılmış olamaz. Bir önbellek aygıtı yalnızca mevcut verilerin ek kopyalarını depoladığından, veri kaybı riski yoktur.
A pool is made up of one or more vdevs, which themselves can be a single disk or a group of disks, in the case of a <acronym>RAID</acronym> transform. When multiple vdevs are used, <acronym>ZFS</acronym> spreads data across the vdevs to increase performance and maximize usable space. <_:itemizedlist-1/> Bir havuz, bir <acronym> RAID </acronym> dönüşümü durumunda, tek bir disk veya bir grup disk olabilen bir veya daha fazla vdev'den oluşur. Birden çok vdev kullanıldığında, <acronym> ZFS </acronym> performansı artırmak ve kullanılabilir alanı en üst düzeye çıkarmak için verileri vdevs'e yayar. <_: Yazilmis-1 />
Transaction Group (<acronym>TXG</acronym>) İşlem Grubu (<acronym>TXG</acronym>)
<emphasis>Open</emphasis> - When a new transaction group is created, it is in the open state, and accepts new writes. There is always a transaction group in the open state, however the transaction group may refuse new writes if it has reached a limit. Once the open transaction group has reached a limit, or the <link linkend="zfs-advanced-tuning-txg-timeout"><varname>vfs.zfs.txg.timeout</varname></link> has been reached, the transaction group advances to the next state. <emphasis>Açık</emphasis> - yeni bir işlem grubu oluşturulduğunda, açık durumdadır ve yeni yazmaları kabul eder. Açık durumda her zaman bir hareket grubu vardır, ancak hareket grubu bir sınıra ulaştıysa yeni yazmaları reddedebilir. Açık işlem grubu bir sınıra veya <link linkend="zfs-advanced-tuning-txg-timeout"><varname>vfs'ye ulaştıktan sonra.zfs.txg.zaman aşımına ulaşıldı</varname></link>, işlem grubu bir sonraki duruma ilerledi.
<emphasis>Quiescing</emphasis> - A short state that allows any pending operations to finish while not blocking the creation of a new open transaction group. Once all of the transactions in the group have completed, the transaction group advances to the final state. <emphasis>Quiescing</emphasis>-bekleyen tüm işlemlerin yeni bir açık işlem grubunun oluşturulmasını engellemezken tamamlanmasına izin veren kısa bir durum.
<emphasis>Syncing</emphasis> - All of the data in the transaction group is written to stable storage. This process will in turn modify other data, such as metadata and space maps, that will also need to be written to stable storage. The process of syncing involves multiple passes. The first, all of the changed data blocks, is the biggest, followed by the metadata, which may take multiple passes to complete. Since allocating space for the data blocks generates new metadata, the syncing state cannot finish until a pass completes that does not allocate any additional space. The syncing state is also where <emphasis>synctasks</emphasis> are completed. Synctasks are administrative operations, such as creating or destroying snapshots and datasets, that modify the uberblock are completed. Once the sync state is complete, the transaction group in the quiescing state is advanced to the syncing state. <emphasis>Senkronizasyon</emphasis>-işlem grubundaki tüm veriler kararlı depolama alanına yazılır. Bu işlem, meta veriler ve uzay haritaları gibi diğer verileri de değiştirecektir ve bu da kararlı depolama alanına yazılmalıdır. Senkronizasyon işlemi birden fazla geçiş içerir. Birincisi, değiştirilen veri bloklarının tümü, en büyüğüdür ve ardından tamamlamak için birden fazla geçiş yapabilen meta veriler izler. Veri blokları için alan ayırma yeni meta veriler oluşturduğundan, herhangi bir ek alan ayırmayan bir geçiş tamamlanıncaya kadar eşitleme durumu tamamlanamaz. Senkronizasyon durumu, synctasks'ın tamamlandığı yerdir. <emphasis>Synctasks</emphasis>, uberblock'u değiştiren anlık görüntüler ve veri kümeleri oluşturma veya yok etme gibi idari işlemlerdir.

Loading…

User avatar None

Source string changed

FreeBSD Doc (Archived) / books_handbookTurkish (tr_TR)

Using an entire disk as part of a bootable pool is strongly discouraged, as this may render the pool unbootable. Likewise, you should not use an entire disk as part of a mirror or <acronym>RAID-Z</acronym> vdev. These are because it its impossible to reliably determine the size of an unpartitioned disk at boot time and because there's no place to put in boot code.
a month ago
Browse all component changes

Glossary

English Turkish (tr_TR)
as tür FreeBSD Doc (Archived)
boot önyükleme,önyüklemek FreeBSD Doc (Archived)
boot time önyükleme zamanı FreeBSD Doc (Archived)
code kod FreeBSD Doc (Archived)
determine belirlemek FreeBSD Doc (Archived)
render derlemek,işlemek FreeBSD Doc (Archived)

Source information

Source string comment
(itstool) path: caution/para
Source string location
book.translate.xml:42924
String age
a month ago
Source string age
a month ago
Translation file
books/tr_TR/handbook.po, string 7014