Translation

(itstool) path: row/entry
Every block that is allocated is also checksummed. The checksum algorithm used is a per-dataset property, see <link linkend="zfs-zfs-set"><command>set</command></link>. The checksum of each block is transparently validated as it is read, allowing <acronym>ZFS</acronym> to detect silent corruption. If the data that is read does not match the expected checksum, <acronym>ZFS</acronym> will attempt to recover the data from any available redundancy, like mirrors or <acronym>RAID-Z</acronym>). Validation of all checksums can be triggered with <link linkend="zfs-term-scrub"><command>scrub</command></link>. Checksum algorithms include: <_:itemizedlist-1/> The <literal>fletcher</literal> algorithms are faster, but <literal>sha256</literal> is a strong cryptographic hash and has a much lower chance of collisions at the cost of some performance. Checksums can be disabled, but it is not recommended.
709/9000
Context English Turkish (tr_TR) State
Unlike a traditional file system, when data is overwritten on <acronym>ZFS</acronym>, the new data is written to a different block rather than overwriting the old data in place. Only when this write is complete is the metadata then updated to point to the new location. In the event of a shorn write (a system crash or power loss in the middle of writing a file), the entire original contents of the file are still available and the incomplete write is discarded. This also means that <acronym>ZFS</acronym> does not require a <citerefentry><refentrytitle>fsck</refentrytitle><manvolnum>8</manvolnum></citerefentry> after an unexpected shutdown. Geleneksel bir dosya sisteminin aksine, <acronym>zfs</acronym>'de verilerin üzerine yazıldığında, yeni veriler eski verilerin üzerine yazmak yerine farklı bir bloğa yazılır. Yalnızca bu yazma tamamlandığında, meta veriler daha sonra yeni konuma işaret edecek şekilde güncelleştirilir. Bir shorn yazma durumunda (bir dosya yazma ortasında bir sistem çökmesi veya güç kaybı), dosyanın tüm orijinal içeriği hala kullanılabilir ve eksik yazma atılır. beklenmeyen bir kapatma</refentrytitle><manvolnum>8</manvolnum></citerefentry>kullanabilirsiniz gerektirmez anlamına geliyor.
Dataset Veri Seti
<emphasis>Dataset</emphasis> is the generic term for a <acronym>ZFS</acronym> file system, volume, snapshot or clone. Each dataset has a unique name in the format <replaceable>poolname/path@snapshot</replaceable>. The root of the pool is technically a dataset as well. Child datasets are named hierarchically like directories. For example, <replaceable>mypool/home</replaceable>, the home dataset, is a child of <replaceable>mypool</replaceable> and inherits properties from it. This can be expanded further by creating <replaceable>mypool/home/user</replaceable>. This grandchild dataset will inherit properties from the parent and grandparent. Properties on a child can be set to override the defaults inherited from the parents and grandparents. Administration of datasets and their children can be <link linkend="zfs-zfs-allow">delegated</link>. <emphasis>Dataset</emphasis>, bir <acronym>ZFS</acronym> dosya sistemi, birim, anlık görüntü veya klon için genel bir terimdir. Her veri kümesinin <replaceable>poolname/path@snapshot</replaceable> biçiminde benzersiz bir adı vardır. Havuzun kökü teknik olarak bir veri kümesidir. Alt veri kümeleri hiyerarşik olarak dizinler gibi adlandırılır. Örneğin, </replaceable>mypool / home, ev veri kümesi<replaceable>, <replaceable>mypool</replaceable> bir alt ve ondan özelliklerini devralır. Bu, <replaceable>mypool/home/user</replaceable> oluşturarak daha da genişletilebilir. Bu Torun veri kümesi, ebeveyn ve Büyükanne babadan özellikleri devralır. Bir çocuk üzerindeki özellikler, ebeveynlerden ve Büyükanne ve büyükbabalardan miras kalan varsayılanları geçersiz kılmak için ayarlanabilir. Veri kümelerinin ve çocuklarının yönetimi <link linkend="zfs-zfs-allow">devredilebilir</link>.
File system Dosya sistemi
A <acronym>ZFS</acronym> dataset is most often used as a file system. Like most other file systems, a <acronym>ZFS</acronym> file system is mounted somewhere in the systems directory hierarchy and contains files and directories of its own with permissions, flags, and other metadata. Bir <acronym>zfs</acronym> veri kümesi çoğunlukla bir dosya sistemi olarak kullanılır. Diğer birçok dosya sistemi gibi, bir <acronym>ZFS</acronym> dosya sistemi de sistemler dizini hiyerarşisinde bir yere monte edilir ve izinleri, bayrakları ve diğer meta verileri ile kendi dosyalarını ve dizinlerini içerir.
Volume Birim
In additional to regular file system datasets, <acronym>ZFS</acronym> can also create volumes, which are block devices. Volumes have many of the same features, including copy-on-write, snapshots, clones, and checksumming. Volumes can be useful for running other file system formats on top of <acronym>ZFS</acronym>, such as <acronym>UFS</acronym> virtualization, or exporting <acronym>iSCSI</acronym> extents. Normal dosya sistemi veri kümelerine ek olarak, <acronym>zfs</acronym> ayrıca blok aygıtları olan birimler oluşturabilir. Birimler, yazma üzerine kopyalama, anlık görüntüler, klonlar ve sağlama toplamı dahil olmak üzere aynı özelliklerin çoğuna sahiptir. Birimler, <acronym>UFS</acronym> sanallaştırma gibi <acronym>ZFS</acronym>'NİN üstünde diğer dosya sistemi formatlarını çalıştırmak veya <acronym>iSCSI</acronym> kapsamlarını dışa aktarmak için yararlı olabilir.
Snapshot Anlık
The <link linkend="zfs-term-cow">copy-on-write</link> (<acronym>COW</acronym>) design of <acronym>ZFS</acronym> allows for nearly instantaneous, consistent snapshots with arbitrary names. After taking a snapshot of a dataset, or a recursive snapshot of a parent dataset that will include all child datasets, new data is written to new blocks, but the old blocks are not reclaimed as free space. The snapshot contains the original version of the file system, and the live file system contains any changes made since the snapshot was taken. No additional space is used. As new data is written to the live file system, new blocks are allocated to store this data. The apparent size of the snapshot will grow as the blocks are no longer used in the live file system, but only in the snapshot. These snapshots can be mounted read only to allow for the recovery of previous versions of files. It is also possible to <link linkend="zfs-zfs-snapshot">rollback</link> a live file system to a specific snapshot, undoing any changes that took place after the snapshot was taken. Each block in the pool has a reference counter which keeps track of how many snapshots, clones, datasets, or volumes make use of that block. As files and snapshots are deleted, the reference count is decremented. When a block is no longer referenced, it is reclaimed as free space. Snapshots can also be marked with a <link linkend="zfs-zfs-snapshot">hold</link>. When a snapshot is held, any attempt to destroy it will return an <literal>EBUSY</literal> error. Each snapshot can have multiple holds, each with a unique name. The <link linkend="zfs-zfs-snapshot">release</link> command removes the hold so the snapshot can deleted. Snapshots can be taken on volumes, but they can only be cloned or rolled back, not mounted independently. <acronym>Zfs</acronym>'nin yazma üzerine <link linkend="zfs-term-cow">kopya</link> (<acronym>COW</acronym>) tasarımı, keyfi adlarla neredeyse anlık, tutarlı anlık görüntülere izin verir. Bir veri kümesinin anlık görüntüsünü veya tüm alt veri kümelerini içerecek bir üst veri kümesinin özyinelemeli bir anlık görüntüsünü aldıktan sonra, yeni veriler yeni bloklara yazılır, ancak eski bloklar boş alan olarak geri alınmaz. Anlık görüntü, dosya sisteminin özgün sürümünü içerir ve canlı dosya sistemi anlık görüntü alındığından beri yapılan değişiklikleri içerir. Ek alan kullanılmaz. Canlı dosya sistemine yeni veriler yazıldığından, bu verileri depolamak için yeni bloklar ayrılır. Bloklar artık canlı dosya sisteminde, ancak yalnızca anlık görüntüde kullanılmadığından, anlık görüntünün görünen boyutu büyür. Bu anlık dosyaların önceki sürümlerinin kurtarma için izin vermek için salt okunur monte edilebilir. Canlı bir dosya sistemini belirli bir anlık görüntüye geri almak, anlık görüntü çekildikten sonra gerçekleşen <link linkend="zfs-zfs-snapshot">değişiklikleri</link> geri almak da mümkündür. Havuzdaki her bloğun, bu bloktan kaç tane anlık görüntü, klon, veri kümesi veya birim kullandığını takip eden bir referans sayacı vardır. Dosyalar ve anlık görüntüler silindikçe, referans sayısı azaltılır. Bir bloğa artık başvurulmadığında, boş alan olarak geri alınır. Anlık görüntüler de bir <link linkend="zfs-zfs-snapshot">tutma</link> ile işaretlenebilir. Bir anlık görüntü tutulduğunda, onu yok etme girişimi bir <literal>EBUSY</literal> hatası döndürür. Her anlık birden tutar, benzersiz bir adla her sahip olabilir. <link linkend="zfs-zfs-snapshot">Release</link> komutu, anlık görüntünün silinebilmesi için tutmayı kaldırır. Anlık görüntüler birimlerde alınabilir, ancak yalnızca klonlanabilir veya geri alınabilir, bağımsız olarak monte edilemez.
Clone Klon
Snapshots can also be cloned. A clone is a writable version of a snapshot, allowing the file system to be forked as a new dataset. As with a snapshot, a clone initially consumes no additional space. As new data is written to a clone and new blocks are allocated, the apparent size of the clone grows. When blocks are overwritten in the cloned file system or volume, the reference count on the previous block is decremented. The snapshot upon which a clone is based cannot be deleted because the clone depends on it. The snapshot is the parent, and the clone is the child. Clones can be <emphasis>promoted</emphasis>, reversing this dependency and making the clone the parent and the previous parent the child. This operation requires no additional space. Because the amount of space used by the parent and child is reversed, existing quotas and reservations might be affected. Anlık görüntüler de klonlanabilir. Bir klon, dosya sisteminin yeni bir veri kümesi olarak çatallanmasına izin veren bir anlık görüntünün yazılabilir bir sürümüdür. Bir anlık görüntüde olduğu gibi, bir klon başlangıçta ek alan tüketmez. Bir klona yeni veriler yazıldığından ve yeni bloklar ayrıldığından, klonun görünen boyutu büyür. Klonlanmış dosya sisteminde veya birimde blokların üzerine yazıldığında, önceki bloğun referans sayısı azaltılır. Bir klonun temel aldığı anlık görüntü, klon ona bağlı olduğundan <emphasis>silinemez</emphasis>. Anlık görüntü üst ve Klon alt. Klonlar yükseltilebilir, bu bağımlılığı tersine çevirir ve klonu üst ve önceki üst çocuğu yapar. Bu işlem ek alan gerektirmez. Üst ve alt tarafından kullanılan alan miktarını tersine çünkü varolan kotaları ve rezervasyonları etkilenebilir.
Checksum Sağlama
<literal>fletcher2</literal> <literal>fletcher2</literal>
<literal>fletcher4</literal> <literal>fletcher4</literal>
<literal>sha256</literal> <literal>sha256</literal>
Every block that is allocated is also checksummed. The checksum algorithm used is a per-dataset property, see <link linkend="zfs-zfs-set"><command>set</command></link>. The checksum of each block is transparently validated as it is read, allowing <acronym>ZFS</acronym> to detect silent corruption. If the data that is read does not match the expected checksum, <acronym>ZFS</acronym> will attempt to recover the data from any available redundancy, like mirrors or <acronym>RAID-Z</acronym>). Validation of all checksums can be triggered with <link linkend="zfs-term-scrub"><command>scrub</command></link>. Checksum algorithms include: <_:itemizedlist-1/> The <literal>fletcher</literal> algorithms are faster, but <literal>sha256</literal> is a strong cryptographic hash and has a much lower chance of collisions at the cost of some performance. Checksums can be disabled, but it is not recommended. Ayrılan her blok da sağlama toplamı. Kullanılan sağlama toplamı algoritması bir per-dataset özelliğidir, bkz.set. Her bloğun sağlama toplamı, okunduğu gibi şeffaf bir şekilde doğrulanır ve ZFS'NİN sessiz bozulmayı algılamasına izin verir. Okunan veriler beklenen sağlama toplamıyla eşleşmiyorsa, zfs, aynalar veya RAID-Z gibi mevcut yedeklemelerden verileri kurtarmaya çalışır. Tüm sağlama toplamlarının doğrulanması fırçalama ile tetiklenebilir. Sağlama toplamı algoritmaları şunları içerir: Fletcher algoritmaları daha hızlıdır, ancak sha256 güçlü bir şifreleme karmasıdır ve bazı performansın pahasına çok daha düşük bir çarpışma şansına sahiptir. Sağlama toplamı devre dışı bırakılabilir, ancak önerilmez!
<emphasis><acronym>LZ4</acronym></emphasis> - Added in <acronym>ZFS</acronym> pool version 5000 (feature flags), <acronym>LZ4</acronym> is now the recommended compression algorithm. <acronym>LZ4</acronym> compresses approximately 50% faster than <acronym>LZJB</acronym> when operating on compressible data, and is over three times faster when operating on uncompressible data. <acronym>LZ4</acronym> also decompresses approximately 80% faster than <acronym>LZJB</acronym>. On modern <acronym>CPU</acronym>s, <acronym>LZ4</acronym> can often compress at over 500 MB/s, and decompress at over 1.5 GB/s (per single CPU core). <emphasis><acronym>LZ4</acronym></emphasis>-<acronym>Zfs</acronym> havuzu sürüm 5000 (özellik bayrakları) eklendi, <acronym>LZ4</acronym> şimdi önerilen sıkıştırma algoritması. <acronym>Lz4</acronym> sıkıştırılabilir veriler üzerinde çalışırken <acronym>LZJB</acronym>'DEN yaklaşık %50 daha hızlı sıkıştırır ve sıkıştırılamaz veriler üzerinde çalışırken üç kat daha hızlıdır. <acronym>LZ4</acronym> ayrıca <acronym>LZJB</acronym>'DEN yaklaşık %80 daha hızlı açılır. Modern <acronym>CPU</acronym>'larda, <acronym>LZ4</acronym> genellikle 500 MB / s'nin üzerinde sıkışabilir ve 1,5 GB/s'nin üzerinde (tek CPU çekirdeği başına) sıkışabilir.
<emphasis><acronym>LZJB</acronym></emphasis> - The default compression algorithm. Created by Jeff Bonwick (one of the original creators of <acronym>ZFS</acronym>). <acronym>LZJB</acronym> offers good compression with less <acronym>CPU</acronym> overhead compared to <acronym>GZIP</acronym>. In the future, the default compression algorithm will likely change to <acronym>LZ4</acronym>. <emphasis><acronym>LZJB</acronym></emphasis>-varsayılan sıkıştırma algoritması. Jeff Bonwick (<acronym>ZFS</acronym>'NİN orijinal yaratıcılarından biri) tarafından düzenlendi. <acronym>LZJB</acronym>, <acronym>GZIP</acronym>'YE kıyasla daha az <acronym>CPU</acronym> yükü ile iyi sıkıştırma sunar. Gelecekte, varsayılan sıkıştırma algoritması büyük olasılıkla <acronym>LZ4</acronym> olarak değişecektir.
<emphasis><acronym>GZIP</acronym></emphasis> - A popular stream compression algorithm available in <acronym>ZFS</acronym>. One of the main advantages of using <acronym>GZIP</acronym> is its configurable level of compression. When setting the <literal>compress</literal> property, the administrator can choose the level of compression, ranging from <literal>gzip1</literal>, the lowest level of compression, to <literal>gzip9</literal>, the highest level of compression. This gives the administrator control over how much <acronym>CPU</acronym> time to trade for saved disk space. <emphasis><acronym>GZİP</acronym></emphasis>-<acronym>ZFS</acronym>'DE bulunan popüler bir akış sıkıştırma algoritması. <acronym>GZIP</acronym> kullanmanın ana avantajlarından biri, yapılandırılabilir <literal>sıkıştırma</literal> seviyesidir. Sıkıştırma özelliğini ayarlarken, yönetici, en düşük sıkıştırma seviyesi olan <literal>gzıp1</literal>'den en yüksek sıkıştırma seviyesi olan <literal>gzıp9</literal>'a kadar sıkıştırma düzeyini seçebilir. Bu, kaydedilen disk alanı için işlem yapmak için ne kadar <acronym>CPU</acronym> zamanı üzerinde yönetici kontrolü sağlar.
<emphasis><acronym>ZLE</acronym></emphasis> - Zero Length Encoding is a special compression algorithm that only compresses continuous runs of zeros. This compression algorithm is only useful when the dataset contains large blocks of zeros. <emphasis><acronym>ZLE</acronym></emphasis>-sıfır uzunluk kodlaması, yalnızca sıfırların sürekli çalışmasını sıkıştıran özel bir sıkıştırma algoritmasıdır. Bu sıkıştırma algoritması yalnızca veri kümesi büyük sıfır blokları içeriyorsa kullanışlıdır.
Each dataset has a compression property, which defaults to off. This property can be set to one of a number of compression algorithms. This will cause all new data that is written to the dataset to be compressed. Beyond a reduction in space used, read and write throughput often increases because fewer blocks are read or written. <_:itemizedlist-1/> her veri kümesinin varsayılan olarak kapalı olan bir sıkıştırma özelliği vardır. Bu özellik bir dizi sıkıştırma algoritmasından birine ayarlanabilir. Bu, veri kümesine yazılan tüm yeni verilerin sıkıştırılmasına neden olur. Kullanılan alandaki bir azalmanın ötesinde, daha az blok okunup yazıldığından okuma ve yazma hacmi genellikle artar. <_:itemizedlist-1/>
Copies Kopyalar
When set to a value greater than 1, the <literal>copies</literal> property instructs <acronym>ZFS</acronym> to maintain multiple copies of each block in the <link linkend="zfs-term-filesystem">File System</link> or <link linkend="zfs-term-volume">Volume</link>. Setting this property on important datasets provides additional redundancy from which to recover a block that does not match its checksum. In pools without redundancy, the copies feature is the only form of redundancy. The copies feature can recover from a single bad sector or other forms of minor corruption, but it does not protect the pool from the loss of an entire disk. 1'den büyük bir değere ayarlandığında, <literal>kopyalar</literal> özelliği <acronym>ZFS</acronym>'YE <link linkend="zfs-term-filesystem">dosya sisteminde</link> veya <link linkend="zfs-term-volume">birimde</link> her bloğun birden çok kopyasını tutmasını bildirir. Bu özelliğin önemli veri kümelerinde ayarlanması, sağlama toplamıyla eşleşmeyen bir bloğu kurtarmak için ek artıklık sağlar. Fazlalık olmayan havuzlarda, kopyalar özelliği yalnızca fazlalık biçimidir. Kopya özelliği, tek bir bozuk kesimden veya diğer küçük bozulma biçimlerinden kurtarabilir, ancak havuzu tüm diskin kaybından korumaz.
Checksums make it possible to detect duplicate blocks of data as they are written. With deduplication, the reference count of an existing, identical block is increased, saving storage space. To detect duplicate blocks, a deduplication table (<acronym>DDT</acronym>) is kept in memory. The table contains a list of unique checksums, the location of those blocks, and a reference count. When new data is written, the checksum is calculated and compared to the list. If a match is found, the existing block is used. The <acronym>SHA256</acronym> checksum algorithm is used with deduplication to provide a secure cryptographic hash. Deduplication is tunable. If <literal>dedup</literal> is <literal>on</literal>, then a matching checksum is assumed to mean that the data is identical. If <literal>dedup</literal> is set to <literal>verify</literal>, then the data in the two blocks will be checked byte-for-byte to ensure it is actually identical. If the data is not identical, the hash collision will be noted and the two blocks will be stored separately. Because <acronym>DDT</acronym> must store the hash of each unique block, it consumes a very large amount of memory. A general rule of thumb is 5-6 GB of ram per 1 TB of deduplicated data). In situations where it is not practical to have enough <acronym>RAM</acronym> to keep the entire <acronym>DDT</acronym> in memory, performance will suffer greatly as the <acronym>DDT</acronym> must be read from disk before each new block is written. Deduplication can use <acronym>L2ARC</acronym> to store the <acronym>DDT</acronym>, providing a middle ground between fast system memory and slower disks. Consider using compression instead, which often provides nearly as much space savings without the additional memory requirement. Sağlama toplamı, yinelenen veri bloklarını yazıldıkları gibi algılamayı mümkün kılar. Tekilleştirme ile, mevcut, aynı bloğun referans sayısı artar ve depolama alanından tasarruf edilir. Yinelenen blokları algılamak için bir tekilleştirme tablosu (<acronym>DDT</acronym>) bellekte tutulur. Tablo, benzersiz sağlama toplamlarının bir listesini, bu blokların konumunu ve bir referans sayısını içerir. Yeni veri yazıldığında, sağlama toplamı hesaplanır ve listeye karşılaştırılır. Bir eşleşme bulunursa, mevcut blok kullanılır. <acronym>SHA256</acronym> sağlama toplamı algoritması, güvenli bir şifreleme karma sağlamak için tekilleştirme ile kullanılır. Tekilleştirme ayarlanabilir. <literal>Dedup</literal> <literal>açıksa</literal>, eşleşen bir sağlama toplamı, verilerin aynı olduğu anlamına gelir. <literal>Dedup</literal> doğrulamak için ayarlanırsa, iki bloktaki veriler aslında aynı olduğundan emin olmak için bayt için bayt olarak denetlenir. Veriler aynı değilse, karma çarpışma not edilecek ve iki blok ayrı olarak saklanacaktır. <acronym>DDT</acronym> her benzersiz bloğun karma saklamanız gerekir, çünkü çok büyük miktarda bellek tüketir. Genel bir kural, 1 TB deduplicated veri başına 5-6 GB RAM'dir). Tüm </acronym>DDT<acronym> bellekte tutmak için yeterli <acronym>RAM</acronym> olması pratik olmayan durumlarda, her yeni blok yazılmadan önce DDT diskten okunması gerekir gibi performans büyük ölçüde zarar görecektir. Tekilleştirme, <acronym>DDT</acronym>'Yİ depolamak için <acronym>l2arc</acronym>'yi kullanabilir ve hızlı sistem belleği ile daha yavaş diskler arasında orta bir yol sağlar. Bunun yerine, genellikle ek bellek gereksinimi olmadan neredeyse kadar alan tasarrufu sağlayan sıkıştırmayı kullanmayı düşünün.
Scrub Temizlemek
Instead of a consistency check like <citerefentry><refentrytitle>fsck</refentrytitle><manvolnum>8</manvolnum></citerefentry>, <acronym>ZFS</acronym> has <command>scrub</command>. <command>scrub</command> reads all data blocks stored on the pool and verifies their checksums against the known good checksums stored in the metadata. A periodic check of all the data stored on the pool ensures the recovery of any corrupted blocks before they are needed. A scrub is not required after an unclean shutdown, but is recommended at least once every three months. The checksum of each block is verified as blocks are read during normal use, but a scrub makes certain that even infrequently used blocks are checked for silent corruption. Data security is improved, especially in archival storage situations. The relative priority of <command>scrub</command> can be adjusted with <link linkend="zfs-advanced-tuning-scrub_delay"><varname>vfs.zfs.scrub_delay</varname></link> to prevent the scrub from degrading the performance of other workloads on the pool. <citerefentry><refentrytitle>Fsck</refentrytitle><manvolnum>8</manvolnum></citerefentry>gibi bir tutarlılık kontrolü yerine, </citerefentry><acronym>ZFS</acronym>'NİN <command>temizlme</command> vardır. <command>temizleme</command>, havuzda depolanan tüm veri bloklarını okur ve sağlama toplamlarını meta verilerde depolanan bilinen iyi sağlama toplamlarına karşı doğrular. Havuzda depolanan tüm verilerin periyodik olarak kontrol edilmesi, bozuk blokların ihtiyaç duyulmadan önce kurtarılmasını sağlar. Kirli bir kapanmadan sonra bir fırçalama gerekli değildir, ancak en az üç ayda bir önerilir. Her bloğun sağlama toplamı, bloklar normal kullanım sırasında okunduğu için doğrulanır, ancak bir ovma, nadiren kullanılan blokların bile sessiz bozulma için kontrol edildiğini kesinleştirir. Özellikle arşiv depolama durumlarında veri güvenliği artırıldı. <command>Temizleme</command> göreceli önceliği <link linkend="zfs-advanced-tuning-scrub_delay">vfs ile ayarlanabilir.zfs.scrub_delay</varname></link> havuzdaki diğer iş yüklerinin performansını düşürmesini önlemek için.
Dataset Quota Veriseti Kotası
<acronym>ZFS</acronym> supports different types of quotas: the dataset quota, the <link linkend="zfs-term-refquota">reference quota (<acronym>refquota</acronym>)</link>, the <link linkend="zfs-term-userquota">user quota</link>, and the <link linkend="zfs-term-groupquota">group quota</link>. <acronym>Zfs</acronym> farklı kotalar türlerini destekler: veri kümesi kotası, <link linkend="zfs-term-refquota">referans kotası (<acronym>refquota</acronym>)</link>, <link linkend="zfs-term-userquota">kullanıcı kotası</link> ve <link linkend="zfs-term-groupquota">grup kotası. </link>
Quotas limit the amount of space that a dataset and all of its descendants, including snapshots of the dataset, child datasets, and the snapshots of those datasets, can consume. Kotalar, veri kümesinin anlık görüntüleri, alt veri kümeleri ve bu veri kümelerinin anlık görüntüleri de dahil olmak üzere bir veri kümesinin ve tüm alt kümelerinin tüketebileceği alan miktarını sınırlar.
Quotas cannot be set on volumes, as the <literal>volsize</literal> property acts as an implicit quota. <literal>Volsize</literal> özelliği örtülü bir kota gibi davrandığından kotalar birimlerde ayarlanamaz.
<acronym>ZFS</acronym> provides very fast and accurate dataset, user, and group space accounting in addition to quotas and space reservations. This gives the administrator fine grained control over how space is allocated and allows space to be reserved for critical file systems. <_:para-1/> <_:para-2/> <_:note-3/> ZFS, kotalar ve alan rezervasyonlarına ek olarak çok hızlı ve doğru veri kümesi, kullanıcı ve grup alanı muhasebesi sağlar. Bu, yöneticiye, alanın nasıl ayrıldığına dair ince taneli denetim sağlar ve alanın kritik dosya sistemleri için ayrılmasına izin verir.

Loading…

Every block that is allocated is also checksummed. The checksum algorithm used is a per-dataset property, see <link linkend="zfs-zfs-set"><command>set</command></link>. The checksum of each block is transparently validated as it is read, allowing <acronym>ZFS</acronym> to detect silent corruption. If the data that is read does not match the expected checksum, <acronym>ZFS</acronym> will attempt to recover the data from any available redundancy, like mirrors or <acronym>RAID-Z</acronym>). Validation of all checksums can be triggered with <link linkend="zfs-term-scrub"><command>scrub</command></link>. Checksum algorithms include: <_:itemizedlist-1/> The <literal>fletcher</literal> algorithms are faster, but <literal>sha256</literal> is a strong cryptographic hash and has a much lower chance of collisions at the cost of some performance. Checksums can be disabled, but it is not recommended.
Ayrılan her blok da sağlama toplamı. Kullanılan sağlama toplamı algoritması bir per-dataset özelliğidir, bkz.set. Her bloğun sağlama toplamı, okunduğu gibi şeffaf bir şekilde doğrulanır ve ZFS'NİN sessiz bozulmayı algılamasına izin verir. Okunan veriler beklenen sağlama toplamıyla eşleşmiyorsa, zfs, aynalar veya RAID-Z gibi mevcut yedeklemelerden verileri kurtarmaya çalışır. Tüm sağlama toplamlarının doğrulanması fırçalama ile tetiklenebilir. Sağlama toplamı algoritmaları şunları içerir: Fletcher algoritmaları daha hızlıdır, ancak sha256 güçlü bir şifreleme karmasıdır ve bazı performansın pahasına çok daha düşük bir çarpışma şansına sahiptir. Sağlama toplamı devre dışı bırakılabilir, ancak önerilmez!
4 months ago
Browse all component changes

Things to check

Mismatched exclamation mark

Source and translation do not both end with an exclamation mark

Reset

Mismatched full stop

Source and translation do not both end with a full stop

Reset

Glossary

English Turkish (tr_TR)
algorithm algoritma FreeBSD Doc
allocated ayrıldı FreeBSD Doc
Block engellemek FreeBSD Doc
checksum sağlama toplamı FreeBSD Doc
checksum sağlama,sağlama toplamı FreeBSD Doc
data veri FreeBSD Doc
data loss veri kaybı FreeBSD Doc
dataset veri kümesi FreeBSD Doc
Detect belirlemek FreeBSD Doc
hash karım,karma FreeBSD Doc
meta data meta veri FreeBSD Doc
redundancy fazlalık FreeBSD Doc
service set identifier servis seti tanımlayıcısı FreeBSD Doc

Source information

Source string comment
(itstool) path: row/entry
Source string location
book.translate.xml:41429
String age
6 months ago
Source string age
a year ago
Translation file
books/tr_TR/handbook.po, string 6734