Re: [DONE] wml://{events/2012/0707-rmll.wml}

2018-01-18 Пенетрантность Andrey Skvortsov
On 17-07-21 19:13, Lev Lamberov wrote:
> --- english/events/2012/0707-rmll.wml 2014-04-30 13:42:33.0 +0600
> +++ russian/events/2012/0707-rmll.wml 2017-07-21 19:13:04.362638224 +0500
> @@ -1,43 +1,44 @@

> -2012 RMLL is a free (as a beer and as a speech) and non commercial
> -conference with talks, workshops and round tables about Free Software and
> -its uses. The RMLL goal is to provide a place for exchange between Free
> -Software developers, users and stakeholders.
> +2012 RMLL  бесплатная и свободная (и как пиво, и как слово) 
> некоммерческая
> +конференция с докладами, семинарами и круглыми столами о Свободном ПО
> +и его использовании. Цель RMLL состоит в том, чтобы предоставить место для 
> обмена между
> +разработчиками Свободного ПО, пользователями и заинтересованных лиц.
может лучше написать "место для общения разработчиков Свободного ПО,
пользователей и прочих заинтересованных лиц"?


-- 
Best regards,
Andrey Skvortsov


signature.asc
Description: PGP signature


Re: [DONE] wml://events/2004/1{227-21c3,030-plgiessen}.wml

2018-01-18 Пенетрантность Andrey Skvortsov
On 17-02-10 18:13, Lev Lamberov wrote:
> --- english/events/2004/1227-21c3.wml 2005-01-04 23:01:45.0 +0500
> +++ russian/events/2004/1227-21c3.wml 2017-02-10 18:06:06.426158266 +0500
> @@ -1,26 +1,27 @@
> +#use wml::debian::translation-check translation="1.2" maintainer="Lev 
> Lamberov"
>  21c3
>  2004
>  Chaos Communications Congress
> -Berlin, Germany
> +Берлин, Германия
>  2004-12-27
>  2004-12-29
>  http://www.ccc.de/congress/
> -mailto:n...@ngolde.de>Nico Golde
> +mailto:n...@ngolde.de>Нико Голде
>  
...

>  
> -The Debian project will maintain a booth in the hackcenter together
> -with Skolelinux.
> +Проект Debian будет представлен на стенде в hackcenter вместе
> +с Skolelinux.
сО

Исправил.

-- 
Best regards,
Andrey Skvortsov


signature.asc
Description: PGP signature


[DONE] wml://{security/2018/dsa-4091.wml}

2018-01-18 Пенетрантность Lev Lamberov
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA512

- --- english/security/2018/dsa-4091.wml2018-01-19 01:32:36.0 
+0500
+++ russian/security/2018/dsa-4091.wml  2018-01-19 11:44:35.750947753 +0500
@@ -1,10 +1,10 @@
- -security update
+#use wml::debian::translation-check translation="1.1" maintainer="Lev Lamberov"
+обновление 
безопасности
 
- -Several issues have been discovered in the MySQL database server. The
- -vulnerabilities are addressed by upgrading MySQL to the new upstream
- -version 5.5.59, which includes additional changes. Please see the MySQL
- -5.5 Release Notes and Oracle's Critical Patch Update advisory for
- -further details:
+В сервере баз данных MySQL было обнаружено 
несколько проблем. Уязвимости
+исправлены путём обновления MySQL до новой 
версии из основной ветки разработки,
+5.5.59, которая включает в себя ряд 
дополнительных изменений. За 
подробностями обращайтесь к
+информации о выпуске MySQL 5.5 и рекомендации 
Oracle Critical Patch Update:
 
 
 https://dev.mysql.com/doc/relnotes/mysql/5.5/en/news-5-5-59.html;>\
@@ -13,14 +13,15 @@
 
http://www.oracle.com/technetwork/security-advisory/cpujan2018-3236628.html
 
 
- -For the oldstable distribution (jessie), these problems have been fixed
- -in version 5.5.59-0+deb8u1.
+В предыдущем стабильном выпуске (jessie) эти 
проблемы были исправлены
+в версии 5.5.59-0+deb8u1.
 
- -We recommend that you upgrade your mysql-5.5 packages.
+Рекомендуется обновить пакеты mysql-5.5.
 
- -For the detailed security status of mysql-5.5 please refer to its
- -security tracker page at:
- -https://security-tracker.debian.org/tracker/mysql-5.5;>https://security-tracker.debian.org/tracker/mysql-5.5
+С подробным статусом поддержки 
безопасности mysql-5.5 можно ознакомиться на
+соответствующей странице отслеживания 
безопасности по адресу
+https://security-tracker.debian.org/tracker/mysql-5.5;>\
+https://security-tracker.debian.org/tracker/mysql-5.5
 
 
 # do not modify the following line
-BEGIN PGP SIGNATURE-

iQIzBAEBCgAdFiEE3mumcdV9mwCc9oZQXudu4gIW0qUFAlphk9gACgkQXudu4gIW
0qXy9w/9FqhCINDooKYTbRKp+kfJ15slZ4cVUWcOPMxyZge0ad6e3gpIuKL7rlsO
4QlKwnSSWTL+Y8pwCXjkayXtnG1iM+AC4qs63U7juiIeoKGSE8tedZtq5hl4wpDv
0NPctCnXUi/999Bf96JvyPG6/MRtbS3KwOLoNaiCgk5lvzg2sSS6LfAmwEyc61uW
3hEl9qzPrdLoc3csr0lRH+F8D+Uq9b/QtufMrGbebH9ocFzWnfFscaUPrWbN++ZY
UnugQxjpIID/0iSn+fPhetZagVlmTeGspyMFso8KDJlzMLndl/tr1qxZhqdehA+1
e5cb2QIOpAEGStruZdBs1zp5d8lZWA3Poak0hfA7FW8KT2TMlh+HAf9OsS/TDhIk
6YqXLkVA97TXSe2Xe7bdhrteRj0L75bZcWXdetJSlmnIr66Iv4MvFdvMkQF12wPP
N5rnVj0sNJ2Hhsl8Zf7RmWAROt2WHalSzRUXiMWoi+3AbegnphVuIapQkF0aofH6
G71/z3+ZVn6S5tfNgXbubNJ8NGQdT0nj/aOZUpgACpYrvfLYDMRKqGKn8c6hSVPY
K2NoGvWhg1fw+lchTQr7BX1RhczYWiiuT43ITiuItvf/ApLWqtsN/DFYHbP9CorY
YpBjzjOGRt1rzDnesiZglUTx8Fpfs7rcisFGwGNWNugO2BtFDrI=
=WmRn
-END PGP SIGNATURE-



Re: Снова о ZFS

2018-01-18 Пенетрантность Sergey Matveev
*** Sergey Matveev [2018-01-16 00:15]:
>https://blogs.oracle.com/darren/zfs-encryption-what-is-on-disk
>Не знаю поменялось ли это в ZFS-е, но там говорят что L2ARC недоступен
>для использования зашифрованным dataset-ам.

Статья устарела. В https://youtu.be/frnLiXclAMo где точно актуальный
разработчик они L2ARC уже шифруют.

-- 
Sergey Matveev (http://www.stargrave.org/)
OpenPGP: CF60 E89A 5923 1E76 E263  6422 AE1A 8109 E498 57EF



Re: Снова о ZFS

2018-01-18 Пенетрантность artiom


18.01.2018 22:02, Sergey Matveev пишет:
> *** artiom [2018-01-18 21:53]:
>> А что там за проблема с тем, что зеркало будет обеспечивать GEOM, была?
> 
> Ну как минимум зачем это делать когда ZFS это тоже может? Во-первых,
> меньше на одну прослойку из gmirror (или что там). Во-вторых, ZFS сам
> это всё будет подхватывать. В-третьих, resilvering зеркала в ZFS, если
> оно не сильно забито, существенно быстрее происходит чем обычного
> RAID-а. Обычный RAID понятия не имеет какие данные актуальны на каком
> диске -- он по сути делает последовательное полное чтение с одного диска
> и запись на другой. А ZFS, увидев что диск был частью зеркала, найдёт
> его последние актуальные данные и ссинхронизирует только diff. Если диск
> не был в зеркале, то зальёт на него только полезную нагрузку
> (терабайтный pool заполнен на 50 гигабайт? только эти 50 GB и будут
> записаны на зеркало). В-четвёртых, если данные испортились на каком-либо
> из дисков (ну ошибки, сыпется что-то), то из-за контрольных сумм точно
> известно где данные корректные и он их восстановит на втором
> (self-healing типа).
> 
Стойте, вопрос-то в другом был.
С пулом всё и так ясно (кроме шифрования).
Вопрос был про служебные и системные носители.
Короче, позже проработаю схему и опишу.
Как-то непросто получается.



Re: Снова о ZFS

2018-01-18 Пенетрантность Sergey Matveev
*** artiom [2018-01-18 21:53]:
>А что там за проблема с тем, что зеркало будет обеспечивать GEOM, была?

Ну как минимум зачем это делать когда ZFS это тоже может? Во-первых,
меньше на одну прослойку из gmirror (или что там). Во-вторых, ZFS сам
это всё будет подхватывать. В-третьих, resilvering зеркала в ZFS, если
оно не сильно забито, существенно быстрее происходит чем обычного
RAID-а. Обычный RAID понятия не имеет какие данные актуальны на каком
диске -- он по сути делает последовательное полное чтение с одного диска
и запись на другой. А ZFS, увидев что диск был частью зеркала, найдёт
его последние актуальные данные и ссинхронизирует только diff. Если диск
не был в зеркале, то зальёт на него только полезную нагрузку
(терабайтный pool заполнен на 50 гигабайт? только эти 50 GB и будут
записаны на зеркало). В-четвёртых, если данные испортились на каком-либо
из дисков (ну ошибки, сыпется что-то), то из-за контрольных сумм точно
известно где данные корректные и он их восстановит на втором
(self-healing типа).

-- 
Sergey Matveev (http://www.stargrave.org/)
OpenPGP: CF60 E89A 5923 1E76 E263  6422 AE1A 8109 E498 57EF



Re: Снова о ZFS

2018-01-18 Пенетрантность artiom
Хотя, вроде не так всё плохо. Взял две SSD на 256 ГБ (меньше не было):

- Samsung 850 PRO
(http://www.samsung.com/semiconductor/minisite/ssd/product/consumer/850pro/)
- Micron  MTFDDAK256TBN-1AR1ZABYY
(https://market.yandex.ru/product--micron-mtfddak256tbn-1ar1zabyy/1721921626)

Micron - TLC 3D, Samsung Pro - некий 3D V-NAND (хотя, есть подозрение,
что это тоже самое).
Ну и под L2ARC остаётся Samsung Evo.

Сильно плохо?


16.01.2018 14:43, Dmitry Kulagin пишет:
> 
>>> Это, кстати, очень странное замечание, я думал, что мы уже давно живем
>>> во времена SATA-3 и всеобщей поддержки "WRITE BARRIERS" (ну за
>>> исключением счетного числа сломанных дисков), так что энергонезависимый
>>> кеш на запись для программного рейда давно не нужен...
>>>
>> Так здесь не про рэйд, как таковой, а про SSD пользовательского сегмента.
>>
> Так и я говорю про диски вообще, сейчас в любом накопителе хоть ССД
> хоть НЖМД есть кешь память и она, что характерно, работает в режиме кеш на
> запись по умолчанию, в режим только кеш на чтение она может переводиться
> только
> в аппаратных рейд контроллерах, потому как остальным ОС это не надо,
> они пользуются командами сброса кеша в энергонезависимую память
> для коммита транзакций. Кстати, поэтому не стоит покупать TLC SSD
> диски для ZIL, на них этот коммит относительно долгий, а запись ZIL -
> это непрерывный коммит, и кеш в такой ситуации не в состоянии
> что-либо ускорить. А потери данных при перебое питания, которые
> обсуждаются по ссылке будут всегда, вопрос только в том, что при
> неадекватной
> поддержке "WRITE BARRIERS" в firmware накопителей, Вам после каждого
> перебоя
> питания придется делать проверку файловой системы.
> И фича сброса кеш памяти она, насколько я помню, не фича пользовательского
> и корпоративного, или ССД и НЖМД сегмента, - это часть спецификации SATA-2
> (ну и SATA-3 и SAS, который вроде это изначально поддерживал еще со
> времен SCSI)
> и ее должны поддерживать все продающиеся сейчас накопители.
> Насчет NVMe SSD не уверен, но думаю там должен быть аналог...
> 



Re: Снова о ZFS

2018-01-18 Пенетрантность artiom
> 
>>> Это, кстати, очень странное замечание, я думал, что мы уже давно живем
>>> во времена SATA-3 и всеобщей поддержки "WRITE BARRIERS" (ну за
>>> исключением счетного числа сломанных дисков), так что энергонезависимый
>>> кеш на запись для программного рейда давно не нужен...
>>>
>> Так здесь не про рэйд, как таковой, а про SSD пользовательского сегмента.
>>
> Так и я говорю про диски вообще, сейчас в любом накопителе хоть ССД
> хоть НЖМД есть кешь память и она, что характерно, работает в режиме кеш на
> запись по умолчанию, в режим только кеш на чтение она может переводиться
> только
> в аппаратных рейд контроллерах, потому как остальным ОС это не надо,
> они пользуются командами сброса кеша в энергонезависимую память
> для коммита транзакций. Кстати, поэтому не стоит покупать TLC SSD
> диски для ZIL, на них этот коммит относительно долгий, а запись ZIL -
> это непрерывный коммит, и кеш в такой ситуации не в состоянии
> что-либо ускорить.
Блин, я похоже, херню сделал: спрашивал сегодня SLC/TLC вместо MLC
(почему-то из этого коммента всё наоборот запомнилось).



Re: Снова о ZFS

2018-01-18 Пенетрантность artiom


16.01.2018 11:25, Sergey Matveev пишет:
> *** artiom [2018-01-16 08:37]:
>> - Либо я использую ZFS шифрование и теряю L2ARC (т.е. часть
>> производительности).
>> - Либо я использую Gely, усложняю систему и теряю часть возможностей и
>> производительности ZFS.
> 
> Ну насчёт заметной потери (чтобы об этом можно было думать)
> производительности не уверен, ну а так да -- всё верно.
> 
>> - Докупаю 2x100 Гб (достаточно 50 Гб или не стоит жадничать?) в зеркало.
>> - На них делаю два раздела поверх gely: OS и ZIL.
>> - SSD на 250 Гб отвожу под L2ARC (корзина на 2.5" забита, там три диска
>> всего).
>> - На SAS делаю Gely слой (предполагается, что все диско-специфичные
>> ioctl будут проброшены вниз, но так ли это?).
>> - Организую из 4-х SAS ZRAID1 (достаточно ли 1, а не 2?).
> 
> Раз ZIL в зеркале, то вопрос надёжности снят.
> 
> По поводу ioctl ничего не могу сказать, не задавался этим вопросом.
> 
> RAIDZ какого уровня это tradeoff между кол-ом дисков сколько могут
> вылететь, IOPS-ами, потерянным местом -- можно и 1, можно и 2. В
> домашних условиях сервер же будет под "присмотром" -- поэтому вылет
> диска будет обнаружен во вменяемое время и заменён для resilver-а.
> 
> Не забыть что и ZIL и L2ARC разделы тоже надо поверх GELI сделать. Я
> кстати L2ARC делаю поверх раздела зашифрованного одноразовым ключом
> (geli onetime gpt/SSDCACHE ; zpool add storage cache gpt/SSDCACHE.eli):
> после перезагрузки он конечно всё "потеряет", но зато ключи нигде не
> надо хранить и загружать.
> 
А что там за проблема с тем, что зеркало будет обеспечивать GEOM, была?



Re: тормоза ZFS

2018-01-18 Пенетрантность Alex Kicelew
On 01/18/18 12:37, Sergey Matveev wrote:
> вытесняют. ZFS может тупить например на секунды, допустим десятки секунд
> -- сбрасывая буферы TXG на диски, но тут нет речи о минутах. Мне кажется
> что это кто-то сторонний что-то начинает делать.

Спасибо. Буду очень внимательно думать в эту сторону. Собственно, то,
что это проделки ZFS, я предположил из-за того, что в такие моменты в
iotop лидируют именно его процессы (хотя и не только они, но остальные
каждый раз разные, а они всегда), о чем забыл упомянуть сразу. Тем не
менее, раз такое поведение только у меня, значит, буду искать.



Re: тормоза ZFS

2018-01-18 Пенетрантность Sergey Matveev
*** Alex Kicelew [2018-01-17 23:13]:
>Поэтому может кто-нибудь (возможно, Sergey Matveev:)
>знает, можно ли как-нибудь понять, за каким чертом он минут 5-15 читает
>диск.

Ух, даже не знаю что тут сказать. Вообще не могу предположить что именно
ZFS мог бы делать. В фоне на долго ZFS обычно может делать только три
вещи, как правило: scrub, resilver и destroy (когда async_destroy
включен). На чтение из них только scrub работает. Но ARC сам по себе не
будет просто так брать и освобождаться -- аналогично кэшу обычной ФС
(cached поле в top/free). ARC уменьшиться в размерах только если
какое-то приложение хочет памяти больше чем осталось -- тогда его
вытесняют. ZFS может тупить например на секунды, допустим десятки секунд
-- сбрасывая буферы TXG на диски, но тут нет речи о минутах. Мне кажется
что это кто-то сторонний что-то начинает делать.

Я не мало работал на системах с 4, 8 и 16 GB памяти и везде с HDD. 4 GB
отличаются только тем, что по-умолчанию отключен read prefetch (но он
ничего не может сделать чтобы система на минуты уходила "тупить").
Нагрузки были самые разные: и sequential read/write больших файлов и
PostgreSQL с десятками GB БД и MongoDB которые упирались в IOPS диска.
Но везде FreeBSD/HardenedBSD. Так что может быть это какие-то косяки в
Linux реализации? Хотя коллега с GNU/Linux говорит что у него на 4 GB с
HDD ни разу ничего похожего на ваше поведение не встречалось. Но мне
кажется что это не в ZFS дело, раз размер ARC уменьшается -- его значит
кто-то другой вытесняет.

Можно попробовать например кэшировать только метаинформацию в ARC,
возможно только для заданных dataset-ов, выставив zfs set
primarycache=metadata. Не исключено что data регулярно вытесняет
metadata и диск вынужден снова и снова лезть за ней на диск. Но это
мысли в слух.

-- 
Sergey Matveev (http://www.stargrave.org/)
OpenPGP: CF60 E89A 5923 1E76 E263  6422 AE1A 8109 E498 57EF