Re: Установка эмулятора Windows для приложения
7 июля 2017 г., 21:37 пользователь EyeLandнаписал: > Привет, есть банковское приложение которое работают под Windows, можно ее > установить с помощью эмулятора на Debian? Спасибо. Когда работал в банке, для подобного использовался wine@etersoft. Тогдашний (squeeze) родной wine не позволял запускать всё требуемое (как минимум, консультант+) -- Stanislav
Re: NAS
7 июля 2017 г., 15:23 пользователь Andrey Jr. Melnikovнаписал: >> Неоднократно повторялись на разных, но однотипных серверах. > У HP рейды обычно полный шлак. Догадываюсь :-) >> Измерялись, правда, один раз и на предыдущей партии дисков, но в любом >> случае при копировании с соседних серверов в случае аппаратного рейда >> упирались в диск, в случае программного в 2x1G сеть. > Ага, а в каком режиме этот рейд воткнутый через рейзер в мать работает? И > PCI-E какой версии в чудо-серверах? Никакое железо не менялось при переделывании массива с аппаратного рейда на mdadm. Поменять железо в сервере без физического доступа вообще сложновато - оно не программно определяемое. Просто перетащили данные на соседний сервер, разобрали аппаратный рейд, собрали программный и потащили данные обратно. Так что ответы на вопросы тут значения не имеют. >> > Вот довольно любопытная статья по поводу Software vs hardware RAID >> > >> > https://serverfault.com/questions/685289/software-vs-hardware-raid-performance-and-cache-usage > >> Полностью с ней согласен, за исключением того, что там не указан тип >> контроллера, который имеет смысл использовать в аппаратном рейде. Они >> далеко не одинаковы и непонятно, что имелось ввиду под mid-to-high-end >> card. > Ну не HPшные рэйды, эт точно :) Да я уже в курсе... Ещё б знать, какие стоит брать за не более, чем вдвое дороже, так как хранилище в те места точно купить не выйдет... -- Stanislav
Re: ZFS
Sergey Matveev -> debian-russian@lists.debian.org @ Sun, 9 Jul 2017 22:02:11 +0300: >>Я косым взглядом вижу в описаниях ZFS фичу проверки контрольных сумм и >>восстановления при сбоях отдельных блоков. Но вижу ее в контексте RAIDZ, >>а его, соответственно, в контексте нескольких дисков. Вопрос. В >>контексте одного диска такая фича есть? Надо ли ее как-то специально >>включать, или она вообще у ZFS по умолчанию? > Важные данные (метаинформация) хранится на ZFS в двух экземплярах, очень > важные данные (описания ФС и тому прочее) -- в трёх. Если где-то будет > нарушение целостности, то будет смотреться копия. Просто сами данные > по-умолчанию хранятся в одном экземпляре и zfs scrub сможет показать что > их целостность нарушена, но, естественно, восстановить не сможет. Но > если сделать zfs set copies=2 mypool/myfs, то и данные будут в двух > экземплярах (можно и 3) и тогда их можно восстановить. Само собой, это > потребует в два раза больше места, но восстановить ZFS сможет побитые. Принцип понятен, спасибо. Жалко, что не умеет "плюс логарифм" (хаффмановские коды), а только сразу копию целиком. Но в общем, понятно, что для практичности хаффмановского кода надо каждую порцию раскидывать по разным углам диска, что немедленно просадит производительность.
Re: ZFS
*** Artem Chuprina[2017-07-09 21:57]: >Я косым взглядом вижу в описаниях ZFS фичу проверки контрольных сумм и >восстановления при сбоях отдельных блоков. Но вижу ее в контексте RAIDZ, >а его, соответственно, в контексте нескольких дисков. Вопрос. В >контексте одного диска такая фича есть? Надо ли ее как-то специально >включать, или она вообще у ZFS по умолчанию? Важные данные (метаинформация) хранится на ZFS в двух экземплярах, очень важные данные (описания ФС и тому прочее) -- в трёх. Если где-то будет нарушение целостности, то будет смотреться копия. Просто сами данные по-умолчанию хранятся в одном экземпляре и zfs scrub сможет показать что их целостность нарушена, но, естественно, восстановить не сможет. Но если сделать zfs set copies=2 mypool/myfs, то и данные будут в двух экземплярах (можно и 3) и тогда их можно восстановить. Само собой, это потребует в два раза больше места, но восстановить ZFS сможет побитые. -- Sergey Matveev (http://www.stargrave.org/) OpenPGP: CF60 E89A 5923 1E76 E263 6422 AE1A 8109 E498 57EF
ZFS
И еще один странный вопрос про ZFS. Я косым взглядом вижу в описаниях ZFS фичу проверки контрольных сумм и восстановления при сбоях отдельных блоков. Но вижу ее в контексте RAIDZ, а его, соответственно, в контексте нескольких дисков. Вопрос. В контексте одного диска такая фича есть? Надо ли ее как-то специально включать, или она вообще у ZFS по умолчанию?
Re: zfs on linux
*** Alex Kicelew[2017-07-09 19:10]: >Хм. На большом компе я планировал бэкапить только нужные мне вещи, а вот >на ноуте думал сделать копию единственного диска и ежедневно сбрасывать >на нее send-ом наболевшее за день, чтобы при крахе основного винта >просто с нее сразу же загрузиться, а уже потом докупать еще винт. Вы >полагаете, что эта идея (под линухом, фри у меня нет) мертворожденная? Лично я не вижу какое будет отличие GNU/Linux ZFS-а от *BSD-ного. zfs send/recv же будет работать точно так же. Идея делать инкрементальные бэкапы (хоть каждый час по cron) мне нравится. Точно так же делал на ноутбуке где SSD-диску 3.5 года и от него всего можно ожидать. -- Sergey Matveev (http://www.stargrave.org/) OpenPGP: CF60 E89A 5923 1E76 E263 6422 AE1A 8109 E498 57EF
Re: Установка эмулятора Windows для приложения
07.07.2017 19:37, EyeLand пишет: > Привет, есть банковское приложение которое работают под Windows, можно > ее установить с помощью эмулятора на Debian? Спасибо. а если его попробовать запустить под CrossOver? -- BW, Сохин Вячеслав
Re: zfs on linux
9 июля 2017 г., 19:27 пользователь Alex Kicelewнаписал: > On 07/09/17 19:26, Vasiliy P. Melnik wrote: > > Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как > > инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не > винт > > самая большая проблема, а перегрев. > > Второй у меня есть. Но данные мне тоже важны. Лично меня полностью устраивает дропбокс - основной документооборот помещается в бесплатные 2 гига, еще и на телефоне можно посмотреть
Re: zfs on linux
On 07/09/17 19:26, Vasiliy P. Melnik wrote: > Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как > инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не винт > самая большая проблема, а перегрев. Второй у меня есть. Но данные мне тоже важны.
Re: zfs on linux
Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не винт самая большая проблема, а перегрев. 9 июля 2017 г., 19:08 пользователь Alex Kicelewнаписал: > On 07/09/17 19:01, Vasiliy P. Melnik wrote: > > Я на фре именно снапшотами и бекаплюсь, но это фря. > > > > Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а > > потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и > работает > > Хм. На большом компе я планировал бэкапить только нужные мне вещи, а вот > на ноуте думал сделать копию единственного диска и ежедневно сбрасывать > на нее send-ом наболевшее за день, чтобы при крахе основного винта > просто с нее сразу же загрузиться, а уже потом докупать еще винт. Вы > полагаете, что эта идея (под линухом, фри у меня нет) мертворожденная? > >
Re: zfs on linux
(прошу прощения за копию в личку; не уследил)
Validation failed
*** Errors validating /srv/www.debian.org/www/international/l10n/po/en_CA.ru.html: *** Line 183, character 374: "128513" is not a character number in the document character set *** Errors validating /srv/www.debian.org/www/international/l10n/po/en_GB.ru.html: *** Line 120, character 351: "128513" is not a character number in the document character set Line 314, character 337: "128513" is not a character number in the document character set Line 322, character 334: "128513" is not a character number in the document character set Line 1292, character 241: "128513" is not a character number in the document character set -- You received this mail for the language code ru. Please edit webwml/english/devel/website/validation.data if this is not accurate Please also update webwml/english/devel/website/ with the new coordinator(s) data
Re: zfs on linux
On 07/09/17 19:01, Vasiliy P. Melnik wrote: > Я на фре именно снапшотами и бекаплюсь, но это фря. > > Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а > потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и работает Хм. На большом компе я планировал бэкапить только нужные мне вещи, а вот на ноуте думал сделать копию единственного диска и ежедневно сбрасывать на нее send-ом наболевшее за день, чтобы при крахе основного винта просто с нее сразу же загрузиться, а уже потом докупать еще винт. Вы полагаете, что эта идея (под линухом, фри у меня нет) мертворожденная?
Re: zfs on linux
Я на фре именно снапшотами и бекаплюсь, но это фря. Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и работает 9 июля 2017 г., 18:56 пользователь Alex Kicelewнаписал: > On 07/09/17 18:52, Vasiliy P. Melnik wrote: > >> Про то, что отдельный /usr постепенно отламывают, даже в информации о > >> выпуске stretch было упомянуто: > > Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю > бут, > > потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и > > var_log по 20 гигов, swap на 2 гига. Если под что-то надо место - создаю > с > > минимальным размером, потом добавляю, если надо. Ресайз на увеличение > > работает на лету, на уменьшение - проблемно. > > Проблема в том, что на ноуте-то мне это не важно, но я планировал > поставить zfs и на большую машину, где небольшой рейд. Бэкапить zfs, > вроде, удобнее всего снапшотами, но снапшоты делаются на fs. Бэкапить > /etc мне нужно, а вот полный бэкап всего рута вместе с /usr -- нет. > >
Re: zfs on linux
On 07/09/17 18:52, Vasiliy P. Melnik wrote: >> Про то, что отдельный /usr постепенно отламывают, даже в информации о >> выпуске stretch было упомянуто: > Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю бут, > потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и > var_log по 20 гигов, swap на 2 гига. Если под что-то надо место - создаю с > минимальным размером, потом добавляю, если надо. Ресайз на увеличение > работает на лету, на уменьшение - проблемно. Проблема в том, что на ноуте-то мне это не важно, но я планировал поставить zfs и на большую машину, где небольшой рейд. Бэкапить zfs, вроде, удобнее всего снапшотами, но снапшоты делаются на fs. Бэкапить /etc мне нужно, а вот полный бэкап всего рута вместе с /usr -- нет.
Re: zfs on linux
> > Про то, что отдельный /usr постепенно отламывают, даже в информации о > выпуске stretch было упомянуто: > Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю бут, потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и var_log по 20 гигов, swap на 2 гига. Если под что-то надо место - создаю с минимальным размером, потом добавляю, если надо. Ресайз на увеличение работает на лету, на уменьшение - проблемно.
Re: zfs on linux
On 07/09/17 18:44, Alexander Galanin wrote: > This means that for stretch all systems where /usr is a separate > partition need to use an initramfs generator that will mount / > usr. All initramfs generators in stretch do so. У меня сейчас не возможности проверить, do ли они это на стандартных fs, но вот в zfs точно don't.
Re: zfs on linux
09.07.2017 17:07, Alex Kicelew пишет: Отдельно стоит отметить, что /sbin/init в лице systemd в настоящее время (версия 233-9) слинкован в числе прочего с одной библиотекой из /usr/lib. Я не смотрел, до инита монтируются некорневые fs на обычных системах, или после, но в zfs -- точно после, в результате чего если /usr расположен на отдельной fs, система при загрузке падает в кернел паник, ибо невозможно стартовать /sbin/init. Про то, что отдельный /usr постепенно отламывают, даже в информации о выпуске stretch было упомянуто: 5.1.1. Late mounting of /usr is no longer supported Note This section only applies to systems using a custom kernel, where /usr is on a separate mount point from /. If you use the kernel packages provided by Debian, you are unaffected by this issue. Mounting of /usr using only tools found in / is no longer supported. This has only worked for a few specific configurations in the past, and now they are explicitly unsupported. This means that for stretch all systems where /usr is a separate partition need to use an initramfs generator that will mount / usr. All initramfs generators in stretch do so. -- Alexander Galanin
Re: zfs on linux
On 07/09/17 18:14, Artem Chuprina wrote: > > 3) systemd запускается раньше, чем монтируются некорневые fs в составе > > zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при > > старте systemd не видны. И если ожидается, что они автостартуют при ... > После. Точно так же. Так что идея линковать сервисы в некорневую fs > относится к плохим. Прочесть конфиг, где написано "давай подождем, пока > вон то смонтируется" надо все же раньше, чем оно смонтируется. С одной стороны, это логично. Но с другой, в systemd есть system services, а есть user services. И если первые официально расположены частично в /etc, частично в /lib, то вторые -- в ~/.config. И то, что у меня они физически расположены в другой директории в том же ~/, которая синхронизируется между разными машинами, а в ~/.config/systemd/user только линки туда, это уже частность. > > но в zfs -- точно после, в результате чего если /usr расположен на > > отдельной fs, система при загрузке падает в кернел паник, ибо > > невозможно стартовать /sbin/init. > Спасибо за еще несколько бит информации про systemd... У Поттеринга всё > работает, ага... Справедливости ради, мне это кажется ляпом скорее мейнтейнера, чем Поттеринга. В более других версиях, которые у меня на других машинах, этого ляпа нет.
Re: Установка эмулятора Windows для приложения
Илья -> debian-russian@lists.debian.org @ Sat, 8 Jul 2017 13:13:49 +0300: >> > Недостатки - нужна копия Windows, работает медленнее, про >> > 3d-графику можно на ближайшие пару лет забыть. >> >> Вот только просмотрел: >> >> https://level1techs.com/video/gpu-passthrough-virtualization-ryzen-now-working >> >> Не на всех конфигурациях и моделях, но реально пробросить >> GPU из Linux в Windows. >> > Ну для банковского приложения вряд ли 3d нужно :). Это ОЧЕНЬ СИЛЬНО зависит от степени криворукости программистов оного банка. Могут тупо взять первый нагугленный гуевый фреймворк, а он окажется желающим 3D.
Re: zfs on linux
Alex Kicelew -> debian-russian@lists.debian.org @ Sun, 9 Jul 2017 17:07:47 +0300: > 3) systemd запускается раньше, чем монтируются некорневые fs в составе > zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при > старте systemd не видны. И если ожидается, что они автостартуют при > загрузке, то ожидается зря. Они станут видны systemd только после того, > как появится возможность сказать sudo systemctl daemon-reload (и, если > нужно, отдельно systemctl --user daemon-reload), после чего их нужно > будет стартовать руками. > Отдельно стоит отметить, что /sbin/init в лице systemd в настоящее время > (версия 233-9) слинкован в числе прочего с одной библиотекой из > /usr/lib. Я не смотрел, до инита монтируются некорневые fs на обычных > системах, или после, После. Точно так же. Так что идея линковать сервисы в некорневую fs относится к плохим. Прочесть конфиг, где написано "давай подождем, пока вон то смонтируется" надо все же раньше, чем оно смонтируется. > но в zfs -- точно после, в результате чего если /usr расположен на > отдельной fs, система при загрузке падает в кернел паник, ибо > невозможно стартовать /sbin/init. Спасибо за еще несколько бит информации про systemd... У Поттеринга всё работает, ага... > 4) swap внутри zfs работает вполне корректно, но, вероятно, hibernate > работать в таком режиме не будет, ибо насколько я понял, обращение за > сохраненными данными идет до импорта пула. Вообще это вот надо внимательно посмотреть... Насколько я понимаю ситуацию, например, с LVM, то там тома все же должны подниматься до того, начинает отрабатывать hibernate. Чтобы понять, откуда. А файловые системы подхватываться — уже после, на основании поднятых гибернейтом данных. Надо бы потестировать на виртуалке...
Re: zfs on linux
On 07/08/17 13:54, Alex Kicelew wrote: > диск, подключенный по usb. На диск, вставленный в гнездо, все > поставилось нормально. Правда, не работает... :( Вроде бы, все проблемы победились. Но интеграция zfs в дебиан пока еще далеко не полная. Грабли, по которым я прошел: 1) оказалось, что мой usb-переходник врет геометрию дисков (в частности, 512-байтные сектора передает как 4-килобайтные), что, разумеется, не проблема zfs, но время отняло. 2) мой ноут умеет грузиться как с bios boot, так и с uefi, но, как оказалось, с диска, размеченного в gpt (а в хауту описано именно это) он умеет грузиться только с uefi. Bios boot, расположенный на gpt, он не понимает. Это тоже не проблема zfs. 3) systemd запускается раньше, чем монтируются некорневые fs в составе zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при старте systemd не видны. И если ожидается, что они автостартуют при загрузке, то ожидается зря. Они станут видны systemd только после того, как появится возможность сказать sudo systemctl daemon-reload (и, если нужно, отдельно systemctl --user daemon-reload), после чего их нужно будет стартовать руками. Отдельно стоит отметить, что /sbin/init в лице systemd в настоящее время (версия 233-9) слинкован в числе прочего с одной библиотекой из /usr/lib. Я не смотрел, до инита монтируются некорневые fs на обычных системах, или после, но в zfs -- точно после, в результате чего если /usr расположен на отдельной fs, система при загрузке падает в кернел паник, ибо невозможно стартовать /sbin/init. 4) swap внутри zfs работает вполне корректно, но, вероятно, hibernate работать в таком режиме не будет, ибо насколько я понял, обращение за сохраненными данными идет до импорта пула. А так в целом работает. Отличий в скорости на глаз не заметно вообще.
Re: [DONE] wml://{security/2017/dsa-3904.wml}
Сб 08 июл 2017 @ 19:52 Vladimir Zhbanov: > On Sat, Jul 08, 2017 at 10:31:28PM +0500, Lev Lamberov wrote: >> +DNS-сервера. Они позволяют злоумышленнику обходит TSIG-аутентификацию > > обходит_ь_ Исправил. Спасибо!