11.04.2012 18:09, Volodymyr Kostyrko написал:
> Вечер добрый.
>
> Когда-то кто-то интересовался перекидыванием бекапов с одной машины на
> другую. Я приводил старые скрипты работающие через rsync и говорил что
> работаю над тем же но используя возможности ZFS.
>
> Вобщем кого интересует - прошу т
On Wed, Apr 11, 2012 at 08:00:34PM +0300, Yuriy B. Borysov wrote:
> Hi!
>
> On Wed, Apr 11, 2012 at 07:01:21PM +0400, Slawa Olhovchenkov writes:
> > On Wed, Apr 11, 2012 at 05:57:33PM +0300, Yuriy B. Borysov wrote:
>
> >> Если у аплинка включен urpf то могут быть проблемы если пакет прилетел
Hi!
On Wed, Apr 11, 2012 at 07:01:21PM +0400, Slawa Olhovchenkov writes:
> On Wed, Apr 11, 2012 at 05:57:33PM +0300, Yuriy B. Borysov wrote:
>> Если у аплинка включен urpf то могут быть проблемы если пакет прилетел
>> через один интерфейс, а улететь пробует через другой.
> нет, разумеется, чт
Вечер добрый.
Когда-то кто-то интересовался перекидыванием бекапов с одной машины на
другую. Я приводил старые скрипты работающие через rsync и говорил что
работаю над тем же но используя возможности ZFS.
Вобщем кого интересует - прошу тестить. funcs выделен отдельно так как
его место ИМХО в
On Wed, Apr 11, 2012 at 05:57:33PM +0300, Yuriy B. Borysov wrote:
> Если у аплинка включен urpf то могут быть проблемы если пакет прилетел
> через один интерфейс, а улететь пробует через другой.
нет, разумеется, что за бред.
ps: да, я в курсе что такое urpf
pps: _внимательно_ читаем отквоченное
Hi!
On Wed, Apr 11, 2012 at 05:53:49PM +0300, skeletor writes:
> А теперь немного от себя.
> Изначально вопрос был не совсем правильно сформулирован в корне ну и
> соответственно дальше начал тоже развиваться в неправильном русле.
> И так: для того, что бы пакет отправлялся в нужный интерфейс
11.04.2012 17:39, Vadim S. Goncharov написал:
Для нормальной диагностики следует приводить эту самую команду ping, и
на какой из машин она запускается.
Я ж писал (возможно не совсем точно выразился)
"Запускаем ping на первый канал (то есть ответ должен уйти через второй
канал) и смотрим tcp
On 11.04.2012 12:10, skeletor wrote:
Это подтверждает только то, что вы двое наблюдали какую-то хрень.
Система по умолчанию отправляет пакет согласно роутингу, а не "откуда
пришел запрос". Так что или продемонстрируйте route -n get и tcpdump,
демонстрирующие что у Вас оно ходит не по роутингу, и
2012/4/11 Volodymyr Kostyrko :
> Camellia по слухам дольше шифрует но быстрее дешифрует. XTS для неё уже
> есть, но пока только в 10-CURRENT.
Ну, я смогу только CBC проверить, -CURRENT поставить возможности и времени нет.
Sayetsky Anton wrote:
2012/4/11 Volodymyr Kostyrko:
А Camellia? В 8.2 ж ещё нет поддержки AESNI.
Ну, на C2Q AESNI всё равно нет ;)
AES выбрал, потому что стандарт. Camellia пока не планировал, да и
вообще - есть ли смысл? Там же только CBC, а для AES есть XTS, который
надёжнее.
Camellia по сл
2012/4/11 Volodymyr Kostyrko :
> А Camellia? В 8.2 ж ещё нет поддержки AESNI.
Ну, на C2Q AESNI всё равно нет ;)
AES выбрал, потому что стандарт. Camellia пока не планировал, да и
вообще - есть ли смысл? Там же только CBC, а для AES есть XTS, который
надёжнее.
Sayetsky Anton wrote:
Собственно, захотел потестить сабж.
Железо - C2Q 9400 on P5Q-VM DO, 6G DDR-800, SAMSUNG HD103SJ (1Gbit/sec
linear speed). Винт для тестов данных не хранит.
Создан раздел размером в 10 гиг.
Методика тестирования: перезапись раздела нулями, случайными данными,
чтение раздела.
Собственно, захотел потестить сабж.
Железо - C2Q 9400 on P5Q-VM DO, 6G DDR-800, SAMSUNG HD103SJ (1Gbit/sec
linear speed). Винт для тестов данных не хранит.
Создан раздел размером в 10 гиг.
Методика тестирования: перезапись раздела нулями, случайными данными,
чтение раздела. Каждый тест трижды.
Тест
Eugene Grosbein wrote:
11.04.2012 19:42, Lystopad Aleksandr пишет:
Выходит, на девятке ZFS по дефолту общается с носителем блоками по 128K?
zfs recordsize -- по дефолту 128К.
Начиная с которой версии ZFS?
Начиная с самой первой.
--
Sphinx of black quartz judge my vow.
11.04.2012 19:46, Slawa Olhovchenkov пишет:
>> Выходит, на девятке ZFS по дефолту общается с носителем блоками по 128K?
>
> похоже на то.
> по крайне мере даже задание bs=8k у dd картину не меняет:
>
> Disks ada0 ada1 da0 cd0 pass0 pass1 pass2 2826648 wire
> KB/t122 122 0.00 0.00
On Wed, Apr 11, 2012 at 07:35:15PM +0700, Eugene Grosbein wrote:
> 11.04.2012 19:32, Slawa Olhovchenkov пишет:
>
> systat -vm что в это время говорил про составляющие gmirror?
> >>>
> >>> Disks ada0 ada1 cd0 pass0 pass1 pass2 3166916 wire
> >>> KB/t123 123 0.00 0.00 0.00
11.04.2012 19:42, Lystopad Aleksandr пишет:
>> Выходит, на девятке ZFS по дефолту общается с носителем блоками по 128K?
>
> zfs recordsize -- по дефолту 128К.
Начиная с которой версии ZFS?
Hello, Eugene Grosbein!
On Wed, Apr 11, 2012 at 07:35:15PM +0700
egrosb...@rdtc.ru wrote about "Re: [freebsd] Re: UFS2 и разделы большого
объема":
> 11.04.2012 19:32, Slawa Olhovchenkov пишет:
>
> systat -vm что в это время говорил про составляющие gmirror?
> >>>
> >>> Disks ada0 ada1
11.04.2012 19:32, Slawa Olhovchenkov пишет:
systat -vm что в это время говорил про составляющие gmirror?
>>>
>>> Disks ada0 ada1 cd0 pass0 pass1 pass2 3166916 wire
>>> KB/t123 123 0.00 0.00 0.00 0.00 207732 act
>>> tps 983 985 0 0 0 0
On Wed, Apr 11, 2012 at 07:24:42PM +0700, Eugene Grosbein wrote:
> 11.04.2012 19:14, Slawa Olhovchenkov пишет:
>
> >>> 78405+0 records out
> >>> 10276700160 bytes transferred in 81.567188 secs (125990615 bytes/sec)
> >>
> >> systat -vm что в это время говорил про составляющие gmirror?
> >
> > Di
11.04.2012 19:14, Slawa Olhovchenkov пишет:
>>> 78405+0 records out
>>> 10276700160 bytes transferred in 81.567188 secs (125990615 bytes/sec)
>>
>> systat -vm что в это время говорил про составляющие gmirror?
>
> Disks ada0 ada1 cd0 pass0 pass1 pass2 3166916 wire
> KB/t123 123
On Wed, Apr 11, 2012 at 07:08:08PM +0700, Eugene Grosbein wrote:
> 11.04.2012 19:03, Slawa Olhovchenkov пишет:
>
> >> из /dev/zero не очень интересно. Интересно именно из big file.
> >
> > да откуда я тебе еще один диск для исходного big file достану.
>
> А и не надо ещё один диск, у тебя ж gmi
11.04.2012 19:03, Slawa Olhovchenkov пишет:
>> из /dev/zero не очень интересно. Интересно именно из big file.
>
> да откуда я тебе еще один диск для исходного big file достану.
А и не надо ещё один диск, у тебя ж gmirror - копируй с ZFS на неё же.
Можно dd | dd или даже dd | team | dd (team в по
On Wed, Apr 11, 2012 at 06:36:49PM +0700, Eugene Grosbein wrote:
> 11.04.2012 17:45, Slawa Olhovchenkov пишет:
>
> >> Ускорение - на обычных мелких записях, а fsck на gjournal выполняется
> >> мгновенно (только смотрит, были ли orphaned files и удаляет их).
> >
> > А вот если нам
11.04.2012 17:45, Slawa Olhovchenkov пишет:
>> Ускорение - на обычных мелких записях, а fsck на gjournal выполняется
>> мгновенно (только смотрит, были ли orphaned files и удаляет их).
>
> А вот если нам надо записать много и долго - то будет проблема, печально
> это.
>>>
On Wed, Apr 11, 2012 at 03:40:45PM +0700, Eugene Grosbein wrote:
> 11.04.2012 15:22, Slawa Olhovchenkov пишет:
> > On Wed, Apr 11, 2012 at 02:26:37PM +0700, Eugene Grosbein wrote:
> >
> >> 11.04.2012 13:48, Sayetsky Anton пишет:
> >>> 10 апреля 2012 г. 19:13 пользователь Eugene Grosbein
> >>> на
11.04.2012 15:22, Slawa Olhovchenkov пишет:
> On Wed, Apr 11, 2012 at 02:26:37PM +0700, Eugene Grosbein wrote:
>
>> 11.04.2012 13:48, Sayetsky Anton пишет:
>>> 10 апреля 2012 г. 19:13 пользователь Eugene Grosbein
>>> написал:
Ускорение - на обычных мелких записях, а fsck на gjournal выполняе
11 апреля 2012 г. 11:22 пользователь Slawa Olhovchenkov
написал:
> напиши тест и я его запущу
Например, погонять iozone в авторежиме с размерами блока от 512 до 16М
и размерами файла от 10 до 1000 гиг.
skeletor wrote:
> 11.04.2012 08:09, Mykola Dzham написал:
>
> > Это подтверждает только то, что вы двое наблюдали какую-то хрень.
> > Система по умолчанию отправляет пакет согласно роутингу, а не "откуда
> > пришел запрос". Так что или продемонстрируйте route -n get и tcpdump,
> > демонстрирующие
On Wed, Apr 11, 2012 at 02:26:37PM +0700, Eugene Grosbein wrote:
> 11.04.2012 13:48, Sayetsky Anton пишет:
> > 10 апреля 2012 г. 19:13 пользователь Eugene Grosbein
> > написал:
> >> Ускорение - на обычных мелких записях, а fsck на gjournal выполняется
> >> мгновенно (только смотрит, были ли orpha
11.04.2012 14:55, Sayetsky Anton пишет:
> 11 апреля 2012 г. 10:26 пользователь Eugene Grosbein
> написал:
>> Интересно, как с такими операциями у ZFS.
> Вот этого не пробовал, ZFS вообще не юзал и не вижу смысла. На UFS+SU
> и ext* подобное вполне нормально работает.
Но длительный fsck :-)
On Wed, Apr 11, 2012 at 09:52:11AM +0300, Sayetsky Anton wrote:
> 10 апреля 2012 г. 22:29 пользователь Andrey N. Oktyabrski
> написал:
> > Кстати, с гмылом вполне можно работать через imap/smtp любимым почтовым
> > клиентом (Thunderbird, Mutt, K-9 Mail, ...).
>
> OT:
> Не каждый почтовый клиент
11.04.2012 08:09, Mykola Dzham написал:
Это подтверждает только то, что вы двое наблюдали какую-то хрень.
Система по умолчанию отправляет пакет согласно роутингу, а не "откуда
пришел запрос". Так что или продемонстрируйте route -n get и tcpdump,
демонстрирующие что у Вас оно ходит не по роутингу
11 апреля 2012 г. 10:26 пользователь Eugene Grosbein
написал:
> Интересно, как с такими операциями у ZFS.
Вот этого не пробовал, ZFS вообще не юзал и не вижу смысла. На UFS+SU
и ext* подобное вполне нормально работает.
Коллеги, есть у кого-нибудь возможность потыкать UFS+SUJ?
11 апреля 2012 г. 10:23 пользователь Andrey N. Oktyabrski
написал:
> У меня никогда столько не было в одном ящике. Обычно на сервере развесистый
> sieve скрипт, который раскидывает по разным. Кроме того, рассылки не храню
> больше месяца, у них архив есть.
Зачем удалять письма? (c) gmail
11.04.2012 13:48, Sayetsky Anton пишет:
> 10 апреля 2012 г. 19:13 пользователь Eugene Grosbein
> написал:
>> Ускорение - на обычных мелких записях, а fsck на gjournal выполняется
>> мгновенно (только смотрит, были ли orphaned files и удаляет их).
>
> А вот если нам надо записать много и долго - т
On 11.04.12 10:52, Sayetsky Anton wrote:
10 апреля 2012 г. 22:29 пользователь Andrey N. Oktyabrski
написал:
Кстати, с гмылом вполне можно работать через imap/smtp любимым почтовым
клиентом (Thunderbird, Mutt, K-9 Mail, ...).
OT:
Не каждый почтовый клиент имеет цепочки писем - очень удобная ш
On 11.04.2012 10:52, Sayetsky Anton wrote:
> Не каждый почтовый клиент имеет цепочки писем - очень удобная штука.
> Кстати, а есть какие-нибудь почтовые клиенты, которые способны
> переварить мои 350 тысяч писем, проиндексировать и построить цепочки?
> :) Буревестник падает уже на 80к.
Раньше он с
38 matches
Mail list logo