Re: [freebsd] releng/13.1, vt(4) kernel messages color

2022-05-30 Пенетрантность Volodymyr Kostyrko via freebsd

On May 29, 2022 12:39:41 PM Anton Saietskii  wrote:


Приветствую, товарищи.
Пришло время обновляться и заодно окончательно переходить на vt(4).
Для тестирования этого дела взял я VirtualBox 6.1, водрузил туда
releng/13.1 и пошёл компилять-собирать. Однако, после перезагрузки
меня постигло разочарование, т.к. годами работавшая в sc(4) опция по
изменению цвета сообщений ядра и её наследник в новой консоли
перестали работать.

Изначально текст юзерленда и ядра серый. Добавил свои любымые опции:
root@localhost:~ # config -x /boot/kernel/kernel | grep TERM
options TERMINAL_KERN_ATTR=(FG_GREEN|BG_BLACK)
options TERMINAL_NORM_ATTR=(FG_LIGHTGREY|BG_BLACK)

Текст ядра стал вместо серого белым, а не зелёным, как я хотел. Собрал
GENERIC с этими опциями -- ничего не изменилось. Собрал GENERIC с
этими опциями, в точности взятыми из NOTES -- опять ничего не
изменилось. Перепробовал все 3 контроллера видео в VBox --
естественно, и в этот раз ничего не изменилось.
Получается, что при наличии к конфиге ядра опции TERMINAL_KERN_ATTR
цвет изменяется с серого на белый вне зависимости от значения самой
опции.

Вот сижу теперь, чешу репу и думаю -- ЧЯДНТ?
___
freebsd mailing list
freebsd@uafug.org.ua
http://mailman.uafug.org.ua/mailman/listinfo/freebsd


У loader.conf:

kern.vt.color.7.rgb="#00ff00”
kern.vt.color.15.rgb="#008800”

Десь так мабуть…

-- https://t.me/freebsd_ua
Sphinx of black quartz judge my vow.


___
freebsd mailing list
freebsd@uafug.org.ua
http://mailman.uafug.org.ua/mailman/listinfo/freebsd


Re: [freebsd] Postfix in test mode

2021-09-27 Пенетрантность Volodymyr Kostyrko

On 23.09.21 12:55, Alexey Krylov wrote:

Доброго дня.

*>> А ответ на первоначальный вопрос зависит от того, что в итоге 
хочется получить:

потерю почты? тогда надо отвечать ошибкой 5xx;
перепосылку позже на другой MX? тогда надо отвечать ошибкой 4xx и ставить 
приоритет такого сервера выше, а не ниже (цифру меньше).



comp-mir.ua.    86400   IN   MX  5   mailtest.comp-mir.ua.
comp-mir.ua.    86400   IN   MX  15  mail.comp-mir.ua.
comp-mir.ua.    86400   IN   MX  30  mailtest.comp-mir.ua.



smtpd_sender_restrictions =
   …
   defer
*Дякую, це майже те, що було потрiбно. Якщо ставлю останнiм defer - 
одразу ж iде доставка на наступний сервер, но мейл не

зберiгаеться.
Якщо можна, пiдкажiть, як зробити щоб зберiгався мейл та бросати помилку 
4хх щоб доставка йшла на наступний сервер.


Я не думаю, що така поведінка можлива просто використовуючи postfix, 
оскільки defer означає що лист приймати не треба, а коли лист прийнято — 
треба правильно сповістити про це. Можливо допоможе додати якийсь 
milter, який буде записувати зміст листа і повертати тичасову помилку.


-- https://t.me/freebsd_ua
Sphinx of black quartz judge my vow.
___
freebsd mailing list
freebsd@uafug.org.ua
http://mailman.uafug.org.ua/mailman/listinfo/freebsd


Re: [freebsd] Postfix in test mode

2021-09-23 Пенетрантность Volodymyr Kostyrko

On 22.09.21 17:33, Eugene Grosbein wrote:

22.09.2021 21:15, Sergey V. Dyatko пишет:


Postfix in test mode Здравствуйте.

Как сконфигурировать тестовый postfix-сервер для принятия почты с таким
алгоритмом:

1) есть 2 MX записи с разными приоритетами
comp-mir.ua.86400   IN   MX  15  mail.comp-mir.ua.
comp-mir.ua.86400   IN   MX  30  mailtest.comp-mir.ua.

2) Любой сервер X подключается к mailtest.comp-mir.ua и передает письмо.
  mailtest.comp-mir.ua принимает письмо, но передает ошибку
  Сервер Х передает письмо на mail.comp-mir.ua.
  mail.comp-mir.ua. принимает письмо и возвращает "200 OK"

Конфигурации двух серверов почти одинаковые. Подскажите, какая настройка
заставит принять почту но ответить ошибкой?



мне казалось, что "любой сервер Х" должен подключаться к mail.comp-mir.ua в
первую очередь. и только при недоступности идти в mailtest. разве нет?


Спамеры любят долбиться в низкоприоритетные MX :-) но они долбятся вообще везде.

А ответ на первоначальный вопрос зависит от того, что в итоге хочется получить:
потерю почты? тогда надо отвечать ошибкой 5xx;
перепосылку позже на другой MX? тогда надо отвечать ошибкой 4xx и ставить 
приоритет такого сервера выше, а не ниже (цифру меньше).


comp-mir.ua.86400   IN   MX  5   mailtest.comp-mir.ua.
comp-mir.ua.86400   IN   MX  15  mail.comp-mir.ua.
comp-mir.ua.86400   IN   MX  30  mailtest.comp-mir.ua.

smtpd_sender_restrictions =
  …
  defer

Або будь яку іншу політику зробити за замовчанням defer, і перевірити 
щоб там не було permit. Ну окрім smtpd_client_restrictions.


-- https://t.me/freebsd_ua
Sphinx of black quartz judge my vow.
___
freebsd mailing list
freebsd@uafug.org.ua
http://mailman.uafug.org.ua/mailman/listinfo/freebsd


Re: [freebsd] FreeBSD 12 out of swap space при пустом свопе

2021-03-02 Пенетрантность Volodymyr Kostyrko

On 02.03.21 05:43, Dmytro Lavryk wrote:

Всем здоровья!
Время от времени выскакивает такое:
Feb 16 10:48:40 005 kernel: pid 76229 (mysqld), jid 0, uid 88, was 
killed: out of swap space
Mar  1 21:11:55 005 kernel: pid 3785 (icecast), jid 0, uid 80, was 
killed: out of swap space


При этом свопа много и он ВЕСЬ пустой. Вообще не вижу чтобы его кто-то 
когда-то использовал. Больше ничего "подозрительного" в логах нет.


Честно говоря, вообще плохо понимаю, как такое может быть.

Куда смотреть?


Там куча вариантов есть.

Если своп на ZFS и памяти мало — система может потреблять память быстрее 
чем своп её освобождает. На таких системах сложно потребить много свопа, 
даже если он есть.


Можно попробовать vm.swap_idle_enabled=1, это ускорит выпадение 
процессов в своп, но желательно начинать с чтения dmesg и выяснения как 
именно потребляется память.


--
https://t.me/freebsd_ua
Sphinx of black quartz judge my vow.
___
freebsd mailing list
freebsd@uafug.org.ua
http://mailman.uafug.org.ua/mailman/listinfo/freebsd


Re: [freebsd] ** Подписка и DMARC

2017-03-22 Пенетрантность Volodymyr Kostyrko

Valentin Nechayev wrote:


То же касается всех тех, у кого домен с аналогичными DMARC
ограничениями.
Ставьте в h_From другие адреса.



(На сейчас - отписал от рассылки. Переподпишетесь с правильного
адреса.)


Как бы на будущее хотелось бы прояснить политику распространения списка 
рассылки. Не то чтобы я здесь часто бываю или много пишу, но попытаюсь 
просуммировать имеющиеся вопросы, возможно ещё кого-то это интересует.


1. В данный момент рассылка не доступна на GMANE. Мне такой способ 
получения рассылки кажется более удобным, поскольку я могу 
тягать/смотреть только то что меня интересует и, соответственно, мне не 
нужно будет высылать всю эту почту. То есть если мой домен не желает 
получать почту вот в таком виде, почему я не могу поставить доставку на 
холд и смотреть на рассылку через GMANE? Формально это решит проблему 
без реконфигурации, смены адресов и так далее.


2. Текущая версия Mailman немного устарела, начиная с версии 2.1.18 уже 
есть необходмый функционал для манглинга/враппинга. Возможно обновление 
Mailman могло бы предупредить такие кардинальные действия?


Ну вот у меня например так сложилось что и другая почта тоже скоро 
получит DMARC. Ну вот шагает DMARC по планете, что с ним сделаешь. Мне 
он нравится тем, что в отличии от байеса, rbl и прочего он явно 
детерминирован и не подразумевает возможности недоставки необходимой 
почты в случае выполнения всех требований.


PS: Если я не ошибаюсь это касается и доменов с strict spf тоже, так как 
они явно запрещают доставку почту от этого домена с посторонних адресов. 
Правда не помню насколько буквально гугл исполняет такие политики.


--
Sphinx of black quartz judge my vow.

___
freebsd mailing list
freebsd@uafug.org.ua
http://mailman.uafug.org.ua/mailman/listinfo/freebsd


Re: [freebsd] zpool mirror and clone OS.

2016-08-02 Пенетрантность Volodymyr Kostyrko

Vladislav V. Prodan wrote:


Я бы все-таки подключал диски в пул через GEOM метки.
Иначе при смене нумерации дисков будут чудеса.


Да ну? ZFS же отродясь диски искал по своим меткам. Это в геоме какраз 
некоторым провайдерам нужно было отдельно говорить чтобы не 
привязывались к названию провайдера.


--
Sphinx of black quartz judge my vow.



[freebsd] Re: [freebsd] Freebsd 8.4 : некоторые порты перестали собираться.

2015-10-04 Пенетрантность Volodymyr Kostyrko

On 04.10.2015 10:45, Eugene V. Boontseff wrote:

Здравствуйте, коллеги.

Пересобирал после очередного обновления ветки порты для 8.4 с помощью
poudriere. У части (значительной) портов появилась зависимость от
llvm36, который "is marked as broken: GCC failing on 8.x".
Попробовал для таких портов установить USE_GCC, но зависимость никуда не
делась. Можно это как-нибудь обойти или с 8-ой уже всё?


Можно попробовать собрать lang/clang посвежее итерационно:

1. Собрать lang/clang34.
2. С его помощью собрать lang/clang3X повыше.

Проблема курицы и яйца и что в каком порядке собирать уже всплывала на 
макоси: https://trac.macports.org/wiki/LibcxxOnOlderSystems Возможно и у 
вас отголоски той же проблемы.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] Lan Raid Mirror

2015-08-19 Пенетрантность Volodymyr Kostyrko

On 19.08.2015 11:56, Alexey Krylov wrote:

Здравствуйте, Sergey.

Нагруженную файловую помойку хочу распределить. 80-90% обращений - это чтение + 
запись нужна не всем

Также для почтовой системы, синхронизация mbox.

Очень интересна реализация с отправкой дельты на zfs. У Вас это работает?


Я бекапы дельтой отправляю, оформил как примочку к zfSync: 
https://github.com/kworr/zfSnap


Код возможно староват немного, давно не проверял. Будут вопросы пошуршу 
свежую версию.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] Подземный стук и sshd

2015-03-13 Пенетрантность Volodymyr Kostyrko

On 13.03.2015 13:22, Yuriy B. Borysov wrote:

Добрый день.

В свеже-установленной  10.1-RELEASE-p6 наблюдается странный косяк:
1. Заходим по ssh на машину
2. пытаемся установить пакет с большим кол-вом зависимостей, например
portinstall cacti
3. через какое-то произвольное время получаем обрыв ssh сессии с
сообщением в логе:
Mar 13 18:01:43 vpn-gw sshd[15105]: fatal: Write failed: Permission denied

Обрывается только так сессия, в которой запущена установка пакета.
Остальные сессии - отлично живут сутками. Остальных действий, которые
приводят к такой же проблеме, пока не удалось обнаружить. Т.е.
просмотр логов, редактирование конфигов и т.п. работает нормально.

Ядро - GENERIC.

В какую сторону смотреть?


В вашей загадке возможно не хватает слова "intel". Попробуйте выключить MSI.

--
Sphinx of black quartz judge my vow.


Re: [freebsd] FreeBSD 10.1: PF bug?

2015-03-04 Пенетрантность Volodymyr Kostyrko

On 04.03.2015 12:39, Golub Mikhail wrote:

pf модулем.

# kldstat
Id Refs AddressSize Name
  1   19 0x8020 1669200  kernel
  21 0x8186a000 267f48   zfs.ko
  32 0x81ad2000 6780 opensolaris.ko
  41 0x81ad9000 b98d8linux.ko
  51 0x81b93000 2698 accf_http.ko
  61 0x81c11000 33a7fpf.ko

Модуль linux нужен для одной софтинки.
К теме отношения не имеет.


Попробуйте pf вкомпилить ядро, прямо с pflog. Где-то я видел ругань на 
то что все эти опции ALTQ_* некошерно влияют на сборку pf модулем.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] FreeBSD 10.1: PF bug?

2015-03-04 Пенетрантность Volodymyr Kostyrko

On 04.03.2015 11:17, Golub Mikhail wrote:

Добрый день.

Имеем FreeBSD 10.1, один сетевой интерфейс.
Ядро собрано с поддержкой altq.


Интересно, а pf в ядре или модулем?

--
Sphinx of black quartz judge my vow.


[freebsd] Re: [freebsd] Re: [freebsd] gcc4.6, gcc4.8, boost и чехарда с библиотеками

2015-02-23 Пенетрантность Volodymyr Kostyrko

On 23.02.2015 22:48, Vladislav V. Prodan wrote:

# pkg_libchk
sendmail+tls+sasl2-8.14.9_2: /usr/local/bin/rmail misses libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/bin/vacation misses libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/libexec/mail.local misses
libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/libexec/smrsh misses libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/sbin/editmap misses libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/sbin/mailstats misses libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/sbin/makemap misses libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/sbin/praliases misses libutil.so.8
sendmail+tls+sasl2-8.14.9_2: /usr/local/sbin/sendmail misses libutil.so.8


# ldd /usr/local/bin/rmail
/usr/local/bin/rmail:
 libutil.so.8 => /usr/local/lib/compat/libutil.so.8 (0x80053c000)
 libc.so.7 => /lib/libc.so.7 (0x80072c000)

# ldd /usr/local/sbin/sendmail
/usr/local/sbin/sendmail:
 libwrap.so.6 => /usr/lib/libwrap.so.6 (0x8007c)
 libsasl2.so.2 => /usr/local/lib/libsasl2.so.3 (0x8009c9000)
 libssl.so.6 => /usr/lib/libssl.so (0x800be4000)
 libcrypto.so.6 => /usr/lib/libcrypto.so (0x800e4f000)
 libutil.so.8 => /usr/local/lib/compat/libutil.so.8 (0x8005d)
 libc.so.7 => /lib/libc.so.7 (0x801243000)


Утилита ниочем.


Утилита о том, что у вас в системе сборная солянка пакетов под разные 
версии фри, как минимум представлены 8.x и 10.1.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] gcc4.6, gcc4.8, boost и чехарда с библиотеками

2015-02-23 Пенетрантность Volodymyr Kostyrko

On 23.02.2015 21:46, Vladislav V. Prodan wrote:


# ldd  /usr/local/lib/libboost_regex.so
/usr/local/lib/libboost_regex.so:
 libicuuc.so.48 => /usr/local/lib/libicuuc.so.52 (0x80170d000)


Свежий icu пришёл. Время пересобрать boost.

make -C /usr/ports/sysutils/bsdadminscripts install clean
rehash
pkg_libchk

То на что ругается - осмотреть и пересобрать.

--
Sphinx of black quartz judge my vow.


Re: [freebsd] обновление freebsd и проблемы с этим сопряженные.

2014-12-29 Пенетрантность Volodymyr Kostyrko

On 26.12.2014 14:12, Eugene V. Boontseff wrote:

Здравствуйте, коллеги!

Так получилось, что последний год с небольшим я не обновлял ничего на
своей домашней машине.
Но понадобилось что-то доставить, а версии установленных портов
безнадёжно устарели. И их так просто уже не обновишь - 2200 потров на
freebsd 8.4. Решил обновить всё кардинально. Систему до 10.1, а порты из
своего репозитория бинарно.
И, вообщем, обновление прошло почти без проблем. Систему из сырцов -
только хард один из зеркала вынул на всякий случай, но
все прошло нормально. Софт одной командой pkg upgrade вышло обновить, но
в 3-4 этапа обновился весь.
Вот тут пришёл .. хм .. сюрпрайз! Гном безвозвратно прибавил единичку.
Сейчас почитал, что люди уже долгое время об этом говорят, но в первый
момент это был удар! Но что делать? Вся среда многолетне устаканеная и
привычно удобная рабочая среда ушла в унитаз. Но даже не это главное. К
убогому интерфейсу - можно сравнить с камерой, где кровать, стулья и
стол намертво прибиты к полу - даже не передвинешь и убогим средствам и
возможностям настройки можно привыкнуть. Я уже почти привык.Но есть
ньюансы. Оно ещё и работать по нормально не хочет. во всяком случае на
моей машине. gdm стартует так, что кажется, у него вечность впереди -
перешёл на startx. И какой ужасный буферезированный клавиатурный ввод.


Вместо gdm можно попробовать x11/slim.


Настроить его никак не получается. Буквы выскакивают как хотят и на
каком хотят месте. Особенно в терминальных сессиях. Сейчас уже немного
приноровился, но всё-равно - процесс ввода текста стал реально
трудозатратным, и держит в напряжении, как движение в центре города
начинающего водителя. Что делать? На что уходить, чтобы что-то
более-менее похожее на 2-й гном было?


Тут уже всё остальное посоветовали, напомню что есть ещё 
x11-wm/enlightenment, недавно кстати обновившийся. Жрёт метров сто 
оперативы и настраивается куда более детально чем гном или KDE.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] squid: kern.maxfilesperproc

2014-12-03 Пенетрантность Volodymyr Kostyrko

On 03.12.2014 12:26, Golub Mikhail wrote:

Доброго времени суток.

Еще один вопрос, который решаю перезапуском сквида. Но это не правильно :)

Мне мало дескрипторов, с которыми сквид запускается при старте системы
(именно после перезагрузки сервера).

В /etc/sysctl.conf указано:
kern.maxfilesperproc=10


А ещё? kern.maxfiles? kern.maxvnodes?


Но squid упорно при загрузке сервера берет другое значение, гораздо меньше.
Что видим в логе:
2014/12/03 10:07:11 kid1| Starting Squid Cache version 3.4.9 for
amd64-portbld-freebsd10.1...
2014/12/03 10:07:11 kid1| Process ID 1451
2014/12/03 10:07:11 kid1| Process Roles: worker
2014/12/03 10:07:11 kid1| With 28737 file descriptors available


--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-21 Пенетрантность Volodymyr Kostyrko

On 21.11.2014 20:29, Владимир Друзенко wrote:

21.11.2014 14:53, Volodymyr Kostyrko пишет:

В среднем у меня на виртуалку приходится 3 диска - вместо одной команды
zfs create надо делать 3.
А как в одну команду перенести все диски виртуалки на другой, более
медленный или более быстрый носитель на том же сервере, или просто
сделать копию (cp и mv уже не подойдут)?


Обычно не держу больше одного пула на сервере. Всегда лучше построить
zraid чем мерять на каких дисках быстрее,

15krpm и 7200rpm (все современные) какбэ намекают на разницу в скорости
даже без дополнительного измерения (хотя я его и проводил).
Да и размеры дисков разные - 300Gb и 500/1000Gb (на разных серверах)
соответственно.


Когда на машине зоопарк разных дисков - да. Во всех остальных случаях 
zraid на 5400 не уступает mirror на 15k.



Я создаю для каждой виртуалки отдельную фс, и диски виртуалки лежат
там
как файлы.


могу тогда ещё рекомендовать recordsize=8k

Зачем так мало? Использую дефолтные 128K на хосте.


Потому что в виртуалке файлы пишутся кусками в 4k а на хосте по
правилам Copy-On-Write перезаписывается весь сектор в 128k. Та же
проблема и с базами данных: https://wiki.freebsd.org/ZFSTuningGuide
http://open-zfs.org/wiki/Performance_tuning

О базах слышал. Надо подумать...
Это опция пула или файловой системы? Есть возможность изменить без
пересборки пула? (Сам пока не гуглил).


Опция фс. Вопрос тяжёлый, наверное как с компрессией - поменять можно, 
но работать будет только для новых файлов.



Ещё есть qemu и может он и умеет блочные устройства, но не думаю что
имеет смысл на него мигрировать.


мечтаю когда bhyve c qemu замутят.


А зачем qemu ожидать, когда есть bhyve - его ожидать куда интереснее (и
перспективнее). :-D


В qemu мне нравится возможность активно играться с девайсами и их
количество, помню сел в раскоряку, здесь флешки нету, есть флешка в
датацентре, но это 500км. Есть софт, который ляпает на флешку самотык
для обновления фирмвари, но только на флешку и никак иначе. Создал
виртуальный диск, подбросил в qemu как флешку - и на ура.

Как же он определяет что это флешка - софт под вендой что ли?


Да. Спасибо HP за это.


А так да - то, что VirtualBox не умеет образы подсовывать как USB
флешки, тоже порой не хватает.


Раньше в qemu был qemu-kmod который позволял выполнять уже
оттранслированый код на уровне ядра с куда большей
производительностью. Потом товарищ Морис его выкинул и начал
использовать линуксовый kvm, который по большому счёту то же самое что
и bhyve - системный минимальный набор для виртуализации. Насколько я
понимаю bhyve более самодостаточен, но от использования его как
бекенда для исполнения виртуалок с qemu в виде фронтенда для
трансляции и работы с виртуальными девайсами я бы не отказался. Незнаю
насколько это реально, скорее мечта...

Что такого нельзя сделать с помощью PetiteCloud + VNC (когда реализуют),
а можно с qemu?


PetiteCloud включает qemu, но не позволяет запускать на bhyve например 
MacOS. Это такая аццки противная система, которая работает на очень 
коротком списке железа. Чем старше система тем ископаемее железо.
У меня работает Snow Leo на VB 4.3.6 и спецом подобранном железе. 
Теоретически это запускается в qemu: 
http://www.contrib.andrew.cmu.edu/~somlo/OSXKVM/


--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-21 Пенетрантность Volodymyr Kostyrko

On 21.11.2014 12:58, Владимир Друзенко wrote:

21.11.2014 01:36, Volodymyr Kostyrko пишет:

On 20.11.2014 18:09, Владимир Друзенко wrote:

05.11.2014 17:49, Volodymyr Kostyrko пишет:

On 05.11.2014 14:15, Vladislav V. Prodan wrote:

Зоопарк. Из FreeBSD все не ниже 9.0 (может конечно 1-2 8.2
осталась, но
уже без нагрузки). Но не в этом суть.
Не так давно в рассылке пробегала "категорическая
рекомендация" не
использовать один физический диск в нескольких различных
пулах, со
ссылкой на планирование IO в ZFS. А тут на одной ZFS куча
других
ZFS. Да
и памяти на столько кэшей ненапастисть.


zfs create -o primarycache=metadata -o sync=disabled -o
logbias=throughput -o volmode=dev -o volsize=?

Это где вы советуете делать? на хосте или на госте?


На хосте. primarycache=metadata позволяет кешировать данные о
fs/volume но не его содержимое. sync=disabled отключает принудительный
сброс данных на диск (возможно с этим я и перегнул палку, наверно
лишнее ибо небезопасно). logbias=throughput отключает при записи
использование логов, т.е. все данные пишутся сразу на диск. Это ещё
базам данных хорошо помогает.


А что делать с памятью? Это же не поможет её сэкономить.


primarycache=metadata будет оставлять в памяти только метаданные zfs
но не содержимое. Или предложите как гарантированно выключить
кеширование диска в виртуалках.


Я должен предложить? Как раз вопрос был от меня (на предложение
использовать zfs в виртуалках) - как уменьшить потребление памяти в zfs
до уровня ufs2, чтобы можно было использовать zfs в виртуалке с 256Mb
памяти, да ещё что-то полезное в этой виртуалке должно крутиться?
primarycache=metadata позволяет этого добиться?


Я имел в виду использование primarycache=metadata на хосте а не в 
виртуалке, это не уберёт нагрузку на память в виртуалке а хостовую 
систему рагрузит от двойного кеширования.


ZFS в виртуалке мне вообще не нравится никак. Сейчас из-за этого плотно 
экспериментирую с DragonFly и HAMMER.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-21 Пенетрантность Volodymyr Kostyrko

On 21.11.2014 13:07, Владимир Друзенко wrote:

21.11.2014 01:59, Volodymyr Kostyrko пишет:

On 20.11.2014 18:20, Владимир Друзенко wrote:

20.11.2014 19:09, Владимир Друзенко пишет:

05.11.2014 17:49, Volodymyr Kostyrko пишет:

On 05.11.2014 14:15, Vladislav V. Prodan wrote:

Зоопарк. Из FreeBSD все не ниже 9.0 (может конечно 1-2 8.2
осталась, но
уже без нагрузки). Но не в этом суть.
Не так давно в рассылке пробегала "категорическая
рекомендация" не
использовать один физический диск в нескольких различных
пулах, со
ссылкой на планирование IO в ZFS. А тут на одной ZFS куча
других
ZFS. Да
и памяти на столько кэшей ненапастисть.


zfs create -o primarycache=metadata -o sync=disabled -o
logbias=throughput -o volmode=dev -o volsize=?

Это где вы советуете делать? на хосте или на госте?


На хосте. primarycache=metadata позволяет кешировать данные о
fs/volume но не его содержимое. sync=disabled отключает
принудительный сброс данных на диск (возможно с этим я и перегнул
палку, наверно лишнее ибо небезопасно). logbias=throughput отключает
при записи использование логов, т.е. все данные пишутся сразу на
диск. Это ещё базам данных хорошо помогает.


А что делать с памятью? Это же не поможет её сэкономить.


И да, "-o volmode=dev -o volsize=?" - это же не файловая система, а
блочное устройство. Как потом быстро и просто её перенести на другой
сервер или даже на ноут на другой программной платформе (другая ОС)?


dd

К тому же VirtualBox умеет использовать блочные устройства только по
iSCSI. Есть конечно bhyve, но он пока не умеет BIOS и VGA.


VBoxManage internalcommands createrawvmdk - и жуёт на ура.


Очень много лишних телодвижений... Вот как скачать виртуалку на ноут в
локалке с произвольной операционкой?


zfs send | zfs receive


NFS, samba и scp/sftp в твоём случае не помогут без предварительного dd.
Ещё неплохо бы вспомнить "тонкие диски" - на сколько я понимаю после
такого dd диск будет "толстый". А значит надо будет качать лишние
гигабайты ноликов, которые будут занимать место на винте ноута - зачем
такое?


Они всё равно при передаче по сети жмутся а при хранении на диске - 
подразумеваются. Фактически получается sparse файл.



В среднем у меня на виртуалку приходится 3 диска - вместо одной команды
zfs create надо делать 3.
А как в одну команду перенести все диски виртуалки на другой, более
медленный или более быстрый носитель на том же сервере, или просто
сделать копию (cp и mv уже не подойдут)?


Обычно не держу больше одного пула на сервере. Всегда лучше построить 
zraid чем мерять на каких дисках быстрее,




Я вижу, что твой вариант костылей существенно более костыльный, чем мой,
и всё это только ради ZFS в виртуалке. А оно надо? :-P


Не совсем, я виртуалки никуда не раздаю, они мне в основном нужны для 
тестирования. Ну там поднять OpenFire поверх постгресса 
среплицированного bucardo на нескольки линуксах. Поэтому я посылаю на 
фиг многие вещи чтобы получить прирост производительности, пусть и 
небольшой. У нас просто цели разные.







Я создаю для каждой виртуалки отдельную фс, и диски виртуалки лежат там
как файлы.


могу тогда ещё рекомендовать recordsize=8k

Зачем так мало? Использую дефолтные 128K на хосте.


Потому что в виртуалке файлы пишутся кусками в 4k а на хосте по правилам 
Copy-On-Write перезаписывается весь сектор в 128k. Та же проблема и с 
базами данных: https://wiki.freebsd.org/ZFSTuningGuide 
http://open-zfs.org/wiki/Performance_tuning



Ещё есть qemu и может он и умеет блочные устройства, но не думаю что
имеет смысл на него мигрировать.


мечтаю когда bhyve c qemu замутят.


А зачем qemu ожидать, когда есть bhyve - его ожидать куда интереснее (и
перспективнее). :-D


В qemu мне нравится возможность активно играться с девайсами и их 
количество, помню сел в раскоряку, здесь флешки нету, есть флешка в 
датацентре, но это 500км. Есть софт, который ляпает на флешку самотык 
для обновления фирмвари, но только на флешку и никак иначе. Создал 
виртуальный диск, подбросил в qemu как флешку - и на ура.


Раньше в qemu был qemu-kmod который позволял выполнять уже 
оттранслированый код на уровне ядра с куда большей производительностью. 
Потом товарищ Морис его выкинул и начал использовать линуксовый kvm, 
который по большому счёту то же самое что и bhyve - системный 
минимальный набор для виртуализации. Насколько я понимаю bhyve более 
самодостаточен, но от использования его как бекенда для исполнения 
виртуалок с qemu в виде фронтенда для трансляции и работы с виртуальными 
девайсами я бы не отказался. Незнаю насколько это реально, скорее мечта...



P.S. Ещё вопрос - зачем по 2 идентичных письма отсылать? Есть кнопочка
"ответить в рассылку". Если вдруг у вас какой-то чудной почтовый клиент,
и у него нет такой кнопочки, то можно после нажатия на "ответить всем"
удалить из копии все адреса кроме рассылки.


ок, учту.

--
Sphinx of black quartz judge my vow.


Re: [freebsd] zfs destroy very slow

2014-11-21 Пенетрантность Volodymyr Kostyrko

On 21.11.2014 08:20, Golub Mikhail wrote:

1. Да.


Это совсем тяжелый случай. При удалении любого снепшота ZFS хочет 
получить памяти на хранение всей транзакции. Обычно транзакции небольшие 
- пара метров пришло, пара метров ушло. Но когда удаляется нечто лежащее 
в dedup ему нужно держать в памяти всю часть дерева до и после удаления 
данных. Соответственно вся другая активность на диске замирает до 
завершения транзакции, которая будет весить в случае со снепшотом весьма 
не слабо.


Если памяти на машине для удаления снепшота не хватит вы получите кору. 
После перезагрузки вы опять получите кору. И так до тех пор пока dedup 
index не станет влезать в память. У меня один раз уложило машину 
удаление одного снепшота на 14G, ZFS захотел 6G оперативы. Пока не 
получил - не загрузился.


Ситуация частично исправляется добавлением в ZFS отложенного удаления, а 
с приходом 10.1 - ограничения на размер транзакции. Но это не спасает. 
Без наличия на машине охренительных объёмов памяти и хорошего лога 
машина будет адски тормозить. Сам недавно проверял на виртуалках под 
10-STABLE, при вырастании dedup выше ~150 блоков виртуалки начинают 
тормозить адски, потому что на запись каждого блока нужно пройтсь по 
индексу его поискать а индекс под нагрузкой имеет свойство из памяти 
улетучиваться. Выключение dedup = исчезание всех тормозов.



2. FreeBSD 8.4, zpool v 28


Для экономии места больше подходит сжатие lz4, оно кстати и ускорение 
даёт. При работе со снепшотами помогает ещё ставить sha256 хешем, при 
этом на свежей ZFS блоки у которых хеш не отличается на диск не пишутся 
и снепшоты соответственно не растут. Но для вас это всё в будущем - в 
8.4 очень многих вкусностей у ZFS нет.




dedup так влияет?


Ну и не топ-постите плиз, глаза ломает.

ЗЫЖ Очень красиво dedup сделан в HAMMER, но рекомендовать Dragonfly на 
продакшн - не буду. Да и HAMMER2 ждём-с...





-Original Message-
From: Volodymyr Kostyrko [mailto:c.kw...@gmail.com]
Sent: Friday, November 21, 2014 1:13 AM
To: Golub Mikhail; freebsd@uafug.org.ua
Subject: Re: [freebsd] zfs destroy very slow

On 20.11.2014 17:54, Golub Mikhail wrote:

Доброго времени суток.

Имеется zfs с несколькими snapshot-ами.
На этой zfs лежит сайт - куча мелких и не очень файлов, которые меняются
довольно часто (кеши и т.п.).
Каждый день делается snapshot. И таких снимков более 10.
И вот когда удаляю сайт, то выполняю "zfs destroy -rf фс".
Это приводит к тому, что сервер стает "колом".
zfs list тупо замирает. Дисковая активность высокая.

Как более безболезненно удалить все снимки вместе с конкретной zfs?
Чтобы сервер "на дыбы" не ставал ...



1. dedup есть?
2. не так давно в код zfs добавляли планку сколько данных можно пуржить
за раз. Как раз для случаев когда за один раз несколько десятков гигов
пуржится. vfs.zfs.free_max_blocks, в 10.1 уже есть.




--
Sphinx of black quartz judge my vow.


Re: [freebsd] zfs destroy very slow

2014-11-20 Пенетрантность Volodymyr Kostyrko

On 20.11.2014 17:54, Golub Mikhail wrote:

Доброго времени суток.

Имеется zfs с несколькими snapshot-ами.
На этой zfs лежит сайт - куча мелких и не очень файлов, которые меняются
довольно часто (кеши и т.п.).
Каждый день делается snapshot. И таких снимков более 10.
И вот когда удаляю сайт, то выполняю "zfs destroy -rf фс".
Это приводит к тому, что сервер стает "колом".
zfs list тупо замирает. Дисковая активность высокая.

Как более безболезненно удалить все снимки вместе с конкретной zfs?
Чтобы сервер "на дыбы" не ставал ...



1. dedup есть?
2. не так давно в код zfs добавляли планку сколько данных можно пуржить 
за раз. Как раз для случаев когда за один раз несколько десятков гигов 
пуржится. vfs.zfs.free_max_blocks, в 10.1 уже есть.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-20 Пенетрантность Volodymyr Kostyrko

On 20.11.2014 18:20, Владимир Друзенко wrote:

20.11.2014 19:09, Владимир Друзенко пишет:

05.11.2014 17:49, Volodymyr Kostyrko пишет:

On 05.11.2014 14:15, Vladislav V. Prodan wrote:

Зоопарк. Из FreeBSD все не ниже 9.0 (может конечно 1-2 8.2
осталась, но
уже без нагрузки). Но не в этом суть.
Не так давно в рассылке пробегала "категорическая
рекомендация" не
использовать один физический диск в нескольких различных
пулах, со
ссылкой на планирование IO в ZFS. А тут на одной ZFS куча
других
ZFS. Да
и памяти на столько кэшей ненапастисть.


zfs create -o primarycache=metadata -o sync=disabled -o
logbias=throughput -o volmode=dev -o volsize=?

Это где вы советуете делать? на хосте или на госте?


На хосте. primarycache=metadata позволяет кешировать данные о
fs/volume но не его содержимое. sync=disabled отключает
принудительный сброс данных на диск (возможно с этим я и перегнул
палку, наверно лишнее ибо небезопасно). logbias=throughput отключает
при записи использование логов, т.е. все данные пишутся сразу на
диск. Это ещё базам данных хорошо помогает.


А что делать с памятью? Это же не поможет её сэкономить.


И да, "-o volmode=dev -o volsize=?" - это же не файловая система, а
блочное устройство. Как потом быстро и просто её перенести на другой
сервер или даже на ноут на другой программной платформе (другая ОС)?


dd


Я создаю для каждой виртуалки отдельную фс, и диски виртуалки лежат там
как файлы.


могу тогда ещё рекомендовать recordsize=8k


К тому же VirtualBox умеет использовать блочные устройства только по
iSCSI. Есть конечно bhyve, но он пока не умеет BIOS и VGA.


VBoxManage internalcommands createrawvmdk - и жуёт на ура.


Ещё есть qemu и может он и умеет блочные устройства, но не думаю что
имеет смысл на него мигрировать.


мечтаю когда bhyve c qemu замутят.

--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-20 Пенетрантность Volodymyr Kostyrko

On 20.11.2014 18:09, Владимир Друзенко wrote:

05.11.2014 17:49, Volodymyr Kostyrko пишет:

On 05.11.2014 14:15, Vladislav V. Prodan wrote:

Зоопарк. Из FreeBSD все не ниже 9.0 (может конечно 1-2 8.2
осталась, но
уже без нагрузки). Но не в этом суть.
Не так давно в рассылке пробегала "категорическая
рекомендация" не
использовать один физический диск в нескольких различных
пулах, со
ссылкой на планирование IO в ZFS. А тут на одной ZFS куча других
ZFS. Да
и памяти на столько кэшей ненапастисть.


zfs create -o primarycache=metadata -o sync=disabled -o
logbias=throughput -o volmode=dev -o volsize=?

Это где вы советуете делать? на хосте или на госте?


На хосте. primarycache=metadata позволяет кешировать данные о
fs/volume но не его содержимое. sync=disabled отключает принудительный
сброс данных на диск (возможно с этим я и перегнул палку, наверно
лишнее ибо небезопасно). logbias=throughput отключает при записи
использование логов, т.е. все данные пишутся сразу на диск. Это ещё
базам данных хорошо помогает.


А что делать с памятью? Это же не поможет её сэкономить.


primarycache=metadata будет оставлять в памяти только метаданные zfs но 
не содержимое. Или предложите как гарантированно выключить кеширование 
диска в виртуалках.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] Замена диска в пуле и непонятный лимит в 2GB

2014-11-14 Пенетрантность Volodymyr Kostyrko

On 14.11.2014 21:12, Vladislav V. Prodan wrote:



14 ноября 2014 г., 20:42 пользователь Volodymyr Kostyrko
mailto:c.kw...@gmail.com>> написал:

On 14.11.2014 17:52, Vladislav V. Prodan wrote:



В пуле вылетел hdd (отваливается после 10 мин работы).
После установки запасного винта содержимое пула не
восстанавливается.
Вернее, начинается синхронизация данных, по после прочтения 2 GB
сбрасывается на 0


А какой ashift на остальных vdev'ах? Система случаем ставилась не
через твик gnop'ом? Если да то девайсы тоже через него втыкать нужно.


У первого зеркала ashift -12, у второго - 9.
Подскажите как добавлять зеркало винтов 4k в существующих пул с ashift -12 ?
Насколько я знаю, использование gnop предлагается только для создания
пула, в случае добавления - советов нет.


Это потому что я гоню - пул уже создан и ashift будет использоваться 
принудительно такой же как и на противоположном девайсе. Или:


cannot attach /dev/md1.nop to /dev/md0: devices have different sector 
alignment


Проверка:

dd if=/dev/zero of=x1 bs=4m seek=1023
dd if=/dev/zero of=x2 bs=4m seek=1023
mdconfig -a -t vnode -f x1
mdconfig -a -t vnode -f x2
zpool create test1 /dev/md0
gnop create -S 4096 /dev/md1
zpool attach test1 /dev/md0 /dev/md1.nop

Можно `gpart show` для них посмотреть? Просто хочу удостовериться что 
там раздел 2T а не 2G.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] Re: [freebsd] Замена диска в пуле и непонятный лимит в 2GB

2014-11-14 Пенетрантность Volodymyr Kostyrko

On 14.11.2014 19:43, Vasiliy P. Melnik wrote:

Система ведет себя нештатно, данные лежат на одно диске - а Вы винт
scrub-ом гоняете. Да и геометрию в порядок привести надо.


Это не проверка, scrub в zfs не различает проверку и репликацию 
информации. scrub - это полное чтение пула.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] Замена диска в пуле и непонятный лимит в 2GB

2014-11-14 Пенетрантность Volodymyr Kostyrko

On 14.11.2014 17:52, Vladislav V. Prodan wrote:



В пуле вылетел hdd (отваливается после 10 мин работы).
После установки запасного винта содержимое пула не восстанавливается.
Вернее, начинается синхронизация данных, по после прочтения 2 GB
сбрасывается на 0


А какой ashift на остальных vdev'ах? Система случаем ставилась не через 
твик gnop'ом? Если да то девайсы тоже через него втыкать нужно.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-05 Пенетрантность Volodymyr Kostyrko

On 05.11.2014 14:15, Vladislav V. Prodan wrote:

Зоопарк. Из FreeBSD все не ниже 9.0 (может конечно 1-2 8.2
осталась, но
уже без нагрузки). Но не в этом суть.
Не так давно в рассылке пробегала "категорическая рекомендация" не
использовать один физический диск в нескольких различных пулах, со
ссылкой на планирование IO в ZFS. А тут на одной ZFS куча других
ZFS. Да
и памяти на столько кэшей ненапастисть.


zfs create -o primarycache=metadata -o sync=disabled -o
logbias=throughput -o volmode=dev -o volsize=?

Это где вы советуете делать? на хосте или на госте?


На хосте. primarycache=metadata позволяет кешировать данные о fs/volume 
но не его содержимое. sync=disabled отключает принудительный сброс 
данных на диск (возможно с этим я и перегнул палку, наверно лишнее ибо 
небезопасно). logbias=throughput отключает при записи использование 
логов, т.е. все данные пишутся сразу на диск. Это ещё базам данных 
хорошо помогает.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-05 Пенетрантность Volodymyr Kostyrko

On 05.11.2014 03:46, Владимир Друзенко wrote:

05.11.2014 03:33, Vladislav V. Prodan пишет:


5 ноября 2014 г., 1:54 пользователь Владимир Друзенко
mailto:v...@unislabs.com>> написал:

У меня количество виртуалок измеряется десятками - лишние 256Mb на
каждую выльются в десяток-другой гигов памяти сверху. И текущий
год тут не причём - памяти никогда не бывает много - заняты все 96Gb.
Где и надо использовать ZFS, так это на хостовой машине или на
NAS-е, но уж точно не в виртуалках - зачем дикий overhead на
операциях с дисковой подсистемой (ZFS на ZFS) и лишняя занятость
памяти?


Здравствуйте.
А на чем вы систему виртуализации подняли?

10.0-p11 + VirtualBox, в ожидании bhyve.


Сейчас  виртуалка с ZFS потребляет диска не более 200KBps или у вас
древние версии OS ?

Зоопарк. Из FreeBSD все не ниже 9.0 (может конечно 1-2 8.2 осталась, но
уже без нагрузки). Но не в этом суть.
Не так давно в рассылке пробегала "категорическая рекомендация" не
использовать один физический диск в нескольких различных пулах, со
ссылкой на планирование IO в ZFS. А тут на одной ZFS куча других ZFS. Да
и памяти на столько кэшей ненапастисть.


zfs create -o primarycache=metadata -o sync=disabled -o 
logbias=throughput -o volmode=dev -o volsize=?


--
Sphinx of black quartz judge my vow.


Re: [freebsd] soft-updates, Journaled Soft Updates for root FS

2014-11-04 Пенетрантность Volodymyr Kostyrko

On 04.11.2014 12:39, Anton Sayetsky wrote:

С одной стороны - поддерживаю. Но с другой - вдруг ОСь на тостере
стоит, где памяти уж совсем мало.


Дома когда захотелось раздавать вафлю тряхнул закрома и собрал роутер на 
каком-то старом i386 атлоне с гигом мозгов. Работает замечательно если 
не обращать внимания на редкие креши в которых подозреваю контроллер 
памяти. Тем более что с 10.1 вроде бы ARC начнёт аккуратнее с памятью 
работать.


Так что если тостеру меньше 10 лет - с планкой памяти пойдёт на ура.


4 ноября 2014 г., 12:37 пользователь Slawa Olhovchenkov
 написал:

On Tue, Nov 04, 2014 at 12:22:34PM +0200, skeletor wrote:


Всем привет.
В 10-ке по дефолту разбивка диска выделяет весь раздел под корень, без
дробления на /var, /usr, /tmp. При этом этой ФС сразу ставятся SU+J.
Handbook
(https://www.freebsd.org/doc/en_US.ISO8859-1/books/faq/disks.html#idp59409184)
вроде как ничего плохого не сулит с использованием SU / SU+J. Интересует
теория и практика использования SU/SU+J и что предпочтительнее в плане
"золой середины" при пропадании питания, крешах?
Или вообще не использовать SU/SU+J для корня? На FreeBSD 8.X, например,
по дефолту не используется SU для корня.


использовать ZFS для всего



--
Sphinx of black quartz judge my vow.


Re: [freebsd] Чистка старых библиотек и проблемы

2014-09-20 Пенетрантность Volodymyr Kostyrko

On 20.09.2014 20:17, Vladislav V. Prodan wrote:

FreeBSD 10.1-PRERELEASE #0: Thu Sep 11 15:27:07 EEST 2014



Хочется пока обойтись без переустановки софта.


А весь и не нужно. В sysutils/bsdadminscripts есть pkg_libchk, он 
работает на порядок эффективнее `pkg check -B` и рапортует только о тех 
бинарях которые пересобрать действительно нужно. Например если от A 
(который немного обновился) зависит B а от B полсотни пакетов которые в 
свою очередь не зависят от A, то пересобрать нужно только B.


Сам регулярно пользуюсь, ревизию далеко не всегда бампят так что лучше 
подстраховываться.


--
Sphinx of black quartz judge my vow.


Re: [freebsd] Update system OpenSSL to 0.9.8zb

2014-08-19 Пенетрантность Volodymyr Kostyrko

On 19.08.2014 17:21, skele...@lissyara.su wrote:

19.08.2014 16:08, Volodymyr Kostyrko пишет:

On 19.08.2014 15:57, skele...@lissyara.su wrote:

svn diff -r269686:269687 svn://svn.freebsd.org/base/stable/9 >
new.openssl.patch

cd /usr/src ; svn patch где/там/оно/new.openssl.patch



Спасибо, получилось. Только вместо

# svn patch где/там/оно/new.openssl.patch

нужно использовать

# patch < где/там/оно/new.openssl.patch


Whom how. У меня работает.

> svn help patch
patch: Apply a patch to a working copy.
usage: patch PATCHFILE [WCPATH]

--
Sphinx of black quartz judge my vow.


Re: [freebsd] Update system OpenSSL to 0.9.8zb

2014-08-19 Пенетрантность Volodymyr Kostyrko

On 19.08.2014 15:57, skele...@lissyara.su wrote:

Всем привет.

Есть FreeBSD 9.3 Release, openssl (системный) 0.9.8za. Ждал sucurity
fix'ов в виде патча для закрытия уязвимостей в Openssl
(http://www.opennet.ru/opennews/art.shtml?num=40342), но видимо отдельно
их не хотят выкладывать. Последний security fix про openssl -
http://www.freebsd.org/security/advisories/FreeBSD-SA-14:14.openssl.asc
Зато нашёл коммит в stable, в котором это пофикшено
http://svnweb.freebsd.org/base?view=revision&revision=269687
Вопрос состоит в следующем: как сделать патч из этого коммита или как-то
стянуть ТОЛЬКО этот коммит через svnup, не стягивая остальные коммиты
для stable?


svn diff -r269686:269687 svn://svn.freebsd.org/base/stable/9 > 
new.openssl.patch


cd /usr/src ; svn patch где/там/оно/new.openssl.patch

--
Sphinx of black quartz judge my vow.


Re: [freebsd] FreeBSD 10.0-STABLE (конец апреля 2014) не может смонтировать zfs

2014-06-20 Пенетрантность Volodymyr Kostyrko

19.06.2014 20:39, Vladislav Prodan написав(ла):

zpool import -o readonly=on, потом
zpool import -X ?


Это переименование, хочется данные перенести на чистый пул


есть еще -T


Ну, откатил транзакции немного назад. Как определить живую транзакцию?


Пробовать.


zpool history показывает 13k записей...


Это не то, нужно смотреть через zdb.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] А как забекапить структуру ZFS ?

2014-05-14 Пенетрантность Volodymyr Kostyrko

13.05.2014 12:46, Vladislav V. Prodan написав(ла):

сабж.
zfs list + недефолтные опции отдельных разделов.
что-то вроде, mtree для ZFS


Ну например zflist -Ho name | xargs -n1 zfs get -H all | awk 
'BEGIN{shard="";output=""}{if(shard!=$1 && shard!=""){output="zfs 
create";for(param in params)output=output" -o 
"param"="params[param];print output" "shard;delete 
params;shard=""}}$4~/local/{params[$2]=$3;shard=$1;next}$2~/type/{shard=$1}END{output="zfs 
create";for(param in paramms)output=output" -o 
"param"="params[param];print output" "shard;}'


Только оно неправильно генерит создание пула и создание vdev'ов. Имхо 
мелочи, дальше пилять мне влом, создрать схему с одного компа на другой 
хватает.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Как собирать netflow с ngX интерфейсов?

2014-05-08 Пенетрантность Volodymyr Kostyrko

08.05.2014 14:26, Vladislav V. Prodan написав(ла):

Еще бы пример для физического интерфейса, когда нужно гнать не в один
коллектор, а сразу в два.


Проще пареной репы, выход из netflow который export бросается на
one2many а уже к нему цепляются ksocket'ы:

mkpeer netflow0: one2many export one
name netflow0:export dup0

msg dup0: setconfig "{ xmitAlg=2 }"


xmitAlg указывает сколько потоков размножать?
как посмотреть список возможных опций dup0 ? Только в исходниках?


man ng_one2many

NG_ONE2MANY_XMIT_ALL = 2 # передавать на всех

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Как собирать netflow с ngX интерфейсов?

2014-05-08 Пенетрантность Volodymyr Kostyrko

08.05.2014 10:28, Vladislav V. Prodan написав(ла):

2014-05-08 2:25 GMT+03:00 Volodymyr Kostyrko :

startup:
 set netflow peer 127.0.0.1 8787


Хотелось бы одной строчкой обойтись, чем мутить еще одного демона
export_netflow.


Это же не демон, стартовый скрипт который у меня собирает бридж из wlan0 
и rl0 и настраивает для него netflow. Мне так удобнее потому что мне 
нужно собирать netflow не только с mpd и это позволяет не плодить сущностей.



У меня несколько ngX и каждый поток нужно гнать в свой коллектор.


Вот здесь возможно будет проблема - сам по себе mpd умеет работать с 
одним коллектором. Можно попробовать добавлять необходимое через 
if-up/if-down скрипты.



Еще бы пример для физического интерфейса, когда нужно гнать не в один
коллектор, а сразу в два.


Проще пареной репы, выход из netflow который export бросается на 
one2many а уже к нему цепляются ksocket'ы:


mkpeer netflow0: one2many export one
name netflow0:export dup0

msg dup0: setconfig "{ xmitAlg=2 }"

mkpeer dup0: ksocket many0 inet/dgram/udp
msg dup0:many0 connect inet/127.0.0.1/8787
mkpeer dup0: ksocket many1 inet/dgram/udp
msg dup0:many1 connect inet/192.168.1.2/8787

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Как собирать netflow с ngX интерфейсов?

2014-05-07 Пенетрантность Volodymyr Kostyrko

08.05.2014 01:30, Vladislav V. Prodan написав(ла):

Subj.
Есть скрипт для сбора с физических интерфейсов, но он не применим к ngX

# ngctl show ng0:
   Name: ng0 Type: iface   ID: 146e   Num hooks: 1
   Local hook  Peer name   Peer typePeer ID Peer hook
   --  -   ---- -
   inetmpd83895-B2-mss tcpmss   1473out

# ngctl mkpeer  ng0: netflow lower iface0
ngctl: send msg: Protocol family not supported


NgX поднимается через mpd5 (mpd5-5.7)


mpd умеет сам втыкаться куда скажут.

Я собираю где-то так:

#!/bin/sh

# PROVIDE: export_netflow
# BEFORE: mpd
# REQUIRE: ppp

export_netflow_enable=${export_netflow_enable-"NO"}
export_netflow_sink=${export_netflow_sink-''}
export_netflow_flags=${export_netflow_flags-'-d'}

. /etc/rc.subr

name="export_netflow"
rcvar=`set_rcvar`

start_cmd='export_netflow_start'
stop_cmd='export_netflow_stop'
required_modules='ng_bridge ng_ether ng_netflow ng_socket'

load_rc_config $name

export_netflow_start () {
echo "Starting ${name}."
{
if /usr/sbin/ngctl show netflow0: >/dev/null 2>&1; then
echo "connect wlan0: netflow0: lower iface0"
else
echo "mkpeer wlan0: netflow lower iface0"
echo "name wlan0:lower netflow0"
fi
echo "mkpeer netflow0: bridge out0 link0"
echo "name netflow0:out0 bridge0"

echo "connect rl0: netflow0: upper iface1"
echo "connect rl0: netflow0: lower iface2"
echo "connect netflow0: bridge0: out1 link1"
echo "connect netflow0: bridge0: out2 link2"

echo "mkpeer netflow0: ksocket export inet/dgram/udp"
echo "name netflow0:export ksocket0"
echo "msg ksocket0: connect inet/${export_netflow_sink}"
} | /usr/sbin/ngctl ${export_netflow_flags} -f -
}

export_netflow_stop () {
echo "Stopping ${name}."
{
echo "shutdown netflow0:"
} | /usr/sbin/ngctl ${export_netflow_flags} -f -
}

run_rc_command "$1"

После этого mpd отдаётся хук netflow с рекомендацией начинать не с 
самого начала:


startup:
set netflow node netflow0
set netflow hook 256

peer:
set iface enable netflow-in netflow-out

Если же не нужно объединять с физическими интерфейсами у mpd есть другой 
параметр для создания отдельного хука netflow и соответствующего ksocket:


startup:
set netflow peer 127.0.0.1 8787

--
Sphinx of black quartz judge my vow.


Re: [freebsd] Re: [freebsd] ZFS и базы данных - есть какие-нибудь рецепты?

2014-04-15 Пенетрантность Volodymyr Kostyrko

15.04.2014 13:48, Alexey Markov написав(ла):

Hello, Volodymyr!
On April, 15 2014 at 13:09 you wrote to Alexey Markov:

VK> # не пишем всё на диск дважды - у базы свой лог вот с ним пусть и
VK> работает logbias=throughput

А в Мускуле двойной буфер не выключен?


Ну если про мускуль... По мне раз уж он рассчитан на свой собственный 
лог или double buffer пусть с ним и живёт. В таком случае именно он 
гарантирует записывание данных на диск в правильном порядке.


Вот кстати ещё пара идей про мускуль:

concurrent_insert = 2 # для MyISAM
delay_key_write = off # может незаметно ломать индексы
innodb_commit_concurrency = 4 # точнее по количеству процессоров
innodb_io_capacity = 1 # особенно если есть SSD
innodb_read_ahead_threshold = 64 # это вообще всегда нужно ставить



??>> И, чтобы два раза не вставать - ещё один вопрос. Планирую установить
??>> на сервер с Постгресом два SSD Intel S3700 в зеркале, под базу данных.
??>> Имеет ли смысл выделить часть этих SSD под ZIL для обычных дисков?

VK> Если ставите в зеркале то почему бы и нет? Просто для кеширования ZIL
VK> на фиг не нужен.

Ну, как я понимаю, ZIL сильно помогает при записи. Не ясно только, будет ли
выигрыш в случае паттерна базы данных. Блин, и потестировать не на чем
пока.


ZIL помогает если есть задержки записи на диск, например из-за чтения.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] ZFS � ���� ������ - ���� �����-������ �������?

2014-04-15 Пенетрантность Volodymyr Kostyrko

15.04.2014 09:16, Alexey Markov написав(ла):

Всем, всего, и много!

Собственно, сабж. Ну, кроме как "не использовать БД на ZFS"?

Есть несколько серверов под 8-кой, на которых стоит "ZFS на весь диск",
постепенно остальные сервера планируется переводить на такую же схему.
Беда в том, что кое-где используется MySQL (не очень нагруженный, для
веб-сайтов и GlassFish), а в паре мест - Постгрес, и вот там нагрузка
ОЧЕНЬ серьёзная.

Тестирование показало, что для Постгреса провал производительности
по сравнению с UFS не очень большой (но есть). Для Мускуля с InnoDB
всё оказалось заметно хуже. Поэтому буду благодарен за любые советы
по грамотному использованию MySQL и/или PostgreSQL на ZFS.


MySQL:

recordsize=16k

PostgreSQL:

recordsize=8k

общее:

# не пишем всё на диск дважды - у базы свой лог вот с ним пусть и работает
logbias=throughput

# тоже лишнее
atime=off

# эти две например отключают проверку всей базы на файлы с 
подозрительными модами

exec=off
setuid=off

Я ещё обычно использую checksum=sha256 и compression=lz4. Сжатие 
увеличивает скорость работы с индексами - они замечательно жмутся, хотя 
и добавляет немного задержек при записи. А lz4 потому что оно быстрее 
даёт отказ на несжимаемых данных и быстрее разжимает сжатое.



И, чтобы два раза не вставать - ещё один вопрос. Планирую установить
на сервер с Постгресом два SSD Intel S3700 в зеркале, под базу данных.
Имеет ли смысл выделить часть этих SSD под ZIL для обычных дисков?


Если ставите в зеркале то почему бы и нет? Просто для кеширования ZIL на 
фиг не нужен.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] ����� ��� ����������� 3ware: � ��� ��� ����� � SSD?

2014-02-13 Пенетрантность Volodymyr Kostyrko

13.02.2014 12:17, Alexey Markov написав(ла):

Всем, всего, и много!

Возникла насущная необходимость на одном удалённом сервере
с контроллером 3ware 9690SA резко увеличить число IOPS на
разделе с базой данных. Очевидное решение - поставить пару
SSD - наткнулось на отсутствие каких-либо упоминаний о TRIM
в документации на контроллер. Через четыре дня переписки с
техподдержкой те сказали, что "TRIM не поддерживается и не
будет поддерживаться":

http://mycusthelp.info/LSI/_cs/AnswerDetail.aspx?&inc=8039


Ну там же явно сказано что для IT поддерживается. Если вас вполне 
устраивает железка в роли HBA то почему бы и нет?



Собственно, в связи с этим у меня два вопроса:

1. Кто-нибудь использует SSD диски на 3ware контроллерах?
И если да - то как вы обходите проблему "мусора" без TRIM?

2. Если с SSD всё действительно безнадёжно, то имеет ли смысл
ставить какие-нибудь "рейдовые" серии дисков на 10/15 krpm?
Есть какие-нибудь рекомендации по выбору моделей?




--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Re: [freebsd] Опять про контроллеры 3ware: а как они живут с SSD?

2014-02-13 Пенетрантность Volodymyr Kostyrko

13.02.2014 14:14, Vasiliy P. Melnik написав(ла):

Потому и спрашиваю "рецепты успеха" - наверняка кто-то уже с такой
задачей сталкивался.


Конечно сталкивался - выкинул raid, перешел на zfs


+1

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Ошибки на 3ware 9690SA-4I при обычном копировании

2014-02-06 Пенетрантность Volodymyr Kostyrko

06.02.2014 14:14, Alexey Markov написав(ла):

Hello, Volodymyr!
On February, 06 2014 at 13:46 you wrote to Alexey Markov:

??>> Ох... У этого сервера вылезла ещё одна проблема, не получается
??>> попасть в БИОС через удалённую IPMI-консоль. Так что в случае
??>> неудачной прошивки контроллера я получу очень дорогой "кирпич"
??>> в очень далёкой стране. :-/
VK> Можно поробовать настроить доступ к IPMI через ipmitools. Там есть
VK> bmc-config с помощью которого можно поковырять настройки IPMI не
VK> перегружаясь.

Да не, сам-то IPMI работает нормально. А вот во время перезагрузки
не даёт зайти в БИОС - тупо игнорирует все нажатия клавиш на клаве.
Очень иногда это получается сделать через SOL - но потом оно снова
виснет в самый неподходящий момент. Обновление БИОС и смена настроек
в таких условиях превращаются в азартную игру в "русскую рулетку".

А вот после загрузки системы IPMI работает нормально, хоть и медленно.


Что-то я такое припоминаю на iLO - IPMI отключался во время перезагрузки 
и во время инициализации сетевых плат. Чтобы гарантированно попадать в 
биос я включил полную проверку памяти. Обычно за то время как она 
проверяется IPMI отмерзает и даёт возможность поймать биос.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] ������ �� 3ware 9690SA-4I ��� ������� �����������

2014-02-06 Пенетрантность Volodymyr Kostyrko

06.02.2014 09:27, Alexey Markov написав(ла):

??>> А главное - при перепрошивке контроллера его настройки
??>> сохраняются, или их надо заново настраивать, как после
??>> прошивки БИОС-а на компе?
VPM> ну у меня и разу не слетали. Если это успокоит :)

Ох... У этого сервера вылезла ещё одна проблема, не получается
попасть в БИОС через удалённую IPMI-консоль. Так что в случае
неудачной прошивки контроллера я получу очень дорогой "кирпич"
в очень далёкой стране. :-/


Кстааааати, совсем забыл. Последние пара апдейтов Java идёт с вырубленым 
по умолчанию профилем безопасности для полного доступа к локальной 
машине. Как результат встроенный KVM от iLO и DRAC под виндой пахать не 
будет (из того что было проверить). Нужно ставить шестую яву, ковырять 
настройки (это не пробовал) или ходить с фри - у нас OpenJDK с itweb 
работает без проблем.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] ������ �� 3ware 9690SA-4I ��� ������� �����������

2014-02-06 Пенетрантность Volodymyr Kostyrko

06.02.2014 09:27, Alexey Markov написав(ла):

Hello, Vasiliy!
On February, 05 2014 at 16:31 you wrote to Alexey Markov:

??>> После прошивки контроллера сервер сразу перезагружать
??>> надо, или он некоторое время может поработать до плановой
??>> перезагрузки?
VPM> по перезагрузки

Надеюсь, это означает "может поработать ДО перезагрузки"? ;-)

??>> А главное - при перепрошивке контроллера его настройки
??>> сохраняются, или их надо заново настраивать, как после
??>> прошивки БИОС-а на компе?
VPM> ну у меня и разу не слетали. Если это успокоит :)

Ох... У этого сервера вылезла ещё одна проблема, не получается
попасть в БИОС через удалённую IPMI-консоль. Так что в случае
неудачной прошивки контроллера я получу очень дорогой "кирпич"
в очень далёкой стране. :-/


Можно поробовать настроить доступ к IPMI через ipmitools. Там есть 
bmc-config с помощью которого можно поковырять настройки IPMI не 
перегружаясь.


Кстати небольшой луч поноса в сторону HP. Недавно неудачно перегрузил HP 
DL180G6 и теперь биос при каждой полной загрузке замечает что его дрова 
в BMC не обновлены и перешивает BMC. Ессно после следующей перезагрузки 
оказывается что прошивка опять старая и всё повторяется. Как результат 
машина при загрузке клянчит "Press any key..."


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] FreeBSD-10+asterisk+chan_dongle issue

2014-02-04 Пенетрантность Volodymyr Kostyrko

04.02.2014 15:38, Nikita Olenets написав(ла):

Спасибо за советы, сейчас перепробую каждую из предложенных вариантов и
отпишусь.


Ну тогда ещё в копилку. Не факт что ему настолько нужен iconv и возможно 
его можно просто выключить:


./configure --without-libiconv

Просто насколько я помню описание iconv на m4 немного с костылями и 
может давать сбои.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] FreeBSD-10+asterisk+chan_dongle issue

2014-02-04 Пенетрантность Volodymyr Kostyrko

04.02.2014 14:51, Nikita Olenets написав(ла):

Василий, проблема в том, что модуль собирается.
Но видимо как-то хитро и динамически (я имею ввиду функции типа
iconv_open и т.д)
Владимир, вот вам логи от configure:



checking for library containing iconv... none required


А оно его вообще линкует с этой библиотекой? Судя по этой строке оно 
может и забить...



checking whether iconv.h in /usr/include... yes
checking iconv.h usability... yes
checking iconv.h presence... yes
checking for iconv.h... yes
checking for iconv use const inbuf... no
checking for iconv_t in iconv.h... yes


Детектит вроде правильно...

ldd -a <полученный файл>

Если библиотеки в выводе нету можно по быстрому схитрить определив при 
компиляции:


LD_FLAGS=-liconv

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] FreeBSD-10+asterisk+chan_dongle issue

2014-02-04 Пенетрантность Volodymyr Kostyrko

04.02.2014 14:09, Nikita Olenets написав(ла):

Приветствую, коллеги!

С выходом в релиз 10-ой ветки FreeBSD, появилась возможность
использовать графический адаптер на ASUS E45-M1 PRO,
А заодно и перенести весь функционал с домашнего серверочка на эту систему.
Сейчас систему выглядит как 10.0-RELEASE FreeBSD (amd64), старая система
9.2-PRERELEASE FreeBSD (i386)
Это была преамбула :)
А вопрос заключается в следующем, на старой системе имеется связка
asterisk+chan_dongle, работает отлично.
В новой системе модуль для астериска вообще не собирается (так как в
10-ке по умолчанию clang)
Было проделано два эксперимента:
1. Модуль был собран на 10-ке с помощью gcc44 (из портов)
2. Модуль был собран на 9.2 (amd64)с помощью (из базовой системы)


Логи ./configure и сборки есть?

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Много файлов, тормоза ФС

2014-02-03 Пенетрантность Volodymyr Kostyrko

03.02.2014 12:47, Slawa Olhovchenkov написав(ла):

On Mon, Feb 03, 2014 at 12:44:18PM +0200, Vasiliy P. Melnik wrote:


3 февраля 2014 г., 12:41 пользователь Slawa Olhovchenkov
 написал:

On Mon, Feb 03, 2014 at 02:37:07PM +0400, Anton Yuzhaninov wrote:


On 02/03/14 14:21, Slawa Olhovchenkov wrote:

UFS и ZFS память жрут примерно одинаково. только в случае UFS никто не
говорит что это UFS память сожрала, а говорят "на кеш ушло". для
хорошей производительности размеры будт сопоставимы


Разница в то, что память занятая кэшем на уровне VM отдается приложениям, при
необходимости (active/inactive/cache queue). А память которую однажды скушал ZFS
никому кроме ZFS уже не достанется (wired memory).


отдается. я сам видел.


не всегда, вот например

last pid: 61066;  load averages:  0.41,  0.64,  0.70
 up
43+23:47:43  12:43:33
67 processes:  1 running, 66 sleeping
CPU:  2.5% user,  0.0% nice,  0.5% system,  0.0% interrupt, 97.0% idle
Mem: 824M Active, 844M Inact, 13G Wired, 137M Cache, 25M Buf, 669M Free
ARC: 12G Total, 723M MFU, 9939M MRU, 1440K Anon, 154M Header, 1137M Other
Swap: 1024M Total, 40M Used, 984M Free, 3% Inuse


не противоречит. или ты про 40М в свапе?



http://lists.freebsd.org/pipermail/freebsd-fs/2014-January/018864.html
http://lists.freebsd.org/pipermail/freebsd-fs/2014-January/018872.html

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Странная нагрузка на сервер

2014-01-20 Пенетрантность Volodymyr Kostyrko

19.01.2014 17:23, greenh написав(ла):

Добрый день
В какой то момент на сервере неожиданно скаканула нагрзука. top
показывает, что процессы php-fpm отжирают до 100% cpu. При этом по
утверждению разработчиков никто ничего не менял.  Возникает устойчивое
ощущение, что он на чем то залипает, хотя винт не занят, в базу тоже
вроде бы нет упора. Как бы посмотреть, чего он тупит? И еще смущает
необычайно высокое system. Подскажите плз, куда смотреть?


1. В php-fpm есть свой встроенный демократизатор. Срезать время жизни 
одного запроса и смотреть логи - оно будет по каждому запросу которому 
не хватило времени выполнения печатать бектрейс. Кстати, вполне возможно 
что уже печатает.


2. Взять из портов devel/php-xdebug (ACHTUNG!!! сильно влияет на 
производительность php). Поймать трейс пары запросов и рассмотреть как 
оно их выполняло. Просмотрщики трейсов есть под винду и кеды.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] [freebsd] Отдача больших файлов по HTTP

2014-01-19 Пенетрантность Volodymyr Kostyrko

18.01.2014 23:09, Anton Sayetsky написав(ла):

Приветствую, коллеги!
Возникла необходимость реализации сабжа.
Размер хранилища - 100+ ТиБ, средний размер файлов - от 1 до 10 ГиБ,
трафик - 4-5 Гбит/с, ~400 сессий, до 3-х коннектов на каждую.
Требуемый протокол отдачи - HTTP.
В плане софта выбор пал на FreeBSD 9.2-RELEASE amd64, ZFS, nginx. В
связи с вышеизложенным возникли некоторые вопросы:
1. Правильно ли я понимаю, что для данных параметров о UFS можно
забыть? (Боюсь даже представить, сколько времени на устройстве такого
размера может выполняться fsck, например.)
2. Есть ли смысл крутить что-то в ZFS, кроме atime=off?
3. Научилась ли ZFS нормально воспринимать (не падать и пересобирать
пул) изменение имени дисков (da3->da10)? Или придётся извращаться с
GEOM_LABEL?


Возможно вы что-то путаете, но ZFS начиная с 7-CURRENT сама превосходно 
разбирается в именах дисков и с этим никогда проблем не было в отличии 
от UFS. Вас не затруднит поделиться примером?


--
Sphinx of black quartz judge my vow.


Re: [freebsd] Сборка Lynx

2014-01-10 Пенетрантность Volodymyr Kostyrko

10.01.2014 18:59, Дмитрий написав(ла):

Дано openssl в /usr и в /usr/local. С последним хотелось бы собрать порт
Lynx.
Он находит заголовки первого и этим довольствуется.
Какие есть идеи?



WITH_OPENSSL_PORT?

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Сообщения ядра при выполнении reboot

2014-01-03 Пенетрантность Volodymyr Kostyrko

03.01.2014 13:14, skele...@lissyara.su написав(ла):

Всем привет.

Тестирую одну штуку на виртуалке (VirtualBox) и нужно увидеть, что пишет
ядро (а оно там пишет что-то, так как успеваю мельком заметить) после
того, как написало syncing disks ... Не успеваю нажать Host+P (то
слишком рано, то слишком поздно).
Через syslog выставлено логгировать kern.*, но видимо оно влияет только
на сообщения при загрузке. Так же настроил логгирование сообщений с
консоли, но они туда не попадают.

Есть ли возможность это заллогировать?


В Qemu есть возможность запустить хост в текстовом режиме с выводом на 
консоль.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] NO_STAGE=yes

2013-12-20 Пенетрантность Volodymyr Kostyrko

19.12.2013 21:55, Anton Sayetsky написав(ла):

19 декабря 2013 г., 21:51 пользователь Vasiliy P. Melnik
 написал:

Hi all.

Объясните пожалуйста, слабо понимающему в английском, что значит эта опция?

пока в порт не добавил NO_STAGE=yes - пакет не собирался. Понял
только, что его зачем-то все убирают, но портов с NO_STAGE=yes больше
15К

Порт sysutils/ldap-account-manager

В порты добавили новомодную хрень - пакет собирается в $WRKDIRPREFIX,
потом ставится. До этого было - пакет не собирается, а сразу ставится
в систему.


Я протестую, никакая это не новомодная хрень. pkgsrc уже больше десяти 
лет так работает и если не ошибаюсь MacPorts тоже, хотя не так долго.


--
Sphinx of black quartz, judge my vow.


[freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: Re[2]: [freebsd] обновление 8.4 -> 10.0

2013-12-18 Пенетрантность Volodymyr Kostyrko

18.12.2013 18:42, Slawa Olhovchenkov написав(ла):

On Wed, Dec 18, 2013 at 06:16:50PM +0200, Volodymyr Kostyrko wrote:


18.12.2013 18:17, Slawa Olhovchenkov написав(ла):

On Wed, Dec 18, 2013 at 09:57:30PM +0700, Eugene Grosbein wrote:


On 18.12.2013 21:58, Slawa Olhovchenkov wrote:


фишка zfs в кешировании

last pid: 56736;  load averages:  0.70,  0.64,  0.64
  up
29+03:07:59  16:52:25
73 processes:  1 running, 72 sleeping
CPU:  0.3% user,  0.0% nice,  0.8% system,  0.3% interrupt, 98.6% idle
Mem: 880M Active, 891M Inact, 13G Wired, 408M Buf, 883M Free
ARC: 12G Total, 3175M MFU, 7770M MRU, 1696K Anon, 165M Header, 854M Other
Swap: 1024M Total, 100K Used, 1024M Free

Я так понимаю если и 30 гигов всунуть - ARC и их сожрет.


UFS тоже их сожрет (точнее vnode/page cache).


UFS как сожрет, так и отдаст при необходимости.



ZFS -- аналогично


А вот и нет.


А вот и да


Ну и пусть да но через пень-колоду же.


ZFS хранит весь ARC у себя и не использует системы кеширования ядра.


не противоречит


Если нужна будет память то в первую очередь будут выпадать процессы в
своп. Пару недель без перезагрузки на десктопе уже становится заметно.


% uptime
  8:36PM  up 60 days, 16:59, 2 users, load averages: 4.29, 3.83, 3.24
% uptime
  8:39PM  up 32 days,  8:17, 9 users, load averages: 1.12, 1.14, 1.09


Я не про это. Я про вот это:

Mem: 922M Active, 188M Inact, 5507M Wired, 37M Cache, 1259M Free
ARC: 3890M Total, 335M MFU, 3290M MRU, 136K Anon, 55M Header, 209M Other
Swap: 8192M Total, 1264M Used, 6928M Free, 15% Inuse

Это обычный десктоп с парой виртуалок (ну мне положено). Через неделю 
свопа будет 4G а арк будет регулярно расти и сопротивляться, ниже 3,5 
сам не упадёт. Потому что MFU + MRU. Как выход - либо терпеть когда оно 
прожуёт своп с утреца, либо ограничить арк и иметь подтормаживания днём.


Вся фенька в том что своп отдаёт память быстрее, когда памяти мало своп 
сам заранее кеширует часть памяти на диск, а потом раз - и вернул. 
Сразу. А ZFS - подумать нужно. В результате своп потихоньку пухнет а ZFS 
сдуться не успевает.


--
Sphinx of black quartz, judge my vow.


[freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: Re[2]: [freebsd] обновление 8.4 -> 10.0

2013-12-18 Пенетрантность Volodymyr Kostyrko

18.12.2013 18:17, Slawa Olhovchenkov написав(ла):

On Wed, Dec 18, 2013 at 09:57:30PM +0700, Eugene Grosbein wrote:


On 18.12.2013 21:58, Slawa Olhovchenkov wrote:


фишка zfs в кешировании

last pid: 56736;  load averages:  0.70,  0.64,  0.64
 up
29+03:07:59  16:52:25
73 processes:  1 running, 72 sleeping
CPU:  0.3% user,  0.0% nice,  0.8% system,  0.3% interrupt, 98.6% idle
Mem: 880M Active, 891M Inact, 13G Wired, 408M Buf, 883M Free
ARC: 12G Total, 3175M MFU, 7770M MRU, 1696K Anon, 165M Header, 854M Other
Swap: 1024M Total, 100K Used, 1024M Free

Я так понимаю если и 30 гигов всунуть - ARC и их сожрет.


UFS тоже их сожрет (точнее vnode/page cache).


UFS как сожрет, так и отдаст при необходимости.



ZFS -- аналогично


А вот и нет.

ZFS хранит весь ARC у себя и не использует системы кеширования ядра. 
Если нужна будет память то в первую очередь будут выпадать процессы в 
своп. Пару недель без перезагрузки на десктопе уже становится заметно.


PS: Жду HAMMER.

--
Sphinx of black quartz, judge my vow.


[freebsd] Re: [freebsd] Re: [freebsd] Re: Re[2]: [freebsd] обновление 8.4 -> 10.0

2013-12-18 Пенетрантность Volodymyr Kostyrko

18.12.2013 15:36, Vasiliy P. Melnik написав(ла):

18 декабря 2013 г., 15:36 пользователь Slawa Olhovchenkov
 написал:

On Wed, Dec 18, 2013 at 03:30:44PM +0200, Vasiliy P. Melnik wrote:


Привет.

Лично мне не понравилось, что нельзя задать размер системного пула - я
делаю отдельно пул под систему, отдельно под данные. Недавно меня это
очень сильно спасло - системный пул никак не чинился. Но главное что
пул с данными поднялся.


я не понял -- ты что, решил единственный диск на разделы побить и на
наих разные zfs пулы сделать? это плохая идея.


1) Да. И недавно меня это спасло от потери данных.


Если правильно курить на ZFS никогда не бывает потери данных по вине ZFS.


2) почему ?


ZFS считает что каждый пул находится на отдельном диске и шедулер 
обращений для каждого vdev соответсвенно создаётся отдельный. На 
скорость записи/чтения это очень плохо влияет. Ну и на жизненный путь 
диска тоже.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] zpool trouble

2013-12-12 Пенетрантность Volodymyr Kostyrko

12.12.2013 15:06, Vasiliy P. Melnik написав(ла):

Hi all.

Случилась беда с zfs-пулом после отключения питания. При попытке
монтирования пула система перегружается - чего пишет на экран
прочитать не успеваю.

Загрузился с LiveCD
zpool import system пишет
cannot import 'system': pool may be in use from other system, it was
last accessed by kiwi.somedomain.com on Wed Dec 11 23:04:46 2013 use
'-f' to import anyway

Как только пишу -f - система сразу в панику и перегружается. Прочитать
опять же не успеваю.

З.Ы. первый раз такое с зфс-ом :(



ENOTAGAIN...

zpool import -N -o readonly=on -f -R /pool 

Подключает пул в режиме ro без монтирования дисков.

Если не получилось:

zdb -ul  | less

Смотрим список транзакций, выбираем предыдущую и:

zpool import -N -o readonly=on -f -R /pool -F -T  



У меня был пул который всё вводил в жо. По факту последние штук шесть 
транзакций были мусором, потом шло ещё три транзакции которые убивали 
модуль в корку и уже после них начинались нормальные чистые транзакции.


И да, ZFS не любит плохие контроллеры, очень разные диски и пропадания 
питания.


--
Sphinx of black quartz, judge my vow.


[freebsd] Re: [freebsd] обновление 8.4 -> 10.0

2013-11-27 Пенетрантность Volodymyr Kostyrko
2013/11/27 Sergey V. Dyatko 

> On Wed, 27 Nov 2013 13:59:21 +0400
> Slawa Olhovchenkov  wrote:
>
> > On Wed, Nov 27, 2013 at 12:51:49PM +0300, Sergey V. Dyatko wrote:
> >
> > > On Wed, 27 Nov 2013 13:42:20 +0400
> > > Slawa Olhovchenkov  wrote:
> > >
> > > > On Wed, Nov 27, 2013 at 12:33:20PM +0300, Sergey V. Dyatko wrote:
> > > >
> > > > > On Wed, 27 Nov 2013 13:22:40 +0400
> > > > > Slawa Olhovchenkov  wrote:
> > > > >
> > > > > > On Wed, Nov 27, 2013 at 01:15:05PM +0400, Eugene V. Boontseff
> > > > > > wrote:
> > > > > >
> > > > > > > 27.11.2013 13:08, Slawa Olhovchenkov пишет:
> > > > > > > > On Wed, Nov 27, 2013 at 12:29:33PM +0400, Eugene V.
> > > > > > > > Boontseff wrote:
> > > > > > > >
> > > > > > > >> Здравствуйте, коллеги!
> > > > > > > >>
> > > > > > > >> Обновление freebsd из исходников с 8.4 на 10.0 минуя
> > > > > > > >> девятку не содержит ли каких-нибудь камней преткновения?)
> > > > > > > >> Или какой способ наиболее приемлем в этом случае?
> > > > > > > > обновление на 10-ку -- это сейчас один большой камень.
> > > > > > > Обновление? или сама 10-ка? Это я свой домашний  комп  решил
> > > > > > > поближе к мэйнстриму подтянуть.
> > > > > > > А то засиделся в 8-ках) Думаю до на куда..
> > > > > >
> > > > > > сама 10-ка.
> > > > > > многое под неё еще не адоптированно.
> > > > >
> > > > > например что?
> > > > > кстати, что-то mutt не туда куда-то запулил твое письмо:)
> > > >
> > > > virtualbox 4.3, например.
> > >
> > > а где был CFT? я пока не видел 4.3 чтобы был портирован, возможно
> > > пропустил:(
> >
> > ты не поверишь!
> >
> http://lists.freebsd.org/pipermail/freebsd-emulation/2013-October/010842.html
> >
> ага.. обычно он и в ports@ писал про MFC, emulation я не
> выписываю, потому не видел. но там в комментах Volodymyr Kostyrko писал
> о том что оно там ок, если при помощи gcc собирать
>
> http://lists.freebsd.org/pipermail/freebsd-emulation/2013-October/010886.html
> лично я поленился хачить Makefile чтобы оторвать этот их пульсаудио
>

Кстати если взять не с CFT а с репы в RedPorts - там уже все эти патчи
должны быть, и 4.3.2 тоже.

https://svn.redports.org/virtualbox

-- 
Sphinx of black quartz judge my vow.


Re: [freebsd] UFS compression

2013-11-19 Пенетрантность Volodymyr Kostyrko

18.11.2013 17:30, skele...@lissyara.su написав(ла):

Всем привет.
Есть ли возможность использовать комрессию (или дедупликацию или что-то
аналогичное для уменьшения занимаемого места) на UFS? То есть сжатие на
уровне ФС, а не разными программами типа gzip/bzip2/... Про zfs я в
курсе, интересует именно на UFS.
Гугление ничего не даёт.
ОС FreeBSD 9.2 Release i386.


geom_uzip можно воткнуть.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Squid

2013-10-21 Пенетрантность Volodymyr Kostyrko

21.10.2013 18:40, Vladyslav Kolesnyk написав(ла):

Добрый вечер Всем.
Вопрос по сквиду (Squid Cache: Version 3.3.9):

Порывшись в инете - нашел ответ на свою ошибку в логах:
Ошибка в cache.log: ERROR: No forward-proxy ports configured.

"Не задан порт для входящих подключений. Проверяем наличие в squid.conf 
директивы:
 http_port 3128
В случае с прозрачным прокси, начиная с версии 3.2, необходимо
открывать два порта. Один для стандартных запросов, второй для 
перенаправляемого трафика.
Если прием входящих подключений к прокси не требуется, указываем внутренний 
адрес:
http_port 127.0.0.1:3128


я открыл два порта:
http_port 127.0.0.1:3128 intercept
http_port 127.0.0.1:8080

ошибка исчезла - только перед тем как машину ставить в работу - хочу уточнить у 
уважаемой публики, какой теперь порт вписывать в правило редиректа:
rdr pass inet proto tcp from  to !$19_net port 80 -> 127.0.0.1 
port 3128

3128 или 8080 ???
пока сам не могу понять :(


Тот который intercept.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] re0: watchdog timeout

2013-09-18 Пенетрантность Volodymyr Kostyrko

18.09.2013 11:10, Lystopad Aleksandr написав(ла):

В любом случае замена re0 на re0 в наше время соизмерима с покупкой
бокала пива в среднем заведении. :) Поэтому можно в данном случае
просто одну на другую заменить и посмотреть, а если не поможет -- то
менять на igb0/em0.


Для бюджетных компов есть целая куча бюджетных сетевух с нормальными 
дровами. Canyon и ещё кто-то выпускали сетевухи на sis, ASUS недавно 
выпускал сетувухи на ste. И те и те - пока без нареканий. Из чего 
постарше где-то ещё vr стоял.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] re0: watchdog timeout

2013-09-18 Пенетрантность Volodymyr Kostyrko

17.09.2013 12:43, Vasiliy P. Melnik написав(ла):

Hi all.

Я правильно понимаю, что проблема с дровами на сетевую карту? у меня
штук 15 подобных машин с такой сетевухой - ни на одной нет такой
проблемы.

транк на циску re0

re0: watchdog timeout
re0: link state changed to DOWN


Давно не сталкивался так как стараюсь от re избавляться... Помню лечил 
медитированием на биос и выключением там Plug-N-Play aware OS.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] zfs set mountpoint

2013-08-20 Пенетрантность Volodymyr Kostyrko

20.08.2013 10:39, Anton Sayetsky написав(ла):

Кстати, ежели root mountpoint=legacy и система с него загружена, то
при zfs create zroot/somedir оно будет автоматически смонтировано в
/somedir?


Нет.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] zfs set mountpoint

2013-08-20 Пенетрантность Volodymyr Kostyrko

19.08.2013 20:48, Slawa Olhovchenkov написав(ла):

On Mon, Aug 19, 2013 at 08:07:30PM +0300, Denis Zaika wrote:


19.08.2013 20:04, Denis Zaika пишет:

19.08.2013 11:23, Slawa Olhovchenkov пишет:

On Mon, Aug 19, 2013 at 11:12:20AM +0300, Anton Sayetsky wrote:


в самых модных инструкциях

zfs create -o mountpoint=/ zroot/ROOT
zfs create -o mountpoint=/usr zroot/usr




и т.п.

еще хорошо наверное (что бы двойного монтирования на один каталог не
было) дать

zfs set mountpoint=/ZROOT zroot/



Тут смысл в том чтобы zroot не монтировать никуда (mountpoint=legacy), а
потомкам zroot/ROOT не выставлять точки  монтирования. create
zroot/ROOT/var/log сразу создаст фс с точкой монтирования куда надо.
Только в таких случаях, если рут не в корне зпула надо для загрузки еще
bootfs правильный назначать.


А, забыл зачем писал. zfs create -o mountpoint=/usr zroot/usr тогда не
нужен, нужен просто zfs create zroot/ROOT/usr.


нет, смысл именно в zroot/usr.
тогда глазом сразу видно потребление места только на /.
иначе надо вычитать из него всех потомков


А по `zfs list` разве не видно? Колонка REFER всегда показывает только 
относящееся к текущей фс.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Залипает пхп при высокой нагрузке

2013-07-17 Пенетрантность Volodymyr Kostyrko

17.07.2013 14:51, Alex Samorukov написав(ла):



Если php делает запросы к базе, то процессов нужно больше чем ядер. Но
2к это уже много. 50 .. 300 должно быть достаточно.


Хум хау. Я считаю что по количеству процов вполне хватает. Если все
процессы заняты - значит активно работает база. Если база конечно не
мускуль. Дополнительные процессы выедают память, которую более
эффективно пустить на кеш диска или отдать базе.

Вам уже сказали - это зависит от ворклоада. Если, например, приложение
ждет лока - то оно не жрет цпу, а память сейчас дешевая, не говоря уже о
том, что базу лучше держать отдельно от веба. В таком случае даже
сотня-другая воркеров вполне себе гуд.


Я согласен, зависит. Но по моим тестам всё равно даже с мускулем 
выходило что чем меньше пыха тем лучше. В моём случае динамика 
отдавалась быстрее если ставить в два раза больше процессов чем ядер, но 
в сумме получалось хуже так как статика хуже кешировалась.


И про локи кстати не надо. При неправильном обращении локи очень сильно 
жрут ЦПУ и это было видно по мускулю до версии 5.5. При большой нагрузке 
за один лок может бороться большое количество тридов, но очереди как 
таковой не существует. Соответственно когда лок освобождается 
уведомление об этом получают все потоки, все они пытаются его получить и 
как результат неплохой такой всплеск активности.



Надо смотреть чем эти php процессы занимаются, раз даже с 2k растет
listen queue.


При съедаемой памяти из рассчёта по 30M на процесс 2k процессов съедят
60G памяти. Если на машине этой памяти нет, то именно из-за количества
процессов оно и умирает.


Ну 2000 это действительно бредятина - система будет больше ресурсов
тратить на switching, и каждому процессу будет совсем мало времени
оставаться.


Кстати да, про память сказал а про context switching забыл.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Залипает пхп при высокой нагрузке

2013-07-17 Пенетрантность Volodymyr Kostyrko

17.07.2013 14:36, Anton Yuzhaninov написав(ла):

On 07/17/13 12:54, Volodymyr Kostyrko wrote:


php-fpm процессов стоит лимит по 2к


Не понял строчку. У вас что, php-fpm процессов больше чем ядер в машине?


Если php делает запросы к базе, то процессов нужно больше чем ядер. Но
2к это уже много. 50 .. 300 должно быть достаточно.


Хум хау. Я считаю что по количеству процов вполне хватает. Если все 
процессы заняты - значит активно работает база. Если база конечно не 
мускуль. Дополнительные процессы выедают память, которую более 
эффективно пустить на кеш диска или отдать базе.



Надо смотреть чем эти php процессы занимаются, раз даже с 2k растет
listen queue.


При съедаемой памяти из рассчёта по 30M на процесс 2k процессов съедят 
60G памяти. Если на машине этой памяти нет, то именно из-за количества 
процессов оно и умирает.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Залипает пхп при высокой нагрузке

2013-07-17 Пенетрантность Volodymyr Kostyrko

16.07.2013 22:00, greenh написав(ла):

1 и 2 хватает валом.
php-fpm процессов стоит лимит по 2к


Не понял строчку. У вас что, php-fpm процессов больше чем ядер в машине?


сейчас разгоню на 5к, но это  как то перебор


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] pkgng и удаление "листьев"

2013-07-17 Пенетрантность Volodymyr Kostyrko

16.07.2013 18:47, Alexander Shikoff написав(ла):

Приветствую!

Смигрировал сегодня на pkgng.
Появился вопрос: раньше я удалял ненужные пакеты, от которых ничего не зависит,
с помощью ports-mgmt/pkg_cutleaves.

Теперь же:

# pkg_cutleaves
** Didn't find any leaves to work with, exiting.
** If this is unexpected, check your exclude file, please.
** Deinstalled packages:
** Number of deinstalled packages: 0

Сам pkg я так понял тоже не умеет удалять "листья".

Кто чем пользуется? Спасибо!



pkg autoremove

Сразу после конвертации база немного не в себе, всмысле не знает что 
ставилось вручную а что автоматом. Править это прийдётся вручную:


pkg query -e %a=0 '%#r %o' | awk '$1!~/^0$/{print$2}' | xargs pkg set -y -A1

Этот скрипт выбирает все пакеты которые были установлены не 
автоматически, но от которых зависят другие пакеты, и маркирует их как 
автоустановленные.


Теперь можно выбрать пакеты которые установлены вручную и просмотреть их:

pkg query -e %a=0 '%o' > package.list

Из package.list удаляем те которые нам нужны, а оставляем те, которые не 
нужны. Оставшиеся помечаем как автоматически установленные:


xargs pkg set -y -A1 < package.list

Вот теперь можно запускать pkg autoremove.

ЗЫЖ Поскольку раньше не всегда зависимости сохранялись правильно очень 
вероятен случай когда при удалении уйдёт пакет который был нужен. 
sysutils/bsdadminscripts pkg_libchk в помощь.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] perl-after-upgrade

2013-06-27 Пенетрантность Volodymyr Kostyrko

27.06.2013 16:27, Anton Yuzhaninov написав(ла):

On 06/27/13 17:09, Taras Heychenko wrote:

И еще один интересный вопрос. Запустил я portupgrade -rf
perl-threaded. Трудился он, трудился, а после чего слетел по ошибке в
одном из портов. Я конечно ошибку поправлю. Но запускать заново
пересобирать все как-то не хотелось бы… Насколько я понимаю, с такими
опциями portupgrade будет таки все зависящее пересобирать. Есть идеи,
как можно избежать повторного перебора всего, уже собранного?


Рекомендую перейти на portmaster - если в середине пересборки N портов
случится ошибка, он перед выходом напишет список портов, которые не
успел пересобрать.


И если перезапустить с теми же параметрами скажет что в прошлый раз 
обралось не всё и предложит продолжить. Опция -R.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] panic: Solaris(panic): zfs: allocating allocated segment

2013-06-26 Пенетрантность Volodymyr Kostyrko

26.06.2013 16:02, skeletor написав(ла):




1. Если это raidz1 почему не вышвырнуть битый винт и не загрузится с
остальными?


Я ж писал, что загрузка с 2-мя любыми дисками из пула приводит к kernel
panic.


Сорри прогнал.

Есть ещё sysctl vfs.zfs.recover, но на моей памяти с него ни разу толку 
не было.



2. zpool import -o readonly=on -f -R /root -N -F 


Дело не в опциях, а панике zfs в целом. При любом упоминалии zfs/zpool
получаем kernel panic. Более того, пересборка мира (думал обновиться до
9-stable) тоже вылетала в kernel panic


А если zdb -l -u  и выбрать транзакцию постарше та же хрень?

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] panic: Solaris(panic): zfs: allocating allocated segment

2013-06-26 Пенетрантность Volodymyr Kostyrko

26.06.2013 12:28, skeletor написав(ла):

После непланового ребута сервера, при загрузке zfs пула (raidz1 из 3-ох
дисков) получаем kernel panic как в теме.

Проверил смартом диски, на одном получил такое
197 Current_Pending_Sector  0x0012   100   100   000Old_age   Always
   -   17
ATA Error Count: 5

Остальные диски в норме. Если надо smart - приведу.

Пришлось на время отключить zfs_enable, тогда сервер хоть загружается.
Но при попытке сделать даже zpool list получаем kernel panic как в сабже.

При любой комбинации загрузки из 2-х (вместо 3-ох) дисков получаем тоже
kernel panic.

Если загрузиться с livecd и сделать zpool import, то увидим пул, статус
которого online и все диски нормально видны. Но при попытке сделать

#zpool import -o ro -f dpool

получаем опять kernel panic
Ясно одно - с пулом какая-то проблема. Не могу понять, почему ядро
паникует даже при команде zpool list/status?

Как можно вытащить данные с этого пула?

ОС = FreeBSD 9.1 Release amd64
LiveCD = FreeBSD 9.0 Release amd64

Гугл малословен, и пару советов - заменить винт. Замена винта пока
затруднительна в силу определённых обстоятельств.

Может это баг и его уже пофиксили?


1. Если это raidz1 почему не вышвырнуть битый винт и не загрузится с 
остальными?


2. zpool import -o readonly=on -f -R /root -N -F 

Можно поиграться с опциями (только не вырубать ро):

 -X (eXtreme rewind), включает скраб каждой проверяемой транзакции

 *   -V Import even in the presence of faulted vdevs.  This is an
 *  intentionally undocumented option for testing purposes, and
 *  treats the pool configuration as complete, leaving any bad
 *  vdevs in the FAULTED state. In other words, it does 
verbatim

 *  import.

 *   -T Specify a starting txg to use for import. This option is
 *  intentionally undocumented option for testing purposes.

Если ZFS сказал бяка - лучше переформатировать.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] RAID stripe & UFS block sizes and PostgreSQL

2013-06-17 Пенетрантность Volodymyr Kostyrko

17.06.2013 17:33, Artem Naluzhnyy:

2013/6/17 Eugene Grosbein :

Из очевидного - выяснить размер блока в базе Postgres, при разметке файловой 
системы
сделать такой же размер блока и соответственно страйп подогнать.


Постгресовский block_size - 8 KB (дефолтный)

То есть правильно ли я понимаю, что без изменения размера блока в
постгресе, UFS блок можно увеличить до 8 KB, и размер страйпа тоже
выставить в 8 KB (4K не получится - контроллер меньше не
поддерживает)?


Да. И для ZFS то же самое советуют.


Как-то оно стремно выглядит, учитывая дефолтный размер страйпа в 64 KB, кажется.


Там могут быть другие подводные камни: 
http://www.postgresql.org/message-id/4be4abc9.6040...@agliodbs.com


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] [OT]: Optima, CommuniGate Pro и "No DNS A-data returned"

2013-05-20 Пенетрантность Volodymyr Kostyrko

20.05.2013 17:02, Oleg V. Nauman:

1. Согласно RFC A-record может использоваться если не пашут MX-ы.
2. У меня постфикс не жалуется.


  Попробуйте на mail.net


> dig -t any mail.net
mail.net.   604696  IN  MX  5 mx.messaging.ca.mci.com.

A-record отсутствует.

> dig -t any mx.messaging.ca.mci.com
;; ->>HEADER<<- opcode: QUERY, status: SERVFAIL, id: 17852

Запись отсутствует. Согласно RFC если MX недопрописан можно брать 
A-record домена, но там тоже пусто. Если верить RFC почта на этот домен 
ходить не должна вообще.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] [OT]: Optima, CommuniGate Pro и "No DNS A-data returned"

2013-05-20 Пенетрантность Volodymyr Kostyrko

20.05.2013 13:57, Oleg V. Nauman:

Quoting Sergey Kobzar :


On 05/20/13 13:12, Alexander wrote:

Hello UAFUG,

  Добрый   день   сообществу!   Есть   конторка   с  разными  офисами,
разнесёнными географически, зарегистрирован домен. В двух точках стоят
сервачки  на  топике,  прописаны  как  равноправные MX-ы. Центрального
офиса, как такового, в регионе нет, потому, А-запись для самого домена
отсутсвует,  есть  только  для  хостов-МХ-ов. С недавних пор перестали
приходить письма от клиентов Оптимы - их CommuniGate Pro выдаёт ошибку,
что нет А-записи. Если мне мой склероз не изменяет, такая настройка не
противоречит RFC. Поправьте меня, плз., если я не прав.

Non-authoritative answer:
my_domain.ua
primary name server = my_domain.ua
responsible mail addr = hostmaster.my_domain.ua
serial  = 2009080105
refresh = 900 (15 mins)
retry   = 900 (15 mins)
expire  = 3600 (416 days 16 hours)
default TTL = 3600 (1 hour)
my_domain.ua   nameserver = a.transfer.buddyns.com
my_domain.ua   nameserver = b.ns.buddyns.com
my_domain.ua   nameserver = ns.secondary.net.ua
my_domain.ua   MX preference = 10, mail exchanger = smtp.my_domain.ua
my_domain.ua   MX preference = 20, mail exchanger = mx.my_domain.ua


  Прописаны ли IN A для smtp.my_domain.ua и mx.my_domain.ua ?



my_domain.ua   text = "v=spf1 ip4:xx.xx.xx.125 ip4:xx.xx.xx.132
ip4:xxx.xxx.xxx.222 -all"


Наличие А-record не является обязательным условием. Для хождения почты
достаточно MX записей.


  Осталось убедить в этом как минимум qmail и postfix.


1. Согласно RFC A-record может использоваться если не пашут MX-ы.
2. У меня постфикс не жалуется.

--
Sphinx of black quartz, judge my vow.


[freebsd] Re:

2013-05-17 Пенетрантность Volodymyr Kostyrko

17.05.2013 10:01, kry...@ukr.net:

Здравствуйте.

Если есть у кого время для помощи, буду рад.

Кратко опишу то, что "строю".
Эдакий mail-cluster...
Есть  2  ноды  с настроенной почтовой системой, на одной из них должен
быть  арбитр.  При выходе из строя ноды с арбитром, запускается арбитр
на другой ноде.  Арбитр  так-же  управляет зоной в DNS, и исключает
неработающий сервер, или включает, если тот синхронизировался с работающим
  и готов обслуживать.

Учетные записи будут храниться в MySQL, и синхронизироваться средствами
MySQL сервера - репликацией Master-Master.


В чистом мускуле нет надёжного мультимастера, будете брать перкону?


Дублирование  входящей  почты  на  другую  ноду - можно настроить в
алиасах.

На нодах хранилище писем будет Maildir.

Удаление файлов писем - C этим первая сложность.
   Если  пользователь  забрал  с  одного  сервера  письмо, файл удаляет
   dovecot  (как  я  понимаю,  при  помощи  аудита  можно отловить факт
   удаления файла и скриптом "прибить" файл-дубль на втором сервере).

   2-й  вариант - написать скрипт, который будет слушать лог dovecot'a,
   и по окончанию pop3 сессии, включать rsync maildir'a пользователя.

Вторая  сложность  -  в  арбитре.  как построить алгоритм "готовности"
ноды,  (факт  синхронности  ящиков).  Может  есть какие-нибудь готовые
решения?

Может есть другие, уже готовые решения?


cyrus-imapd умеет murder. Это сводит к нулю всю необходимость 
синхронизации почты.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Make игнорирует options

2013-04-24 Пенетрантность Volodymyr Kostyrko

24.04.2013 13:35, Sergey Rudenko:

Добрый день

делаю make config, выбираю необходимые опции, они успешно сохраняются в
/var/db/ports/... в новом формате



OPTIONS_FILE_SET+=FILTER
OPTIONS_FILE_UNSET+=FTP
OPTIONS_FILE_SET+=GD
OPTIONS_FILE_UNSET+=GETTEXT
OPTIONS_FILE_UNSET+=GMP
OPTIONS_FILE_SET+=HASH
OPTIONS_FILE_SET+=ICONV



make showconfig - так-же отображает все выбранные опции правильно

но при сборке make игнорирует эти опции и собирает всё по дефолту из
Makefile

Подскажите как заставить make обрабанывать options?

FreeBSD 8.3-RELEASE, дерево портов свежее


А в /etc/make.conf есть чо?

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] На каком уровне работает сжатие в ZFS - блоки, файлы, другое?

2013-04-16 Пенетрантность Volodymyr Kostyrko

16.04.2013 13:45, Alexey Markov:

Hello, Volodymyr!
On April, 16 2013 at 14:16 you wrote to Alexey Markov:

VK> AFAIK текущий размер блока выбирается один раз при создании файла
VK> согласно установкам текущей файловой системы. Об этом косвенно
VK> свидетельствуют гайды по оптимизации баз данных (MySQL/PostgreSQL) в
VK> которых чётко прописано что раздел с базой нужно пересоздать иначе вне
VK> зависимости от размера транзакции ZFS будет читать и писать на диск
VK> полные блоки.

Не совсем так. При создании ФС указывается параметр volblocksize, который
определяет размер блока, записываемого "за раз" на диск. Его действительно
стараются выбирать совпадающим с типичным блоком данных (4К для раздела со
свопом, 8К для MyISAM, 16К для InnoDB). И есть ещё размер блока на самой
ФС,
размер которого может меняться от 512 байт до 128 килобайт.


volblocksize определяет размер блока для vdev а не для обычных файловых 
систем, я имел в виду recordsize.



Например, файл на ZFS может занимать 3 блока по 128 К и один блок в 512
байт.


Если честно здесь для меня самого тёмное место. Мне кажется вполне 
логичным что он будет так _занимать_ место, а при выделении места 
система будет просто виртуально делить весь файл на блоки по 
{recordsize}K и обрабатывать соответственно. Т.е. 
неполные/сжатые/дырявые блоки будут на диске занимать меньше места и 
храниться будут в блоках меньшего размера.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] �� ����� ������ �������� ������ � ZFS - �����, �����, ������?

2013-04-16 Пенетрантность Volodymyr Kostyrko

16.04.2013 12:55, Alexey Markov:

Hello, Alexander!
On April, 16 2013 at 13:23 you wrote to Alexey Markov:

??>> Собственно, сабж. Конкретнее: вот есть у меня текстовый файл
??>> размером в гигабайт, и 10 раз в секунду к нему дописывается
??>> ещё по 100 байт (открыли файл, дописали, закрыли). Какой объём
??>> будет подвергаться сжатию на ZFS - весь файл; индивидуальные
??>> кусочки по 100 байт; хвост файла, находящийся в последнем блоке?

AY> Cow подразумевает обновление только измененного блока плюс того
AY> блока где инфа о блоках. Это было бы логично :)

Дело в том, что у ZFS динамический размер блока, по-умолчанию - от
512 байт до 128 килобайт. Судя по доке, сжатие происходит только в
том случае, если сжатый кусок файла потом может уместиться в блоке
меньшего размера, чем раньше. И вот тут возникает проблема: если у
нас к файлу добавляются маленькие кусочки (как это обычно бывает с
логами), то очень скоро весь огромный файл будет представлять собой
последовательность сжатых блоков минимального размера. И выигрыш от
сжатия таких блоков тоже будет минимальный.


AFAIK текущий размер блока выбирается один раз при создании файла 
согласно установкам текущей файловой системы. Об этом косвенно 
свидетельствуют гайды по оптимизации баз данных (MySQL/PostgreSQL) в 
которых чётко прописано что раздел с базой нужно пересоздать иначе вне 
зависимости от размера транзакции ZFS будет читать и писать на диск 
полные блоки.


Сжатие в ZFS поблоковое, те блоки которые уже были записаны на диск 
меняться не будут, будет меняться только последний блок файла. В случае 
со сжатием LZ4 получаем ~128/2 = ~56кб/сек на файл при максимальной 
скорорсти сжатия 330Мб/сек на Core2Duo - где-то в районе тысячной процента.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] rdiff-backup

2013-03-29 Пенетрантность Volodymyr Kostyrko

28.03.2013 22:51, Кирилл Малышев пишет:

28 марта 2013 г., 13:37 пользователь Volodymyr Kostyrko
mailto:c.kw...@gmail.com>> написал:

28.03.2013 13:13, greenh пишет:

Доброе время суток
Господа, подскажите плз, как правильнее поступить
Имеется серв, на нем несколько сотен тыщ файлов
и хочется его бекапить
я для бекапа решил воспользоваться rdiff-backup
но есть одна незадача
между серверами периодически (не на долго) рвется канал, и innitial
backup не проходит. после этого rdiff-backup удаляет то, что он уже
сделал и начинает сначала. Можно ли как нить убедить его это не
делать, или как то по другому выкрутится из ситуации?


Когда у меня была та же проблема со снепшотами на зфс я первый дамп
выкладывал по http и тянул с докачкой.

--
Sphinx of black quartz, judge my vow.


rsync?


Когда изменений в итерация метров пять а файлов в папке больше 10 
rsync проигрывает сразу по двум пунктам:
 1. Ему каждый раз нужно рассмотреть и сверить всю иерархию - это 
дополнительная нехилая нагрузка на диски с обоих сторон.
 2. Если данный запуск был неудачен то в снепшотах сохраняется совсем 
не та подборка файлов. Точнее только те, которые оно смогло/успело пройти.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] rdiff-backup

2013-03-28 Пенетрантность Volodymyr Kostyrko

28.03.2013 13:13, greenh пишет:

Доброе время суток
Господа, подскажите плз, как правильнее поступить
Имеется серв, на нем несколько сотен тыщ файлов
и хочется его бекапить
я для бекапа решил воспользоваться rdiff-backup
но есть одна незадача
между серверами периодически (не на долго) рвется канал, и innitial
backup не проходит. после этого rdiff-backup удаляет то, что он уже
сделал и начинает сначала. Можно ли как нить убедить его это не
делать, или как то по другому выкрутится из ситуации?


Когда у меня была та же проблема со снепшотами на зфс я первый дамп 
выкладывал по http и тянул с докачкой.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] svn checkout?

2013-03-21 Пенетрантность Volodymyr Kostyrko

21.03.2013 11:24, Sergey V. Dyatko пишет:

Вопрос: а что я сделал не так, и как все же перейти на svn?


В портах уже есть svnup.



он ж кривее чем турецкая сабля:-) попробуй, ради интереса, стянуть им
base/head, c verbose :)


Честно, в данный момент мне больше нравится svn поскольку ещё не все 
патчи на порты/сорцы которые я сильно хочу туда попали. Когда закончится 
миграция питона на py-distribute и поправят easy_install чтобы оно яйца 
не сжимало - у меня будет где попробовать.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] svn checkout?

2013-03-21 Пенетрантность Volodymyr Kostyrko

21.03.2013 10:53, Taras Heychenko пишет:

 Hi!
Други, а подскажите, что я делаю не так. Решил попробовать перейти на svn для 
обновления дерева портов. Выполнил
svn co svn://svn.freebsd.org/ports/head/ /usr/ports/


Сначала нужно было снести текущее содержимое /usr/ports. SVN по 
умолчанию никогда не перезаписывает файлы чтобы избежать затирания 
локальных изменений.



после окончания процедуры запустил
portupgrade -an
посмотреть, что обновилось. portupgrade мне сообщил, что ни одного порта у меня 
на машине не установлено и обновлять нечего.
Запуск cvsup ports-supfile полечил ситуацию, и portupgrade мне все же 
рассказал, что мне нужно проапгрейдить.

Вопрос: а что я сделал не так, и как все же перейти на svn?


В портах уже есть svnup.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] 9.1 hangs on reboot after all buffers synced

2013-03-05 Пенетрантность Volodymyr Kostyrko

05.03.2013 14:48, Sergey V. Dyatko:

On Tue, 05 Mar 2013 14:39:50 +0200
Volodymyr Kostyrko  wrote:

я никогда наверное не пойму людей, которые боятся ставить STABLE на
машины и натягивают патчи на RELEASE. :-)


Я не боюсь ставить STABLE на машины, на десктопе у меня - STABLE.

Я не стремлюсь держать STABLE на машинах, которые сам трогаю редко.
Мне легче погонять пару месяцев необходимый патч (на tmpfs например)
на других машинах а потом его воткнуть. Всё-таки RELEASE - это
завершённый продукт который уже везде один, и не нужно искать разницу
между серверами, а STABLE он раз в полчаса свежий и поди разбери
который лучше. За последний месяц уже пара откатов была.



так на самом деле можно ж взять ревизию из stable, ее "погонять пару
месяцев". решить стоит ли до нее up`аться. :-) по сути  от RELEASE
не будет чем-либо отличаться.


Ну вот и я чтобы не плодить сущности просто привязываюсь к релизу. ;)


Если мне вот позарез нужна фишка из STABLE - на сервер будет
установлен STABLE и будет там стоять и регулярно обновляться вплоть
до следующего релиза.

Я в курсе как в STABLE ничего не ломается. Например недавно туда
упало сжатие LZ4 для ZFS. Новая версия пула - новая версия бутблоков.


а оно в UPDATING попало по рез-там обсуждения в ML или сразу (и попало
ли)? не помню просто


В UPDATING позже внесли, хотя обсуждения в ML не было никакого. Для 
профилактики наверное.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] 9.1 hangs on reboot after all buffers synced

2013-03-05 Пенетрантность Volodymyr Kostyrko

05.03.2013 08:43, Sergey V. Dyatko:

On Tue, 05 Mar 2013 08:32:51 +0200
Volodymyr Kostyrko  wrote:


05.03.2013 05:21, Sergey V. Dyatko:

On Tue, 05 Mar 2013 10:09:50 +0700
"Anatoly Y."  wrote:


On 04.03.2013 16:21, Eugene Grosbein wrote:

04.03.2013 15:48, Владимир Друзенко пишет:

04.03.2013 10:20, Eugene Grosbein пишет:

04.03.2013 13:09, Vasiliy P. Melnik пишет:

4 марта 2013 г., 8:07 пользователь Vasiliy P. Melnik
 написал:

если речь идет о 9.1-release то да, там похоже что и нету
(привет любителям RELEASE и боящимся STABLE).

но кстати - технически я прав, ибо в 9.1 коммита все таки не
было :)

В 9.1-STABLE был. В релизы коммитов не бывает, потому что релиз
это не ветка, а снапшот с ветки.


А что тогда RELEASE 9.1p1, если в релиз нельзя коммитить?


А это ещё одна ветка. Но такие фиксы туда не идут.


И что теперь, предлагается ждать 9.2 ? Если STABLE не устраивает.



ну можете патч натянуть на RELEASE ;-) или да, страдать и ждать
след. релиз.


+1 за патчи на релиз, я его так и ставил с парой патчей, так как
ждать пока вкоммитят патч на tmpfs уже надоело, а
http://www.freebsd.org/cgi/query-pr.cgi?pr=kern/174969 уж больно
мешала-то...



я никогда наверное не пойму людей, которые боятся ставить STABLE на
машины и натягивают патчи на RELEASE. :-)


Я не боюсь ставить STABLE на машины, на десктопе у меня - STABLE.

Я не стремлюсь держать STABLE на машинах, которые сам трогаю редко. Мне 
легче погонять пару месяцев необходимый патч (на tmpfs например) на 
других машинах а потом его воткнуть. Всё-таки RELEASE - это завершённый 
продукт который уже везде один, и не нужно искать разницу между 
серверами, а STABLE он раз в полчаса свежий и поди разбери который 
лучше. За последний месяц уже пара откатов была.


Если мне вот позарез нужна фишка из STABLE - на сервер будет установлен 
STABLE и будет там стоять и регулярно обновляться вплоть до следующего 
релиза.


Я в курсе как в STABLE ничего не ломается. Например недавно туда упало 
сжатие LZ4 для ZFS. Новая версия пула - новая версия бутблоков. Мне влом 
отслеживать такие ситуации когда вроде бы ничего и не произошло, но 
гарантии что машина загрузится с пересозданого пула уже нету.


Для обновления стабильных машин у меня есть отдельный список задач 
который нужно пройтись во время следующего релиза, например до 9.1 у 
меня были запрещены ECDSA ключи до выяснения ситуации вокруг CVE-2011-1945.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] 9.1 hangs on reboot after all buffers synced

2013-03-04 Пенетрантность Volodymyr Kostyrko

05.03.2013 05:21, Sergey V. Dyatko:

On Tue, 05 Mar 2013 10:09:50 +0700
"Anatoly Y."  wrote:


On 04.03.2013 16:21, Eugene Grosbein wrote:

04.03.2013 15:48, Владимир Друзенко пишет:

04.03.2013 10:20, Eugene Grosbein пишет:

04.03.2013 13:09, Vasiliy P. Melnik пишет:

4 марта 2013 г., 8:07 пользователь Vasiliy P. Melnik
 написал:

если речь идет о 9.1-release то да, там похоже что и нету
(привет любителям RELEASE и боящимся STABLE).

но кстати - технически я прав, ибо в 9.1 коммита все таки не
было :)

В 9.1-STABLE был. В релизы коммитов не бывает, потому что релиз
это не ветка, а снапшот с ветки.


А что тогда RELEASE 9.1p1, если в релиз нельзя коммитить?


А это ещё одна ветка. Но такие фиксы туда не идут.


И что теперь, предлагается ждать 9.2 ? Если STABLE не устраивает.



ну можете патч натянуть на RELEASE ;-) или да, страдать и ждать след.
релиз.


+1 за патчи на релиз, я его так и ставил с парой патчей, так как ждать 
пока вкоммитят патч на tmpfs уже надоело, а 
http://www.freebsd.org/cgi/query-pr.cgi?pr=kern/174969 уж больно 
мешала-то...


--
Sphinx of black quartz judge my vow.


Re: [freebsd] После обновления php 5.3.5 -->5.3.21 php-fpm стал падать

2013-01-24 Пенетрантность Volodymyr Kostyrko

24.01.2013 15:11, Vladislav Prodan:


А корка есть?

Один раз помню было когда падал после определённого варнинга. Заставил
кодеров выправить код - падения прекратились.


Корки нет.
Читаю php-fpm.conf и не вижу, как указать директорию для складирования корок...




Я в таком случае просто ставлю:

kern.sugid_coredump=1
kern.corefile=/tmp/%U.%N.core

Чтобы долго не искать кто и как.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] После обновления php 5.3.5 -->5.3.21 php-fpm стал падать

2013-01-24 Пенетрантность Volodymyr Kostyrko

24.01.2013 14:41, Vladislav Prodan:

Набор модулей тотже.
по php -m падений не видно...


А корка есть?

Один раз помню было когда падал после определённого варнинга. Заставил 
кодеров выправить код - падения прекратились.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] busy на всех дисках

2013-01-22 Пенетрантность Volodymyr Kostyrko

22.01.2013 19:44, Oleksii Tsvietnov:

On 01/22/2013 07:27 PM, Alexander Panyushkin wrote:

А на кой ляд создавать столько пулов, в один пул нельзя диски засунуть?


Будет лучше? Чем?

Когда тебе дают нечто, что уже работает и вот именно так, но на чём-то
другом, то задумываешься почему так, а не иначе только в случае проблем.

Думаешь, что 8 raidz по 3 диска хуже чем, 1 raidz с 24 дисками?
Мне кажется, вероятность потерять второй винт, пока будут менять первый,
выше в одном raidz из 24, чем в 8 из 3.
Ну да, можно взять raidz3, вкинуть 24 винта, иметь возможность потерять
3 диска и иметь доступным 21 винт (42 ТВ) одним пулом..
Так будет быстрее?


Никто и не предлагал делать из этого всего один raidz, ZFS позволяет 
иерархически строить пулы например как raidz over raid0.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] tar + конвертация UTF8->CP1251 имём файлов

2013-01-21 Пенетрантность Volodymyr Kostyrko

21.01.2013 11:38, skeletor:

Есть NAS, подключённый к серверу, на котором храняться рабочие папки
юзеров. С помощью сервера делается бэкап (tar+bzip2) папок. Юзеры все
виндовые. Пока всё нормально (если нужно достать из бэкапа что-то,
распаковываем на сервере и ложим в нужную папку), но юзерам почему-то
понадобилось очень часто распаковывать архивы и доставать файлы из
бэкапа. Было выдвинуто быстрое решение - положить эту задачу на самих
юзеров. Как итог, юзер себе качает архив бэкапа и начинает
распаковывать. Имена файлов естественно битые, так как кодировки не
совпадают.


Взять архиватор с современным форматом поддерживающим кодировки. 7z/rar


Пока есть 2 варианта решения:
1) искать возможность при архивации конвертировать имена файлов в CP1251
2) менять кодировку на самом NAS'e (там урезанный линукс, доступ есть)

Пока склоняюсь к п1, но если ничего не найду - придёться разбираться в п2.

Может у кого-то есть какие-то идеи по этому поводу? Или может есть ещё
варианты решить эту задачу?

ОС FreeBSD 8.2, locale - UTF8 (спецом, что бы нормально виделись имена
файлов через сервер)


Я в таком случае ставил ZFS, ставил снепшоты и учил пользователей ходить 
по снепшотам в случае если чего-то им было нужно.


--
Sphinx of black quartz, judge my vow.


[freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Высокая нагрузка

2013-01-10 Пенетрантность Volodymyr Kostyrko

10.01.2013 19:52, Anton Yuzhaninov:

1/10/13 5:49 PM, Sayetsky Anton пишет:

Уж лучше tmpfs, нежели tmpmfs, имнхо.



FYI: в tmpfs нет аналога dirhash и при большом числе файлов в одной
дериктории tmpfs работает плохо - заметно медленнее чем UFS.


Дык уже есть патч.

http://lists.freebsd.org/pipermail/freebsd-fs/2012-June/014604.html

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Высокая нагрузка

2013-01-03 Пенетрантность Volodymyr Kostyrko

03.01.2013 14:25, greenh:


Рост system на машине может быть спровоцирован целой кучей причин:
недостатком буферов, памяти, задержками на диске, даже кучей тридов на один
мьютекс. Без графиков и вывода топа а также краткого эксурса в чо стоит и
под какой нагрузкой можно долго тыкать пальцем в небо.


vmstat -z и netstat -m ничего подозрительного не показало, зато fsck
показал куче всего
гугл намекает, что это может быть связано. Это правда?


fsck обязан показывать кучу всего на примонтированной файловой системе.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Высокая нагрузка

2013-01-03 Пенетрантность Volodymyr Kostyrko

03.01.2013 13:47, greenh:

Подскажите плз, куда смотреть
Имеется сервер
FreeBSD nw10 9.1-PRERELEASE FreeBSD 9.1-PRERELEASE #1: Wed Oct 24
13:44:32 MSK 2012 root@nw10:/usr/obj/usr/src/sys/GREENH  amd64
На него валится http трафик в среднем около 2k rps
В какой то момент я стал замечать увеличение LA, в основном
скакообразно до значений 100-600
  при этом очень сильльно растет system

  top -S
last pid: 35908;  load averages: 105.38, 68.05, 34.35   up 0+00:14:49  15:45:12
1489 processes:97 running, 1360 sleeping, 1 waiting, 31 lock
CPU: 13.9% user,  0.0% nice, 84.8% system,  1.3% interrupt,  0.0% idle
Mem: 4658M Active, 3420M Inact, 2972M Wired, 612K Cache, 2079M Buf, 36G Free
Swap: 4086M Total, 4086M Free



Это бззз неспроста... Скорее всего это какие-то пчёлы.

Рост system на машине может быть спровоцирован целой кучей причин: 
недостатком буферов, памяти, задержками на диске, даже кучей тридов на 
один мьютекс. Без графиков и вывода топа а также краткого эксурса в чо 
стоит и под какой нагрузкой можно долго тыкать пальцем в небо.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] zfs problem, [zio->io_cv)], [db->db_changed)]

2012-12-21 Пенетрантность Volodymyr Kostyrko

21.12.2012 17:19, Oleksii Tsvietnov:

On 12/21/2012 05:16 PM, Volodymyr Kostyrko wrote:

Зачистка файловой системы и порядок.


И каким вариантом это сделать?


zfs destroy filesystem


В чём именно проявлялась неправильность данных?


Точно не помню, но по моему не могло вернуть stat() по файлу. В 
оригинальном сообщении я много не писал, только название функции 
сохранилось:


http://lists.freebsd.org/pipermail/freebsd-fs/2011-September/012530.html

Каюсь, насчёт db_changed гнал. Ну дык больше года уже прошло.

PS: Я не говорю что у вас то же самое. Спонтанное возникновение мусора 
на диске на белом железе почти невероятно. Но вполне похожие проблемы с 
руганью на непонятно что были у меня когда-то и при смене версии ZFS... 
(http://lists.freebsd.org/pipermail/freebsd-fs/2012-March/013824.html) Я 
просто предложил clang как вариант для получения коры с бектрейсом.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] zfs problem, [zio->io_cv)], [db->db_changed)]

2012-12-21 Пенетрантность Volodymyr Kostyrko

21.12.2012 17:06, Oleksii Tsvietnov:

Приветствую всех!

  Возникла проблема с ZFS.
  Гугление привело на форум freebsd, где была 1 в 1 проблема, но в 2010
году:
  http://forums.freebsd.org/showthread.php?t=19144


Можно попробовать пересобрать мир шлангом. То как оно описывается на 
форуме вполне похоже на затык в ядре из-за неправильных данных на диске. 
У меня такая хрень была с одно директорией - попытка просмотреть 
содержимое вешала процесс в db->db_changed. В отличии от GCC шланг не 
сильно сюсюкал с кодом и вместо подвисания процессов непонятно где сразу 
отправлял машину в кору, по трассе от которой и была обнаружена прблема. 
До этого я просто валил всё на глючное старое железо. Зачистка файловой 
системы и порядок.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] 9.1

2012-12-04 Пенетрантность Volodymyr Kostyrko

04.12.2012 14:33, Slawa Olhovchenkov:

On Tue, Dec 04, 2012 at 01:29:21PM +0200, Volodymyr Kostyrko wrote:


За свой опыт ловил проблемы и с SU, и с журналом, и с зфс. Пока не
изобретут ИИ и он не перепишет все операционки, думаю человеческий фактор
будет вылазить везде, просто в разной мере.


а с zfs что было? чего опасаться?


Урра! Сейчас перечислю, сейчас всё припомню.

1. Неправильный разбор gang-блоков родным лоадером. При загрузке пула
чуть более чем на 98% после обновления ядра оно с большой вероятностью
могло не загрузиться.


э, в смысле если пул забит на 98%?


Всмысле места свободного осталось достаточно мало чтобы ZFS не мог
подобрать ни одного крупного блока при записи. В таком случае он создаёт
виртальный крупный блок из мелких ошмётков - gang-block.


а причем тут обновление ядра?


При том что загрузчику для запуска системы нужно считать не так уж и 
много файлов. И самый крупные из них - ядро и модули.


Я знаю, я псих и любитель жёстких экспериментов, ну кроме машин в 
продакшене. Сначала все решили что у меня жёсткие глюки и я полный ССЗБ, 
а потом на ту же хню напоролся Мартин и ему помог мой способ оживления 
диска.


Да вон вся история:

http://www.freebsd.org/cgi/query-pr.cgi?pr=bin/144214


3. Ежели контроллер тупой как пробка или есть проблема с питанием то
порядок к записываемых данных на диск может измениться, или будут


это как?! как тупизна контроллера или проблема с питанием может
повлиять на порядок записываемых данных?


Пропуск записываемых данных или запись откровенной хрени на диск.
Случалось только на одной десктоп машине которой на данный момент уже
лет десять стукнуло. Для серверного железа по идее нереально.


так может там контроллер просто дохлый был?
в смысле -- сломанный. у меня так себя вел винт в usb коробке, на ufs.
потому что usb контроллер в ноуте помирал. в конце концов совсем помер.


Вот и я о том, что в таком случае процесс выковыривания данных с винта, 
если там ZFS, будет очень занятным ввиду полного отсутствия сторонних 
утилит для восстановления/чтения диска.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] 9.1

2012-12-04 Пенетрантность Volodymyr Kostyrko

04.12.2012 12:09, Slawa Olhovchenkov:

On Tue, Dec 04, 2012 at 10:53:34AM +0200, Volodymyr Kostyrko wrote:


04.12.2012 10:42, Slawa Olhovchenkov:

On Tue, Dec 04, 2012 at 09:59:32AM +0200, Alexander Yerenkow wrote:


За свой опыт ловил проблемы и с SU, и с журналом, и с зфс. Пока не
изобретут ИИ и он не перепишет все операционки, думаю человеческий фактор
будет вылазить везде, просто в разной мере.


а с zfs что было? чего опасаться?


Урра! Сейчас перечислю, сейчас всё припомню.

1. Неправильный разбор gang-блоков родным лоадером. При загрузке пула
чуть более чем на 98% после обновления ядра оно с большой вероятностью
могло не загрузиться.


э, в смысле если пул забит на 98%?


Всмысле места свободного осталось достаточно мало чтобы ZFS не мог 
подобрать ни одного крупного блока при записи. В таком случае он создаёт 
виртальный крупный блок из мелких ошмётков - gang-block.



3. Ежели контроллер тупой как пробка или есть проблема с питанием то
порядок к записываемых данных на диск может измениться, или будут


это как?! как тупизна контроллера или проблема с питанием может
повлиять на порядок записываемых данных?


Пропуск записываемых данных или запись откровенной хрени на диск. 
Случалось только на одной десктоп машине которой на данный момент уже 
лет десять стукнуло. Для серверного железа по идее нереально.



записаны не все данные. Результат - assert на начальном этапе загрузки,
потеря objset'ов. При чём в этом случае не поможет даже монтирование
пула в r/o с последнего удачного снепшота.

4. Dedup очень громоздок и неповоротлив, особенно если используются
снепшоты. При удалении дедуплицированного снепшота zfs может откушать


ну у конкурентов и еэтого нет, тут только ходить с аккуратностью..


В HAMMER есть дедупликация и устроена она на порядок более аккуратно. 
Matt реально жжот.



половину его размера памяти только для того чтобы закончить транзакцию.
В случае если памяти не хватает - freeze. Это ещё будет в 9.1, туда


какой памяти? оперативной или дисковой?
под терабайтный снапшот, что терабайт рамы нужен будет?


Оперативной. При удалении снепшота в 14GB машина здыхала пока не 
получила >6GB под arc. Ничо военного, просто бэкап недельных снепшотов 
базы данных.


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] 9.1

2012-12-04 Пенетрантность Volodymyr Kostyrko

04.12.2012 10:42, Slawa Olhovchenkov:

On Tue, Dec 04, 2012 at 09:59:32AM +0200, Alexander Yerenkow wrote:


За свой опыт ловил проблемы и с SU, и с журналом, и с зфс. Пока не
изобретут ИИ и он не перепишет все операционки, думаю человеческий фактор
будет вылазить везде, просто в разной мере.


а с zfs что было? чего опасаться?


Урра! Сейчас перечислю, сейчас всё припомню.

1. Неправильный разбор gang-блоков родным лоадером. При загрузке пула 
чуть более чем на 98% после обновления ядра оно с большой вероятностью 
могло не загрузиться.


2. Нечёткая логика расширения и миграции дисков. Вот например были у 
меня два разных диска в зеркале. Тот который поменьше здох. Если я 
воткну ещё один побольше, подожду пока он перельётся, прибью старый и 
перезагружусь - у меня есть нехилый шанс получить на диске неправильную 
разбивку space map'ов. Assert в начале загрузки и выковыривание файлов.


3. Ежели контроллер тупой как пробка или есть проблема с питанием то 
порядок к записываемых данных на диск может измениться, или будут 
записаны не все данные. Результат - assert на начальном этапе загрузки, 
потеря objset'ов. При чём в этом случае не поможет даже монтирование 
пула в r/o с последнего удачного снепшота.


4. Dedup очень громоздок и неповоротлив, особенно если используются 
снепшоты. При удалении дедуплицированного снепшота zfs может откушать 
половину его размера памяти только для того чтобы закончить транзакцию. 
В случае если памяти не хватает - freeze. Это ещё будет в 9.1, туда 
асинхронное удаление снепшотов не попало. Хотя здесь не всё ясно, я 
спрашивал как будет вести себя ZFS с новым кодом, но внятного ответа не 
получил, а экспериментировать пока не тянет...


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Подскажите, как закешировать много php скриптов?

2012-11-28 Пенетрантность Volodymyr Kostyrko

27.11.2012 20:50, Vladislav Prodan:


Имеем хостинговый сервер с ISPmanager.
Стоит nginx+apache-itk+mod_php5.3
FreeBSD 9.1-PRERELEASE #0: Wed Jul 25 01:40:56 EEST 2012

Суммарно там php скриптов более 10G.
Поставил APC c такими настройками:


А почему не взять xcache? В данной конфигурации он будет создавать по 
отдельному кешу на каждого пользователя и перегрузка кеша одним 
паразитом не будет никак сказываться на остальных.


Это пункт номер раз, пункт номер два состоит в том что держать 10G кеша 
исключительно под PHP может быть дороговато, точно не будет затыка у 
остальных приложений которым будет не хватать диска?


--
Sphinx of black quartz, judge my vow.


Re: [freebsd] portsnap

2012-11-20 Пенетрантность Volodymyr Kostyrko

20.11.2012 16:22, Vasiliy P. Melnik написав(ла):


Где-то видел сообщение, что появилась возможность использовать
freebsd-update и с custom ядрами. Но что-то не могу найти
подробностей, как это работает.


да мне как бы не лень пересобрать мир и ядро - у меня внутреннее
сопротивление по поводу использования монстра типа svn для обновления
исходников.


Ага, там как раз два треда выросло на эту тему. Краткий сборник тезисов:

 * а почему не Git?
 * а почему Mercurial не BSDL?
 * а может Fossil?
 * а почему у SVN такое дерево зависимостей?

На самом деле SVN на порядок удобнее cvsup/csup просто за счёт того что 
это полноценный SCM и можно для себя в сорцах системы держать сразу 
несколько интересных патчей.


--
Sphinx of black quartz, judge my vow.


[freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Re: [freebsd] Замена IP-адреса средствами DNS

2012-11-19 Пенетрантность Volodymyr Kostyrko

19.11.2012 15:49, Timofey Andreewski написав(ла):

19.11.2012 15:30, Timofey Andreewski написав(ла):

19.11.12 в 16:49 Aleksandr Lisovoy в своём письме писал(а):


Hi!
Ну, или городить прозрачный прокси сервер :). Собственно, таким
способом я
в своё время поборол Ваш вопрос, а именно - недоступность некоторых
доменных имён из локальной сети + регекспы других ключевых слов.
Но, потом, с развитием всяких анонимайзеров и i2p забросил сиё
неблагодарное дело, а вопрос решили логированием всего трафика и
административным выговором/шлепком в случае, если окажется, что
кто-то не
по такому как нужно назначению использует казённый доступ в Интернет
:).


Вот записи из hosts клиентской машины:
127.0.0.1ad.114.com.cn
127.0.0.1ad.120-gen.tbn.ru
127.0.0.1ad.123adv.com
127.0.0.1ad.411web.com
127.0.0.1ad.4web.cz
127.0.0.1ad.ableclick.com
127.0.0.1ad.abum.com
127.0.0.1ad.acceleratorusa.com
127.0.0.1ad.adbest.com
127.0.0.1ad.adconsole.com
127.0.0.1ad.admarketplace.net
127.0.0.1ad.adrefer.net

На такие адреса никто не ходит специально, это реклама, она в нормальные
страницы встроена. Ну и как тут пошлепать-то?


www/squidguard


Т.е. это сам сквид надо ставить, редиректить все запросы на него... да?


Чем вам мешает реклама? При текущем размере мониторов на пристойных 
сайтах (если не лазить по порнухе) она не наскакивает из-за границы 
экрана и не клянчит клик. Если же вас интересует потребление трафика то 
не воткнув промежуточное звено между пользователем и интернетом вы не 
сможете посчитать куда и сколько байтов уходит.


Но допустим вам нужно блокирование ради блокирования и удобства особого 
не требуется. Что вам мешает наваять скрипт который сам будет 
генерировать кусок конфига для bind'а?


> cd /etc/namedb
> cat master/empty.db

; $FreeBSD$

$TTL 3h
@ SOA @ nobody.localhost. 42 1d 12h 1w 3h
; Serial, Refresh, Retry, Expire, Neg. cache TTL

@   NS  @

; Silence a BIND warning
@   A   127.0.0.1
> cat generator.awk
BEGIN{print"# generated file, please do not edit"}
{print"zone \""$1"\" { type master; file "/etc/namedb/master/empty.db\"; 
};"}


> awk -f generator.awk < address.list > blocker.conf

Делов то.

--
Sphinx of black quartz, judge my vow.


Re: [freebsd] Re: [freebsd] Re: [freebsd] Замена IP-адреса средствами DNS

2012-11-19 Пенетрантность Volodymyr Kostyrko

19.11.2012 15:30, Timofey Andreewski написав(ла):

19.11.12 в 16:49 Aleksandr Lisovoy в своём письме писал(а):


Hi!
Ну, или городить прозрачный прокси сервер :). Собственно, таким
способом я
в своё время поборол Ваш вопрос, а именно - недоступность некоторых
доменных имён из локальной сети + регекспы других ключевых слов.
Но, потом, с развитием всяких анонимайзеров и i2p забросил сиё
неблагодарное дело, а вопрос решили логированием всего трафика и
административным выговором/шлепком в случае, если окажется, что кто-то не
по такому как нужно назначению использует казённый доступ в Интернет :).


Вот записи из hosts клиентской машины:
127.0.0.1ad.114.com.cn
127.0.0.1ad.120-gen.tbn.ru
127.0.0.1ad.123adv.com
127.0.0.1ad.411web.com
127.0.0.1ad.4web.cz
127.0.0.1ad.ableclick.com
127.0.0.1ad.abum.com
127.0.0.1ad.acceleratorusa.com
127.0.0.1ad.adbest.com
127.0.0.1ad.adconsole.com
127.0.0.1ad.admarketplace.net
127.0.0.1ad.adrefer.net

На такие адреса никто не ходит специально, это реклама, она в нормальные
страницы встроена. Ну и как тут пошлепать-то?


www/squidguard

--
Sphinx of black quartz, judge my vow.


  1   2   >