мально, для этого и
существуют места для дискуссий, и вообще взаимопомощь. Сейчас получается,
что большая часть сообщества FreeBSD такую проблему из виду упустила, это
надо исправлять. А я просто как акын, где вижу (куда могу дотянуться), там
и пою.
--
WBR, Vadim Goncharov. http://nuclight.livejournal.com
(r223819) и 7-STABLE (r223820).
--
WBR, Vadim Goncharov. http://nuclight.livejournal.com
акого пафоса не усматриваю, это констатация положения вещей. Но
даже если кем-то здесь воспринимается пафос - это ж опять-таки не повод за
деревьями леса не видеть. Реальное положение вещей именно такое, как
описано.
Думаю, что у всех своя мотивация и свои цели.
Мотивация, конечно, у всех своя, но у некоторых она общая.
--
WBR, Vadim Goncharov. http://nuclight.livejournal.com
uclight.livejournal.com/128319.html
http://lists.freebsd.org/pipermail/freebsd-arch/2011-August/011412.html
--
WBR, Vadim Goncharov. http://nuclight.livejournal.com
ерная память просто не свопится (потому-то при
нехватке памяти и паникует, в частности, тот же ZFS).
тормоза в подсистемах могут генерировать лоры, ещё строгать?
Строгать, строгать. LORы из-за тормозов - тоже улыбает, ждем еще перлов.
--
WBR, Vadim Goncharov. http://nuclight.livejournal.com
сложны в реализации
для современной индустрии.
Вообще-то ZFS относится как раз не к журналирующим.
--
WBR, Vadim Goncharov. http://nuclight.livejournal.com
;\n/server {\n' nginx.conf
Ну вообще-то sed '/include common.conf/d' nginx.conf и короче и правильнее
- не обязано же оно стоять непременно после 'server {'. Еще неплохо
помнить про ключик -i у sed.
--
WBR, Vadim Goncharov. http://nuclight.livejournal.com
14.09.11 в 23:21 Eugene V. Boontseff в ÑвоÑм пиÑÑме пиÑал(а):
On 14.09.2011 19:42, Vadim Goncharov wrote:
14.09.11 в 20:09 Eugene V. Boontseff в ÑвоÑм пиÑÑме пиÑал(а):
ÐдÑавÑÑвÑйÑе, коллеги.
СÑолкнÑлÑÑ Ñ Ð´ÑÑаÑкой Ð
14.09.11 в 20:09 Eugene V. Boontseff в ÑвоÑм пиÑÑме пиÑал(а):
ÐдÑавÑÑвÑйÑе, коллеги.
СÑолкнÑлÑÑ Ñ Ð´ÑÑаÑкой пÑоблемой пÑи обновлении apache22:
[...]
РнелÑÐ·Ñ Ð»Ð¸ бÑло ÑделаÑÑ ÑÑо новÑм п
05.09.11 @ 17:41 Victor Sudakov wrote:
Коллеги,
Напомните пожалуйста, что делать в случае, когда после создания еще
одного раздела fdisk-ом он не появился в /dev ? Помню какое-то
колдунство нужно, чтобы ядро перечитало девайсы. reboot не предлагать.
true > /dev/da0s3
--
WBR, Vadim Goncharov
объединенный в zmirror с ad10p3, но винты
по-моему разные.
Причина, скорее, в софте, разве что разное железо её проявляет. Надо
искать, дергает этот винт. Может, ZFS живет своей жизнью...
--
WBR, Vadim Goncharov
99% уверен, что там очень высокое I/O, возможно даже
машинка непрерывно свопится.
--
WBR, Vadim Goncharov
recv em0// входящие снаружи на
белый адрес
ipfw add divert natd src-ip 10.0.0/24 out xmit em0 // исходящие от серой
сети
Ничего военного, просто представлять себе схему прохождения пакетов и не
совать в нат лишнего.
--
WBR, Vadim Goncharov
27.06.11 @ 18:15 Vadim Goncharov wrote:
22.06.11 @ 18:53 Oleg Cherevko wrote:
На данный момент ng_netflow, в силу его внутреннего устройства, до
этого идеала далеко. У него проблемы с broadcast- и multicast-трафиком,
с пакетами, отсеяными firewall'ом, с ipfw fwd, с локальным трафи
CALLED |
MTAG_PERSISTENT,
Ну и как обычно, send-pr с соответствующим полем fix, особенно если ничего
не сломается.
--
WBR, Vadim Goncharov
26.06.11 @ 20:09 Vladislav V. Prodan wrote:
Как определить узкое место?
У машины после перезагрузки выросли interrupt до 40-60%
top -SH
vmstat -i
--
WBR, Vadim Goncharov
оллекторов.
--
WBR, Vadim Goncharov
.
-Original Message-
15.06.11 @ 16:22 Oleg Cherevko wrote:
И еще настроить вменяемый для рассылки квотинг и проверку пунктуации.
--
WBR, Vadim Goncharov
место выделения на стеке.
--
WBR, Vadim Goncharov
е
раз'NAT'ивания. Потому, цеплять ng_netflow непосредственно на внешний
интерфейс не подходит.
Для данной конкретной задачи есть workaround: отправлять в ng_netflow не
сами пакеты, а их копии через ipfw ngtee (он в свежих версиях починен),
чтобы не было нужды их возвращать из netgraph.
--
WBR, Vadim Goncharov
еще не видим?
--
WBR, Vadim Goncharov
Коллега, своё слабоумие и желание вылить тонны говна на собеседника
лучше показывайте на улице в тёмной подворотне, толпе нетрезвых и
агрессивно настроенных молодых людей. И, повторюсь - для особо
одарённых:
Анонимы и пытающиеся таковыми казаться мне не
12.06.11 @ 23:52 Anonymous Incognito wrote:
12 июня 2011 г. 18:56 пользователь Vadim Goncharov
написал:
Чушь. На одно звено больше
Ну и зачем мне сравнение xargs совсем не с тем, что я написал?
--
WBR, Vadim Goncharov
Для особо одарённых:
[...]
root@jason:~# time find /mnt/garbage/temp
12.06.11 @ 22:47 wrote:
From: Vadim Goncharov
>>find . -type f -exec chmod 644 {} \+
>>find . -type d -exec chmod 755 {} \+
>
>Быстрее:
>
>find . -type f -print0 | xargs -0 chmod 644
>find . -type d -print0 | xargs -0 chmod 755
Чушь. На одно звено больше
Из f
chmod 644
find . -type d -print0 | xargs -0 chmod 755
Чушь. На одно звено больше, не говоря уже о том, что больше на клаве
набирать.
--
WBR, Vadim Goncharov
Товарищ спросил о _самом_быстром_ способе.
Самый быстрый способ следует выбирать из правильных. Самый быстрый
правильный такой:
find . -type f -exec chmod 644 {} \+
find . -type d -exec chmod 755 {} \+
--
WBR, Vadim Goncharov
труктур для
пакетов, сообщений и отложенных вызовов netgraph "в полёте".
--
WBR, Vadim Goncharov
и два параметра
из net.graph. Не работает разве?
--
WBR, Vadim Goncharov
ук. Сообщение NGM_LISTNODES
оперирует массивом структур, по 72 байта на одну ноду. На одного клиента
mpd создается несколько узлов.
Вот еще:
# vmstat -z|grep -E "(ITEM|NetG)"
ITEM SIZE LIMIT USED FREE REQUESTS
FAILURES
NetGraph items:72, 8207,1, 376,
1052612,0
NetGraph data items: 72, 2059,0, 319,
1550143610,0
#
Ну и всё это - и тут, и выше - данные самого netgraph, непосредственно же
пакеты данных лежат в буферах зон mbuf*
--
WBR, Vadim Goncharov
ли нет, может надо
добавить. Хочу это знать и мониторить.
Сам процесс mpd их почти не потребляет (можно смотреть в netstat, с
разными -f), а отдельной статистики в ядре, насколько мне известно, кроме
vmstat -m / vmstat -z не ведется (из соображений производительности).
--
WBR, Vadim Goncharov
cluster
структура называется skb (sk_buff). Попробуйте по этим словам поискать в
ихних аналогах sysctl -a, может, найдется чего.
--
WBR, Vadim Goncharov
тветствующим.
Вадим, спасибо за ответ
А помогло?
А как самому мониторить это? Где посмотреть текущее потребление?
Потребление чего именно?
--
WBR, Vadim Goncharov
еще проверять, чтобы kern.ipc.maxsockbuf был
соответствующим.
--
WBR, Vadim Goncharov
turn (n % LINK_TABLE_IN_SIZE);
Использовать удаленные адрес-порт оно не может, потому что в этот же слот
должен попасть и первый входящий пакет для редиректа, от кого угодно.
Для out-случая оно использует оба адреса и порта.
--
WBR, Vadim Goncharov
о там
происходит, но проблематично это в условиях рассылки и
"производственников-эксплуатационщиков"...
Думаю, топикстартеру надо не исследования, а чтоб работало :)
Потому и говорю, что проблематично. Чтоб работало, я практические
рекомендации уже приводил.
--
WBR, Vadim Goncharov
"научными исследованиями" заняться, что именно там
происходит, но проблематично это в условиях рассылки и
"производственников-эксплуатационщиков"...
--
WBR, Vadim Goncharov
#define LINK_TABLE_OUT_SIZE8123
#define LINK_TABLE_IN_SIZE 16411
и пересобрать ядро (и при каждом обновлении исходников придется руками
поддерживать патченым так).
--
WBR, Vadim Goncharov
interrupt крутится, так
что не поможет.
http://lists.freebsd.org/pipermail/freebsd-current/2006-February/061096.html
- пересобрать ядро по инструкции отсюда, попробовать остальные шаги во
время затыка.
--
WBR, Vadim Goncharov
предоставлю.
Полезен еще vmstat -m и vmstat -z. Хотя я на 99% уверен, что это окажется
flowcleaner (лечится выпиливанием из ядра FLOWTABLE).
--
WBR, Vadim Goncharov
бще-то так выставлять некорректно. Для всех категорий локали дефолтом
выставляется значение LANG, затем, если есть соответствующая из LC_*,
используется её значение. Наконец, после проверяется LC_ALL, которая
принудительно перекрывает все остальные, поэтому в норме её использовать
вообще не следует.
--
WBR, Vadim Goncharov
:ad:88:1b:bd > 02:34:56:78:9a:bc, ethertype IPv4
(0x0800), length 98: 10.11.12.17 > 82.117.64.1: ICMP echo request, id
2012, seq 0, length 64
Не зря же arp proxy придуман, всё-таки.
--
WBR, Vadim Goncharov
амечал, включая случай с домашним провайдингом,
может, мне просто везет? ;)
Кстати, nat через libalias умеет multithreading?
Одна instance - нет (лок на всю). Разные (например, разные ноды ng_nat)
вполне могут выполняться каждая на своем процессоре.
--
WBR, Vadim Goncharov
NAT-PMP для
связки с такой конфигурацией и/или нескольких внешних адресов - miniupnpd
и UPnP вообще такую ситуацию не умеет).
--
WBR, Vadim Goncharov
в нате. Куда копать, что пробовать?
Пробовать лучше перейти на другой нат - ipfilter давно уже deprecated.
Покопать можно в сторону зарезки лишних пакетов (сканы портов).
--
WBR, Vadim Goncharov
е-то будут реализованы костыли с
выдачей диску ATA-команд уменьшения доступного размера на сектор до
загрузки, и увеличения обратно перед пробой gmirror.
--
WBR, Vadim Goncharov
тов и покурив доки по GPT.
Где-то в интернете видел такое решение. Оно мне сразу не
понравилось т.к. надо зеркалировать каждый раздел отдельно, но,
похоже, это действительно решение.
А всего-то надо сначала сделать из дисков зеркало, и уже зеркало размечать
по GPT, а не сырой диск.
--
WBR,
случай.
--
WBR, Vadim Goncharov
24.12.10 @ 21:08 Andrew Ivanov wrote:
On Fri, Dec 24, 2010 at 07:52:19PM +0600, Vadim Goncharov wrote:
16.10.10 @ 03:45 Oleksandr V. Typlyns'kyi wrote:
>>Задевал ли бейсик как-то его лично?..
>
> Меня задела эта цитата :)
> По моему мнению, бейсик сильно приближен к алг
ожет уйти в
ребут, приходится через резет). Полазив в инете и увидев пару
[...]
Обычно при такого рода проблемах приводят дампы, но что мне привести,
кроме логов? mpd просто не отвечает, в логах ничего сверхъестественного
(клиент подключился, отключился)
15.10.2010 19:38, Vadim Goncharov
16.10.10 @ 03:45 Oleksandr V. Typlyns'kyi wrote:
Tomorrow Oct 16, 2010 at 01:53 Vadim Goncharov wrote:
Э. Дейкстра как-то сказал: "Практически невозможно научить хорошему
программированию студентов, ориентированных первоначально на бейсик; как
потенциальные программисты они
а иксами, если не
забивать их все. Из дампа легко и непринужденно читается 212.45.5.170.
Кому действительно надо, тот достанет. Но на самом деле "утечка" такой
информации ничего в безопасности не прибавит, зато диагностике такая
привычка у многих часто мешает, когда забивают нужно
50 matches
Mail list logo