Re: Проблема с icedove

2013-04-01 Thread Mikhail A Antonov
01.04.2013 08:34, Ivan Zavarzin пишет:
> debian squeeze amd64
> Icedove 3.0.11
>
> Внезапно в одном из аккаунтов появился такой глюк:
> При попытке скачать почту по POP3 выходит окошко:
>> The folder Inbox is full, and can't hold any more messages. To make room for 
>> more messages, delete any old or unwanted mail and compact the folder.
С _сервера_ удали часть почты или расширь лимит.


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: Проблема с icedove

2013-04-01 Thread Ivan Zavarzin
Mikhail A Antonov:
> 01.04.2013 08:34, Ivan Zavarzin пишет:
>> debian squeeze amd64
>> Icedove 3.0.11
>>
>> Внезапно в одном из аккаунтов появился такой глюк:
>> При попытке скачать почту по POP3 выходит окошко:
>>> The folder Inbox is full, and can't hold any more messages. To make room 
>>> for more messages, delete any old or unwanted mail and compact the folder.
> С _сервера_ удали часть почты или расширь лимит.
> 
> 

Удалил на сервере - не помогло.
Окошко вылазит это еще до того, как клиент начинает устанавливать
сетевое соединение. Так что проблема похоже не в сервере,а что-то с
клиентом случилось.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51595159.9040...@lavabit.com



Re: Немного о Gnus.

2013-04-01 Thread Dmitry Derjavin
On Вск, Мар 31 2013 at 23:51, Dmitrii Kashin wrote:

> 1) При получении больших вложений nnml просто зависает. Точнее,
> работает, но скачивает их через час по чайной ложке. Можно ли как-то
> улучшить поведение Gnus при получении больших вложений?

Не зависает. «Большие» у вас — это сколько? Каким образом происходит
«получение» — копирование из локального спула, POP3, IMAP ?

> 2) Можно ли заставить nnrss наботать быстрее? Сейчас он тормозит
> страшно, поэтому я от него просто отказался и пользуюсь newsbeuter.

Опять же, не «страшно». То есть, не страшнее, чем какая-нибудь
настольная читалка.

> 3) Я знаю про хоткей M-s и даже читал документацию [1], однако поиск, к
> большому моему сожалению, производится по письму-сырцу (raw article),
> которое довольно часто зашифровано посредством base64. И разумеется,
> поиск по на русском из-за этого не работает, разве что я сначала
> переведу шаблон поиска в base64. А можно ли в Gnus искать по телам
> сообщений на русском без таких ухищрений?

Поиск по тексту сообщений на русском языке работает прямо «из коробки».

> 4) Хотелось бы, чтобы Gnus при нахождении ссылки открывал её посредством
> w3m при нажатии, скажем, RET. Не подскажете ли как лучше реализовать
> данный функционал?

Например, через '(browse-url-browser-function (quote w3m-browse-url))

Вообще, есть такое ощущение, что у вас слишком сложный файл конфигурации. 
Попробуйте, пожалуйста, воспроизвести всё вышеописанное с умолчальной
конфигурацией. То есть с пустыми пользовательскими конфигами Emacs и Gnus.

-- 
~dd


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/87eheu8whp@africa.home.dd



Re: Немного о Gnus.

2013-04-01 Thread Dmitrii Kashin
Dmitry Derjavin  writes:

> On Вск, Мар 31 2013 at 23:51, Dmitrii Kashin wrote:
>
>> 1) При получении больших вложений nnml просто зависает. Точнее,
>> работает, но скачивает их через час по чайной ложке. Можно ли как-то
>> улучшить поведение Gnus при получении больших вложений?
>
> Не зависает. «Большие» у вас — это сколько? Каким образом происходит
> «получение» — копирование из локального спула, POP3, IMAP ?

Большие - это с вложениями на несколько мегабайт.
Получение через pop3. 

Вот выдержка из ~/.gnus:
--   cut   --
(setq gnus-secondary-select-methods 
  '((nnml "")
(nntp "news.aioe.org"))
)

(setq mail-sources
  '(
(directory :path "/home/freehck/Mail/mail/misc")
(pop :server "pop.gmail.com"
 :port 995
 :user "free...@gmail.com"
 :password "xxx"
 :stream ssl)))
--   cut   --

>> 2) Можно ли заставить nnrss наботать быстрее? Сейчас он тормозит
>> страшно, поэтому я от него просто отказался и пользуюсь newsbeuter.
>
> Опять же, не «страшно». То есть, не страшнее, чем какая-нибудь
> настольная читалка.

Я не понимаю, что значит "не страшно". Мне не нравится, что newsbeuter
забирает все мои фиды за минуту, в то время как nnrss колупается все
десять.

>> 3) Я знаю про хоткей M-s и даже читал документацию [1], однако поиск, к
>> большому моему сожалению, производится по письму-сырцу (raw article),
>> которое довольно часто зашифровано посредством base64. И разумеется,
>> поиск по на русском из-за этого не работает, разве что я сначала
>> переведу шаблон поиска в base64. А можно ли в Gnus искать по телам
>> сообщений на русском без таких ухищрений?
>
> Поиск по тексту сообщений на русском языке работает прямо «из коробки».

Ну да. А вот попробуйте произвести поиск в этой самой рассылке, скажем,
по слову "Рахматуллин". Я вот, например, ожидал найти
offlist-сообщение[1], случайно пересланное собеседником сюда.

Но Вы его не найдете. Не найдете, потому что содержимое письма целиком в
base64.

>> 4) Хотелось бы, чтобы Gnus при нахождении ссылки открывал её посредством
>> w3m при нажатии, скажем, RET. Не подскажете ли как лучше реализовать
>> данный функционал?
>
> Например, через '(browse-url-browser-function (quote w3m-browse-url))
>
> Вообще, есть такое ощущение, что у вас слишком сложный файл конфигурации. 
> Попробуйте, пожалуйста, воспроизвести всё вышеописанное с умолчальной
> конфигурацией. То есть с пустыми пользовательскими конфигами Emacs и Gnus.

Эээ... Спасибо, что-то не хочется. С моим конфигом все в порядке. Если
хотите, могу приложить его.

[1] https://lists.debian.org/debian-russian/2013/02/msg00079.html

-- 
**
*  jabber:  free...@jabber.mipt.ru   *
*   Registered linux user #546240*
**


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/87a9pitk6m@ws00.freehck.ru



Re: Проблема с icedove

2013-04-01 Thread Сергей Москвичёв
> При попытке скачать почту по POP3 выходит окошко:
> > The folder Inbox is full, and can't hold any more messages. To make room 
> > for more messages, delete any old or unwanted mail and compact the folder.
> 
> В других аккаунтах проблемы нет.

Преположу что файл inbox ~2G? 


-- 
С уважением, Сергей Москвичёв.
xmpp: uks...@ya.ru


Re: Проблема с icedove

2013-04-01 Thread Ivan Zavarzin
Сергей Москвичёв:
>> При попытке скачать почту по POP3 выходит окошко:
>>> The folder Inbox is full, and can't hold any more messages. To make room 
>>> for more messages, delete any old or unwanted mail and compact the folder.
>>
>> В других аккаунтах проблемы нет.
> 
> Преположу что файл inbox ~2G? 
> 
> 
Больше 4-х, но почему-то до вчерашнего дня все прекрасно работало.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5159b2b0.1020...@lavabit.com



Re: Проблема с icedove

2013-04-01 Thread Ivan Zavarzin
Ivan Zavarzin:
> Сергей Москвичёв:
>>> При попытке скачать почту по POP3 выходит окошко:
 The folder Inbox is full, and can't hold any more messages. To make room 
 for more messages, delete any old or unwanted mail and compact the folder.
>>>
>>> В других аккаунтах проблемы нет.
>>
>> Преположу что файл inbox ~2G? 
>>
>>
> Больше 4-х, но почему-то до вчерашнего дня все прекрасно работало.

И самое удивительное, сколько я не удаляю из него письма и не архивирую
(они переносятся в другой файл), почему то его размер не уменьшается...
Странно это.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5159bc38.4060...@lavabit.com



Re: Проблема с icedove

2013-04-01 Thread Aleksandr Sytar
1 апреля 2013 г., 20:56 пользователь Ivan Zavarzin <
ivan_zavar...@lavabit.com> написал:

> Ivan Zavarzin:
> > Сергей Москвичёв:
> >>> При попытке скачать почту по POP3 выходит окошко:
>  The folder Inbox is full, and can't hold any more messages. To make
> room for more messages, delete any old or unwanted mail and compact the
> folder.
> >>>
> >>> В других аккаунтах проблемы нет.
> >>
> >> Преположу что файл inbox ~2G?
> >>
> >>
> > Больше 4-х, но почему-то до вчерашнего дня все прекрасно работало.
>
> И самое удивительное, сколько я не удаляю из него письма и не архивирую
> (они переносятся в другой файл), почему то его размер не уменьшается...
> Странно это.
>
>
strace?


Re: Проблема с icedove

2013-04-01 Thread Ivan Zavarzin
Aleksandr Sytar:
> 1 апреля 2013 г., 20:56 пользователь Ivan Zavarzin <
> ivan_zavar...@lavabit.com> написал:
> 
>> Ivan Zavarzin:
>>> Сергей Москвичёв:
> При попытке скачать почту по POP3 выходит окошко:
>> The folder Inbox is full, and can't hold any more messages. To make
>> room for more messages, delete any old or unwanted mail and compact the
>> folder.
>
> В других аккаунтах проблемы нет.

 Преположу что файл inbox ~2G?


>>> Больше 4-х, но почему-то до вчерашнего дня все прекрасно работало.
>>
>> И самое удивительное, сколько я не удаляю из него письма и не архивирую
>> (они переносятся в другой файл), почему то его размер не уменьшается...
>> Странно это.
>>
>>
> strace?
> 
> 


strace что-то особо не хочет показывать ничего после того, как клиент
загрузиться. Загрузился клиент, появляется последняя запись в выводе
strace wait4(-1, , а что дальше уже клиентам пытаешься делать, ничего не
выводиться.
Обнаружил, что хотя я перегонял средствами icedove письма из Inbox в
трэш и архив, сам файл Inbox не изменялся (открыл его less'ом - все что
было там есть).
Создал новый Inbox командой cat (нулевой), пытаюсь скачать почту, ничего
не скачивается. Предупреждение о том что мало место при этом не
выскакивает.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5159c0c6.5020...@lavabit.com



Re: Виртуализация

2013-04-01 Thread Артём Н.
01.04.2013 08:30, Stanislav Vlasov пишет:
> Очень большое количество компонентов, требуемых для GFS2, взаимосвязь
> которых хреново настраивается.
> Под RHEL задача упрощается не слишком сильно. По-крайней мере, кластер
> менее, чем на три машины делать уже точно не стоит.
Понятно. Значит, стоит остановиться на OCFS2.

>> Так, насчёт СХД, первый вопрос.
> 
>> Что имею:
>> 1. Два сервера. В каждом 6 SATA на 1 Тб.
>> 2. В них Core2 с Vt-d.
>> 3. Пару особо старых одноюнитовых серверов без виртуализации ( к тому, что
>> предыдущие 2 - большие и диски перекрутить не получится, а ВМ где-то надо
>> запускать).
> Не совсем понял, кто на ком стоял, но ладно, разберёмся в процессе.
2 сервера в каждом 6 x 1 Тб SATA. CPU с Vt-x (VT-d нет, сегодня смотрел).
В них 3 сетевых интерфейса. На них сейчас Fedora.
Их под СХД.

Помимо них, есть старые одноюнитовые HP ProLiant 2006 года с двумя сказями в 70
с чем-то Гб каждый. Сейчас на них RHEL. Они когда-то были резервом, но сейчас
настройки прикладного ПО на них неактуальны (как и железо).
Это из того, что есть в стойке. На них, естественно, VT нет. Там по два старых
ксеона на каждом.

Также, валяется ещё один HP с б`ольшим количеством SCSI дисков (но тоже
маленьких, наверное до 1 Тб, в сумме, не дотянет).
Коммутатор, пока что, найти не удалось.

> Хотя, если имелось ввиду, что много дисков должно быть на тех же
> серверах, что и виртуалки, причём бекапы - туда же, то лучше всё-таки
> немного подумать над реорганизацией. Бекапы должны лежать отдельно от
> рабочих серверов.
Я и хочу отдельно... Но процессоры на старых серверах намного хуже, чем на тех,
что под бэкапы (2 старых Xeon против Core2 Duo).

> Желательно даже на расстоянии и в сейфе.
Увы, нереально (реально разнести их по разным серверным, но слишком
проблематично). Они стоят в соседних стойках. Но, физическое разделение, в
принципе, не ко мне.

> К тому же, при создании бекапов будет довольно приличная дисковая
> нагрузка, процессор будет в основном в состоянии iowait, что повлияет
> на работу виртуалок.
Так ведь диски все давно с DMA (процессор будет ждать прерывания). Или 
всё-равно?

>> 4. Коммутатор (говорят, что возможно найти лишний).
> Для надёжности лучше два.
Там, в принципе, несколько сетевых интерфейсов. Может, вообще, не нужен 
коммутатор.

>> Что требуется:
>> 1. Сохранять резервные копии с машин внутренней сети. Для начала возможно
>> ограничиться только настройками (думаю, что систему там смогут поставить). 
>> Под
>> это вполне хватит 8 Тб.
>> 2. Иметь доступное хранилище для образов виртуальных машин. Под них за глаза
>> хватит 2 Тб.
> Нормальное ТЗ, вобщем-то.
> К бекапам еще бы ленточек...
Георгиевских или вы про стриммеры? :-)

>> Что хочу:
>> 1. Организовать маленькое надёжное хранилище объёмом 2 Тб. Использовать для
>> образов ВМ.
> DRBD поверх раздела в 2Тб.
> Как вариант - сделать этот раздел на стареньких серверах, объединить
> их в DRBD и потом отдавать по iscsi весь том на оба сервера
> виртуализации с одного из серверов.
На старых серверах нет места. Там SCSI не более, чем на 200-500 Гб (на тех, что
сейчас, вообще 100 с чем-то Гб).

> При отказе - воспользоваться heartbeat для переключения ip-адреса
> iscsi и master-slave в drbd.


>> 2. Организовать ненадёжное хранилище объёмом 8 Тб. Использовать для резервных
>> копий и базы данных (в т.ч. Zabbix).
>> 3. Иметь возможность менять конфигурацию СХД "на лету" (например, убрать 
>> часть
>> дисков из ненадёжного хранилища и создать ещё одно надёжное).
> С DRBD настолько на лету не выйдет, проверено. Только переконфигурация
> томов, созданных поверх DRBD.
А с Lustre?
Я могу убрать два диска из Lustre и создать из них DRBD?

>> Как хочу реализовать (пока только задумки):
>> I. Надёжное хранилище.
>> 1. Выделить 2 диска на каждом сервере под RAID-0.
>> 2. Объединить в RAID-1, используя DRDB.
>> 3. ФС - OCFS2.
> 3 - может быть clvm (clustered lvm). Возможно, будет на несколько
> процентов быстрее.
В смысле? Ведь cLVM тоже нужна кластерная ФС? Или вы про замену DRBD на cLVM?

> 
>> II. Ненадёжное хранилище.
>> Тут задумок пока мало. Либо создать RAID0 и пробросить через iSCSI 
>> или лучше
>> AoE. Либо использовать, например, Lustre.
> 
> AoE пробовал - были проблемы с объединением сетевых карт. iscsi в этом
> плане менее капризен.
Какие проблемы?

> Lustrefs - для бекапов пойдёт, для рабочего раздела - врядли.
Вай?
По-идее, под бэкапы и хочу.
Но почему не под рабочий раздел?
Если бы оставить только LustreFS, конфигурация бы сильно упростилась...

>> А стоит ли вообще выдумывать со всякими "надёжными-ненадёжным хранилищами"?
>> Может, возможно ограничиться LustreFS (чтобы не плодить лишних наворотов)? 
>> Ведь
>> ей не нужен DRBD?
> Не нужен, но по iops оно значительно медленнее, чем iscsi.
Т.е., для виртуалок не подойдёт..?

>> Про аппаратную виртуализацию, я так понимаю, придётся забыть? И Vt-d будет
>> пропадать впустую.
> А с какой целью оно надо?
> Что на локальном разделе, что на удалённом - монопольно пробр

Re: Виртуализация

2013-04-01 Thread Stanislav Vlasov
2 апреля 2013 г., 0:36 пользователь "Артём Н."  написал:

> 01.04.2013 08:30, Stanislav Vlasov пишет:
> > Очень большое количество компонентов, требуемых для GFS2, взаимосвязь
> > которых хреново настраивается.
> > Под RHEL задача упрощается не слишком сильно. По-крайней мере, кластер
> > менее, чем на три машины делать уже точно не стоит.
> Понятно. Значит, стоит остановиться на OCFS2.
>

Это проще.


> > Хотя, если имелось ввиду, что много дисков должно быть на тех же
> > серверах, что и виртуалки, причём бекапы - туда же, то лучше всё-таки
> > немного подумать над реорганизацией. Бекапы должны лежать отдельно от
> > рабочих серверов.
> Я и хочу отдельно... Но процессоры на старых серверах намного хуже, чем на
> тех,
> что под бэкапы (2 старых Xeon против Core2 Duo).


Мда...


> > К тому же, при создании бекапов будет довольно приличная дисковая
> > нагрузка, процессор будет в основном в состоянии iowait, что повлияет
> > на работу виртуалок.
> Так ведь диски все давно с DMA (процессор будет ждать прерывания). Или
> всё-равно?
>

А это неважно. Время случайного доступа никто не отменял.


> >> 4. Коммутатор (говорят, что возможно найти лишний).
> > Для надёжности лучше два.
> Там, в принципе, несколько сетевых интерфейсов. Может, вообще, не нужен
> коммутатор.


Хм... Разве что сумеете обеспечить связь "каждый с каждым" без него, причём
с двойным резервированием.


> >> Что требуется:
> >> 1. Сохранять резервные копии с машин внутренней сети. Для начала
> возможно
> >> ограничиться только настройками (думаю, что систему там смогут
> поставить). Под
> >> это вполне хватит 8 Тб.
> >> 2. Иметь доступное хранилище для образов виртуальных машин. Под них за
> глаза
> >> хватит 2 Тб.
> > Нормальное ТЗ, вобщем-то.
> > К бекапам еще бы ленточек...
> Георгиевских или вы про стриммеры? :-)


Таки про стримеры. С одной м :-)


> >> Что хочу:
> >> 1. Организовать маленькое надёжное хранилище объёмом 2 Тб. Использовать
> для
> >> образов ВМ.
> > DRBD поверх раздела в 2Тб.
> > Как вариант - сделать этот раздел на стареньких серверах, объединить
> > их в DRBD и потом отдавать по iscsi весь том на оба сервера
> > виртуализации с одного из серверов.
> На старых серверах нет места. Там SCSI не более, чем на 200-500 Гб (на
> тех, что
> сейчас, вообще 100 с чем-то Гб).


Мда... Извращение...

>> 2. Организовать ненадёжное хранилище объёмом 8 Тб. Использовать для
> резервных
> >> копий и базы данных (в т.ч. Zabbix).
> >> 3. Иметь возможность менять конфигурацию СХД "на лету" (например,
> убрать часть
> >> дисков из ненадёжного хранилища и создать ещё одно надёжное).
> > С DRBD настолько на лету не выйдет, проверено. Только переконфигурация
> > томов, созданных поверх DRBD.
> А с Lustre?
> Я могу убрать два диска из Lustre и создать из них DRBD?
>

Можно и так. Но опять же - в оффлайне.


> >> Как хочу реализовать (пока только задумки):
> >> I. Надёжное хранилище.
> >> 1. Выделить 2 диска на каждом сервере под RAID-0.
> >> 2. Объединить в RAID-1, используя DRDB.
> >> 3. ФС - OCFS2.
> > 3 - может быть clvm (clustered lvm). Возможно, будет на несколько
> > процентов быстрее.
> В смысле? Ведь cLVM тоже нужна кластерная ФС? Или вы про замену DRBD на
> cLVM?


Нет, clvm не требуется кластерная фс. И оно не заменяет drbd, а живёт
поверх.
Просто это lvm, работающий в кластере, когда тома лвм доступны всем узлам
кластера.


> >
> >> II. Ненадёжное хранилище.
> >> Тут задумок пока мало. Либо создать RAID0 и пробросить через
> iSCSI или лучше
> >> AoE. Либо использовать, например, Lustre.
> >
> > AoE пробовал - были проблемы с объединением сетевых карт. iscsi в этом
> > плане менее капризен.
> Какие проблемы?


При бондинге двух сетевых карт и на клиенте и на сервере скрость передачи
упёрлась в одну сетевую карту.


> > Lustrefs - для бекапов пойдёт, для рабочего раздела - врядли.
> Вай?
> По-идее, под бэкапы и хочу.
> Но почему не под рабочий раздел?
> Если бы оставить только LustreFS, конфигурация бы сильно упростилась...


iops. Виртуалки тоже хотят писать на диск, причём часто.


> >> А стоит ли вообще выдумывать со всякими "надёжными-ненадёжным
> хранилищами"?
> >> Может, возможно ограничиться LustreFS (чтобы не плодить лишних
> наворотов)? Ведь
> >> ей не нужен DRBD?
> > Не нужен, но по iops оно значительно медленнее, чем iscsi.
> Т.е., для виртуалок не подойдёт..?


Угу, я тестировал как-то... Для текущих задач с iops порядка полутора тысяч
на один сервер - не подойдёт.
В тестах на таком же железе и 2x1Гб сети выходило порядка нескольких сотен
в пределе.
iscsi на этом же стенде упёрся в диски по iops.
Скорость чтения/записи отличалась на несколько процентов (оба явно
упирались в сеть), так что тут разночтений нет.


> >> С другой стороны, я ведь могу использовать
> >> паравиртуализованные ОС без потери производительности?
> > Как обычно, вобщем-то.
> Т.е., вполне нормальный вариант (тогда сервера виртуализации будут на
> старых HP
> Proliant)?


Только для линуксов.


>  Ну я понял, что БД, вс