22.05.2019, sergio написал(а):
> A:/share /mnt/share nfs4 auto,nodev,bg,rw 0 0
[...]
> но если потом вдруг перезагрузиться, то повиснет навечно (пока не
> появится A):
>
> A start job is running for /mnt ( / no limit)
Некоторые рекомендуют сиё монтировать с добавлением x-systemd.automount,noauto
Если в /etc/fstab написать:
A:/share /mnt/share nfs4 auto,nodev,bg,rw 0 0
а потом сказать
mount /mnt/share
то при выключенном A оно ответит:
mount.nfs4: backgrounding "A:/share"
mount.nfs4: mount options: "rw,nodev,bg"
но если потом вдруг перезагрузиться, то повиснет навечно (пока не
On 4/7/18, D. H. wrote:
> Не знаю в каком сейчас состоянии проект, но когда-то было такое как
> lustre. Весьма не плохо справлялась у довольно крупного европейского
> сотового оператора.
Вот боюсь, что для крупного оператора оно и не плохо, но на 2-х
серваках не поднимешь. Там
коду их
мало.
> А по сабжу я так и не понял задачи.
Мне интересно, кто как собирает высокодоступное хранилище, кроме
nfs+drbd+pacemaker и glusterfs. Я других вариантов не нашёл, может
плохо искал.
дней стабильной версии
> ситуация улучшилась, как минимум 1 ГБ освободить не проблема). Не
> смотря на кеширование метаданных на стороне клиента говорят, что он
> довольно медленный, но цифр мне не показывали.
>
> Пробовал настроить кластер на основе drdb + pacemaker + nfs, но с ним
&g
+ pacemaker + nfs, но с ним
хватает своих проблем: для drdb желательно иметь отдельный линк,
переключение на резервную ноду очень долгое (около минуты, с glusterfs
у меня максимум 10 сек), вывести одну ноду на обслуживание целая
проблема.
Смотрел на прочие варианты, типа Ceph, GFS, но для этой задачи они
Hello Sohin,
On Wed, 24 May 2017 12:09:48 +0300
Sohin Vyacheslav <in.s...@yandex.ua> wrote:
> 24.05.2017 12:04, Alexander Gerasiov пишет:
> > DATA AND METADATA COHERENCE
>
> а ман по какой команде кстати? в man umount такого раздела нет...
nfs(5)
--
Best regards
24.05.2017 12:04, Alexander Gerasiov пишет:
> DATA AND METADATA COHERENCE
а ман по какой команде кстати? в man umount такого раздела нет...
--
BW,
Сохин Вячеслав
24.05.2017 12:04, Alexander Gerasiov пишет:
> Сейчас вот посмотрел ман, там целый раздел про это:
>
> DATA AND METADATA COHERENCE
спс, буду читать матчасть...
--
BW,
Сохин Вячеслав
Hello Sohin,
On Wed, 24 May 2017 11:48:57 +0300
Sohin Vyacheslav wrote:
> 24.05.2017 11:35, Alexander Gerasiov пишет:
> > обычно секунды, может десятки.
> > От чего зависит сейчас уже не вспомню, там еще разница между
> > версиями протокола есть в этой части.
>
> прошло
24.05.2017 11:35, Alexander Gerasiov пишет:
> обычно секунды, может десятки.
> От чего зависит сейчас уже не вспомню, там еще разница между версиями
> протокола есть в этой части.
прошло уже минут 50 - каталог не появился...
--
BW,
Сохин Вячеслав
24.05.2017 11:26, Alexander Gerasiov пишет:
> Можно umount -f -l, но надо понимать, что процессам, которые открыли
> файлы на этом разделе, может стать плохо.
так ничего не произошло - остался подмонтирован раздел
$ sudo umount -f -l /mnt/storage/nfs
$ sudo mount /mnt/storage/nfs
mou
может стать плохо.
>
> пробовал без -l:
> $ sudo umount -f /mnt/storage/nfs
> umount.nfs4: /mnt/storage/nfs: device is busy
Ну так я не зря написал про -l
--
Best regards,
Alexander Gerasiov
Contacts:
e-mail: g...@cs.msu.su Homepage: http://gerasiov.net Skype: gerasiov
PGP fing
gt; файлы на этом разделе, может стать плохо.
пробовал без -l:
$ sudo umount -f /mnt/storage/nfs
umount.nfs4: /mnt/storage/nfs: device is busy
--
BW,
Сохин Вячеслав
Hello Sohin,
On Wed, 24 May 2017 11:00:42 +0300
Sohin Vyacheslav <in.s...@yandex.ua> wrote:
> День добрый,
>
> а как можно правильно перемонтировать подключенный NFS раздел?
> там появилась еще 1 папка, которой в данный момент не видно...
Не проще ли дождаться, когда она появ
24.05.2017 11:00, Sohin Vyacheslav пишет:
>
> может как-то можно с опцией remount?
такая команда не проходит:
$ sudo mount -o remount,rw ip-address:/mnt/storage/nfs /mnt/storage/nfs
никаких варнингов, но и нужный каталог все-еще пустой((
--
BW,
Сохин Вячеслав
День добрый,
а как можно правильно перемонтировать подключенный NFS раздел?
там появилась еще 1 папка, которой в данный момент не видно...
umount предварительно не проходит, так как много разных процесов
используют расшаренный каталог:
$ sudo umount /mnt/storage/nfs
umount.nfs4: /mnt/storage
Alexey Shalin c...@hoster.kg writes:
делаю
cat /etc/group | grep name_group (или cat /etc/group)
выводиться
name_group:x:3912:
после чего апач стартует без проблем
Не думаю, что эти события связаны.
кэш например nfs как вариант..
У Вас /etc монтируется через nfs?
как словлю ошибку
да в /storage/etc лежит passwd, shadow для chroot /storage
оки словлю покажу
---
Старший Системный Администратор
Алексей Шалин
ОсОО Хостер kg - http://www.hoster.kg
ул. Ахунбаева 123 (здание БГТС)
h...@hoster.kg
--
To UNSUBSCRIBE, email to
Alexey Shalin c...@hoster.kg writes:
да в /storage/etc лежит passwd, shadow для chroot /storage
оки словлю покажу
Насколько мне известно, расшаривать файлы /etc/fstab, /etc/passwd,
/etc/shadow по nfs - неправильно, потому что нужны они ещё до того, как
nfs-разделы начнут монтироваться
Добрый день
нет не подменяю
сама система грузиться без проблем т.к. у нее есть свой passwd shadow
и fstab
как только система подгрузилась, монтируется storage - который на
данный момент содержит debootstrap stable релиз debian (на момент
всей установки это был lenny)
так вот как
Добрый утр
возникает след. проблемка ... =))
есть nfs шара, которая на ноды моунтится в диру /storage и уже в
/storage через chroot запукаются приложения
вот .. и там же на ноде монтируется через sshfs каталог /storage в
/var/lib/extrausers
192.168.15.71
5 ноября 2013 г., 11:35 пользователь Alexey Shalin написал:
так вот проблема вот в чем, иногда апач не старует и говорит, что
apache2 bad group name
#!/bin/bash
И что в вашем скрипте сугубо башевого?
cat /etc/group /dev/null
Как это могло бы помочь?
/etc/init.d/apache2 start
так если в выполнить в баше теже команды
cat /etc/group /etc/init.d/apache2 start стартует без проблем
есть подозрение, что апач или система хранить в кэше файл со старыми
данными
при действии cat /etc/group кэш обновляется и апач стартует без
проблем
Alexey Shalin c...@hoster.kg writes:
при действии cat /etc/group кэш обновляется и апач стартует без
проблем
Я лично не знаю такого кэша. Вообще, нефиг придумывать объяснения из
воздуха. Лог апача показывайте.
pgpEtOLtm8t7X.pgp
Description: PGP signature
при запуске апача он сам выдает почему не может стартануть и
показываеть он
apache2 bad group name name_group
делаю
cat /etc/group | grep name_group (или cat /etc/group)
выводиться
name_group:x:3912:
после чего апач стартует без проблем
кэш например nfs как вариант..
как словлю
в основном блоги держат местные юзеры .. для них доступ открыт, а вот
для всех остальных закрыт
брут да есть... но это и помогло не особо сильно
load average: 8.03, 10.04, 7.95
плавает.. иногда доходит до 12 потом уходит вниз опять до 2-3.. потом
опять вверх и постоянно так маячит
=)
rpc stats:
calls badcalls badclntbadauthxdrcall
0 0 0 0 0
Client rpc stats:
calls retransauthrefrsh
1936492327 7068 1936731584
Client nfs v4:
null read writecommit open open_conf
0 0
может кому и поможет
не факт что именно в этом была причина
но после долго анализа ... пыток... было обнаружено офигенная арава
коннектов к wp-login.php
закрыл в фаерволе обращение к этому файлы(на роутере) и нагрузка на
NAS серваке с 7.50 упала сразу до 4.. сейчас падает до 1.5
=
Alexey Shalin c...@hoster.kg writes:
была обнаружено офигенная арава коннектов к wp-login.php
Вот тут должно возникнуть подозрение на брут.
Посмотрели в логах веб-сервера, откуда стучатся?
закрыл в фаерволе обращение к этому файлы(на роутере)
Это, конечно, взломщиков отрубило. Но не
Вот сейчас LA 21
atop
PRC | sys 60.04s | user 0.10s | #proc348 | #zombie0 | #exit 0 |
CPU | sys581% | user 1% | irq 26% | idle175% | wait 17% |
cpu | sys 73% | user 0% | irq 4% | idle 20% | cpu003 w 3% |
cpu | sys 73% | user 0% |
могу предположить, что LA как-то связано с nfs процессами в статусе D
---
Старший Системный Администратор
Алексей Шалин
ОсОО Хостер kg - http://www.hoster.kg
ул. Ахунбаева 123 (здание БГТС)
h...@hoster.kg
--
To UNSUBSCRIBE, email to debian
frame:0
TX packets:1041317321 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1
RX bytes:258867684559 (241.0 GiB) TX bytes:396569192650 (369.3 GiB)
на сервере запушен только nfs-kernel-server
uname -a
Linux nas2-backup 2.6.32-5-amd64 #1 SMP Sun Sep 23
Alexey Shalin ☫ → To debian-russian@lists.debian.org @ Fri, Oct 18, 2013 15:16
+0600
Сведение о Сервер
Intel(R) Xeon(TM) MP CPU 3.16GHz
root@nas2-backup:~# cat /proc/cpuinfo | grep cpu | wc -l
32
хотя топ показывает от 0 до 7
free -g
total used free
free -g
total used free sharedbuffers cached
Mem:27 27 0 0 8 12
-/+ buffers/cache: 6 21
Swap: 24 0 24
если вы про это - то да в кэше 21Gb :)
On Fri, Oct 18, 2013 at 03:16:02PM +0600, Alexey Shalin wrote:
Вопрос.. почему растет нагрузка LA, что заметно на чтении и записи ..
на серверах, которые монтируют /storage
куда рыть.. куда копать.. куда тыкать .. я уже все перепробовал
Странно, казалось бы при росте нагрузки в первую
LA - load average:
ввиду того, что на серваке только крутиться nfsd
в top - он только и есть...
типа\
30842 root 20 0 000 S 16 0.0 1:01.17 nfsd
30896 root 20 0 000 S 13 0.0 1:30.96 nfsd
30955 root 20 0 000 R 13 0.0 0:39.93
On Fri, Oct 18, 2013 at 03:49:45PM +0600, Alexey Shalin wrote:
LA - load average:
Знание расшифровки аббревиатуры ещё не означает, что понятен смысл
этой величины и/или алгоритм её вычисления. Похоже, непонятен.
ввиду того, что на серваке только крутиться nfsd
в top - он только и есть...
On 18/10/13 13:16, Alexey Shalin wrote:
root@nas2-backup:~# cat /proc/cpuinfo | grep cpu | wc -l
32
А можно поинтересоваться, что означает эта цифра?
--
sergio.
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact
да есть рабочие процессы nfsd
данная папка /storage монтируется на 8 веб нод + 1 основная нода
на веб нодах - апач для отдачи динамики
1 основной - nginx для отдачи статики
на просторах тырнета написано, что нужно 2 коннект от nfs client в
один кабель
т.е. грубо говоря
nfs client1
nfs
я просто не то вырезал через grep :)
нужно было грепать по processor
cat /proc/cpuinfo | grep processor | wc -l
8
8 процессоров
---
Старший Системный Администратор
Алексей Шалин
ОсОО Хостер kg - http://www.hoster.kg
ул. Ахунбаева 123
18.10.2013 14:31, Alexey Shalin пишет:
да есть рабочие процессы nfsd
данная папка /storage монтируется на 8 веб нод + 1 основная нода
на веб нодах - апач для отдачи динамики
1 основной - nginx для отдачи статики
Дисковая система на nfs-сервере действительно способна пережевать
нагрузку от
18.10.2013 14:48, Mikhail A Antonov пишет:
18.10.2013 14:31, Alexey Shalin пишет:
да есть рабочие процессы nfsd
данная папка /storage монтируется на 8 веб нод + 1 основная нода
на веб нодах - апач для отдачи динамики
1 основной - nginx для отдачи статики
Дисковая система на nfs-сервере
iostat
Total DISK READ: 323.37 K/s | Total DISK WRITE: 166.33 K/s
TID PRIO USER DISK READ DISK WRITE SWAPIN IOCOMMAND
30847 be/4 root7.43 K/s 360.53 K/s 0.00 % 57.73 % [nfsd]
30845 be/4 root0.00 B/s 341.95 K/s 0.00 % 49.46 % [nfsd]
30955 be/4 root
не смогут принять большие
фреймы, будет чёрная дыра, т.e. тайм-ауты.
bonding тоже надо аккуратно делать, его надо со строны свича включать с LACP.
Иначе возможна расконфигурация и тоже - черная дыра.
я пробовал hard вместо soft... не особо лучше было
soft маунт на NFS это путь к потере данных
Спасибо будем наблюдать!!!
---
Старший Системный Администратор
Алексей Шалин
ОсОО Хостер kg - http://www.hoster.kg
ул. Ахунбаева 123 (здание БГТС)
h...@hoster.kg
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a
On Wed, Sep 25, 2013 at 08:53:22AM +0600, Alexey Shalin wrote:
проблема такая
Sep 25 02:30:52 ispcp kernel: [25965.872151] nfs: server 192.168.15.71 not
responding, timed out
2013/09/24 18:56:17 [crit] 10657#0: *847376 open() summer-camp-block.jpg
failed (5: Input/output error), client
остальных машинах 1500
# Load balancing and fault tolerance
bond-mode balance-rr
bond-miimon 100
bond-downdelay 200
bond-updelay 200
dns-nameservers 192.168.15.230
я пробовал hard вместо soft... не особо лучше было
а зачем nginx на nfs ? с нфс монтится chroot окружение
Доброе всем утро!!
У меня возникла проблема с NFS (вернее она уже давно существует)
проблема такая
имеется 1 NFS сервер (DELL 6800 CPU Intel(R) Xeon(TM) MP CPU 3.16GHz x
8, Памяти 27 гигов)
к нему подключена полка с SCSI винтами U320 15k .. в RAID 5
смонтирован сюда этот диск
/dev/sdb1
В общем никак. При любых комбинациях параметров нфс оно тупит при загрузке
и ставит машину раком при потере связи с сервером во время работы.
On Aug 20, 2013 7:04 PM, Bogdan bog...@gmail.com wrote:
Добрый день.
Монтирую шату с опциями: defaults,vers=3,bg
При недоступности сервера процесс
Может, проблема в том, что тупит не сам NFS, а просто выставлены большие
таймауты? Сервера нет, пакеты уходят в пустоту. Попробуйте поиграться с
параметром монтирования timeo.
P.S.: поправьте у себя подпись — должно быть два знака «-» и один пробел
после них. У вас пробела нет, поэтому
On Wed, Aug 21, 2013 at 06:30:36PM +0600, Alexey Vazhnov wrote:
Может, проблема в том, что тупит не сам NFS, а просто выставлены
большие таймауты?
Таймаут, очевидно, дефолтный.
P.S.: поправьте у себя подпись — должно быть два знака «-» и один
пробел после них. У вас пробела нет, поэтому
Добрый день.
Монтирую шату с опциями: defaults,vers=3,bg
При недоступности сервера процесс загрузки клиентского компьютера занимает
очень много времени.
Я ожидал, что bg решит эту проблему, видимо эта магия работает как-то
иначе.
Расскажите пожалуйста, как прописать шару в fstab, чтобы её
On Tue, Aug 20, 2013 at 07:04:12PM +0300, Bogdan wrote:
При недоступности сервера процесс загрузки клиентского компьютера занимает
очень много времени.
Больше минуты?
--
WBR, wRAR
signature.asc
Description: Digital signature
20.08.2013 22:04, Bogdan пишет:
Добрый день.
Монтирую шату с опциями: defaults,vers=3,bg
При недоступности сервера процесс загрузки клиентского компьютера
занимает очень много времени.
Я ожидал, что bg решит эту проблему, видимо эта магия работает как-то
иначе.
Расскажите пожалуйста,
а что если поправить init-скрипт nfs-сервера, чтобы он запускался с другим
umask? start-stop-daemon штатно умеет (man на предмет опции -k|--umask).
если я правильно понял философию этого дела, umask - это свойство процесса, и
устанавливается он при запуске оного.
менять системный юмаск я бы не
/etc/sysctl.conf
Также стоит отметить, что файлы создаваемые пользователями принадлежат
основной группе пользователя. При создании файла/папки на общем ресурсе
в нашем случае NFS нам необходимо помимо разрешений для группы изменять
также и саму группу объекта ФС.
Для решения данной задачи будем
Привет Владимир
On 03/14/2013 05:59 AM, Владимир Скубриев wrote:
У тебя решение с использованием inotify-wait ?
Я написал демон на c++. В принципе уже работает, но хочу красоту навести.
--
Сергей
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of
Добрый день!
Есть сервер NFS и расшареный каталог.
В нем есть папка common которой установлены расширенные acl по умолчанию
setfacl -m d:g:__USERS__:rwx common/
и установлена маска по умолчанию:
setfacl -m d:m:rwx common/
Если зайти на сервер NFS локально и создать там файл и папку локально
Привет Владимир
On 03/13/2013 12:20 PM, Владимир Скубриев wrote:
Очень не хочется городит велосипед. Я имею в виду, что пока вижу только
одно решение данной проблемы отдельным демоном следить за правами или
изменениями в файловой системе и фиксить автоматом права на появляющиеся
новый файлы.
On 03/13/2013 03:46 PM, Sergey Spiridonov wrote:
Привет Владимир
On 03/13/2013 12:20 PM, Владимир Скубриев wrote:
Очень не хочется городит велосипед. Я имею в виду, что пока вижу только
одно решение данной проблемы отдельным демоном следить за правами или
изменениями в файловой системе и
системы другой API, в нём
есть другие операции. Некоторые поддерживаются через протокол nfs,
некоторые нет, но в любом случае сначала нужно выяснить, что именно
делает программа, которая копирует файл (а она может вести себя по-разному
в зависимости от параметров), и почему система так реагирует
Привет Владимир
On 03/13/2013 01:15 PM, Владимир Скубриев wrote:
On 03/13/2013 03:46 PM, Sergey Spiridonov wrote:
Кстати ты на каком этапе по написанию демона ?
На этапе компилируется и даже запускается :)
Читает конфигурацию из файла, обходит заданные деревья, реагирует на
события.
On 03/13/2013 06:00 PM, Sergey Spiridonov wrote:
Привет Владимир
On 03/13/2013 01:15 PM, Владимир Скубриев wrote:
On 03/13/2013 03:46 PM, Sergey Spiridonov wrote:
Кстати ты на каком этапе по написанию демона ?
На этапе компилируется и даже запускается :)
Читает конфигурацию из файла,
Ну давай конкретизируем, так проще:
1. Есть 1 NFS-расшара на 500 Gb. Используется круглосуточно.
2. Есть 300 постоянных подключений (проекты программистские и связь с
серверами работающими, соответственно файлов открыто уйма)
3. Сейчас используется 1 HP G7, рядом стоит второй такой же.
4. Сеть
На сервере четыре сетевых интерфейса? Можете примерно оценить
производительность массивов?
25 октября 2012 г., 10:21 пользователь evgeny_ver...@mail.ru
evgeny_ver...@mail.ru написал:
Ну давай конкретизируем, так проще:
1. Есть 1 NFS-расшара на 500 Gb. Используется круглосуточно.
2. Есть 300
., 22:21 пользователь evgeny_ver...@mail.ru
evgeny_ver...@mail.ru написал:
Доброго времени суток!
Рассказали мне тут знакомые любопытную историю. Столкнулись они с
проблемой такого плана: если к NFS-ресурсу прицепляется сотня
пользователей, то сервер выедает 100% ядра и на этом жалобно попискивая
использовал кластер из двух (минимум) серверов.
Подтверждаю. По каким-то причинам, NFS чувствителен к железу. У меня был
случай (давно), когда сетевая карта вешала сервер _только_на_NFS_нагрузке.
Уже не помню, ядерный был сервер или нет.
--
To UNSUBSCRIBE, email to debian-russian-requ
Хорошо, тогда дурацкий вопрос: как кластеризовать NFS?
24.10.2012 22:49, Anatoly Molchanov пишет:
Довольно давно я наблюдал подобную картину, проблема была в недостатке
моих знаний и опыта. Много нагрузки было от сетевой активности,
сетевая карта с собственным мозгом решила проблему. Сейчас
evgeny_ver...@mail.ru
evgeny_ver...@mail.ru написал:
Хорошо, тогда дурацкий вопрос: как кластеризовать NFS?
24.10.2012 22:49, Anatoly Molchanov пишет:
Довольно давно я наблюдал подобную картину, проблема была в недостатке
моих знаний и опыта. Много нагрузки было от сетевой активности, сетевая
25 октября 2012 г., 0:21 пользователь evgeny_ver...@mail.ru
evgeny_ver...@mail.ru написал:
Рассказали мне тут знакомые любопытную историю. Столкнулись они с проблемой
такого плана: если к NFS-ресурсу прицепляется сотня пользователей, то сервер
выедает 100% ядра и на этом жалобно попискивая
Уажи свой ip.
И покажи cat /etc/exports
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by server:
Permission denied
Почему сервер не пускает?
29.12.2011 11:13, Иван Лох пишет:
On Thu, Dec 29, 2011 at 11:08:27AM +0700, Ivan Petrov wrote:
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by
server: Permission denied
Почему сервер
Если просишь помощи в рассылки.
То отвечай на заданные вопросы.
Их не просто так задают.
29.12.2011 11:13, Иван Лох пишет:
On Thu, Dec 29, 2011 at 11:08:27AM +0700, Ivan Petrov wrote:
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by server:
Permission denied
Почему сервер не пускает?
--
With regards,
Ivan Petrov ip2010petrov wow-wow yandex
On Thu, Dec 29, 2011 at 11:08:27AM +0700, Ivan Petrov wrote:
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by
server: Permission denied
Почему сервер не пускает?
Например потому
29.12.2011 11:15, Andrey Bragin пишет:
Уажи свой ip.
И покажи cat /etc/exports
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt/wl500 -o rw
mount.nfs: 192.168.0.1:/tmp/mnt/disk0_1 failed, reason given by server:
Permission denied
Почему сервер не
-6020 #1686
+7 (916) 668-3436
email: abra...@armd.ru
В сообщении от 29 December 2011 08:59:28 автор Ivan Petrov написал:
29.12.2011 11:15, Andrey Bragin пишет:
Уажи свой ip.
И покажи cat /etc/exports
Вдогонку к предыдущему письму:
sudo mount -t nfs 192.168.0.1:/tmp/mnt/disk0_1 /mnt
есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
музыку.
появился вендузятник в сети, соответственно на одном из _клиентов_
поставили samba и расшарили nfs-смонтированную директорию.
то есть схема такая
nfs - клиент - самба - локалка - венда
проблема следующая, если самба
On Tue, 2010-11-30 at 20:46 +0300, Dmitry E. Oboukhov wrote:
есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
музыку.
появился вендузятник в сети, соответственно на одном из _клиентов_
поставили samba и расшарили nfs-смонтированную директорию.
то есть схема такая
проблема следующая, если самба расшаривает локальные ресурсы, то венда
их читает без проблем.
если самба расшаривает то что смонтировано через nfs, то венда видит и
читает содержимое каталогов, но при любом обращении к контенту файла
(то есть например копирование) тупо зависает и висит.
SM
On Tue, Nov 30, 2010 at 08:46:23PM +0300, Dmitry E. Oboukhov wrote:
есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
музыку.
появился вендузятник в сети, соответственно на одном из _клиентов_
поставили samba и расшарили nfs-смонтированную директорию.
Для nfs есть клиенты
есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
музыку.
появился вендузятник в сети, соответственно на одном из _клиентов_
поставили samba и расшарили nfs-смонтированную директорию.
ИЛ Для nfs есть клиенты под винду. Например...
ИЛ http://support.microsoft.com/kb
А поставить самбу туда где nfs стоить нельзя?
Можно ещё webdav попробовать.
--
sergio.
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4cf54b56.4030
30.11.2010 21:38, Иван Лох пишет:
On Tue, Nov 30, 2010 at 08:46:23PM +0300, Dmitry E. Oboukhov wrote:
есть у нас сетевой сервак nfs на котором мы между друг дружкой шарим
музыку.
появился вендузятник в сети, соответственно на одном из _клиентов_
поставили samba и расшарили nfs-смонтированную
s А поставить самбу туда где nfs стоить нельзя?
неа, там локалка в общем это openvpn и два шлюза :)
--
... mpd is off
. ''`. Dmitry E. Oboukhov
: :’ : email: un...@debian.org jabber://un...@uvw.ru
`. `~’ GPGKey: 1024D / F8E26537 2006-11-21
Dmitry Nezhevenko wrote:
On Sat, Sep 04, 2010 at 10:59:20PM +0600, Andrey Rahmatullin wrote:
On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
Отдельно хочется отметить удобство когда все машины пишут в лог имя
localhost. :-/
У Вас не так?
У нас нормальный хостнейм пишется.
05.09.2010 15:28, Andrei Lomov пишет:
Dmitry Nezhevenko wrote:
On Sat, Sep 04, 2010 at 10:59:20PM +0600, Andrey Rahmatullin wrote:
On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
Отдельно хочется отметить удобство когда все машины пишут в лог имя
localhost. :-/
У Вас не так?
On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
Отдельно хочется отметить удобство когда все машины пишут в лог имя
localhost. :-/
У Вас не так?
У нас нормальный хостнейм пишется.
--
WBR, wRAR (ALT Linux Team)
Powered by the ALT Linux fortune(6):
Дупы, еще куда ни шло. А
On Sat, Sep 04, 2010 at 10:59:20PM +0600, Andrey Rahmatullin wrote:
On Sat, Sep 04, 2010 at 11:55:18PM +0700, Andrei Lomov wrote:
Отдельно хочется отметить удобство когда все машины пишут в лог имя
localhost. :-/
У Вас не так?
У нас нормальный хостнейм пишется.
Может у человека на
Не могу разобраться, почему не идет запись по nfs ...
На двух машинах стоит lenny
Машина main отдает свою директорию /mnt/pool:
/etc/exports:
/mnt/pool client(rw,async) small(rw,async)
Вот так она загружается:
...
Sep 2 12:10:19 localhost kernel: [ 15.825702] NET
из отсутствия portmap. На клиенте, кажется,
а не на сервере.
Могут, впрочем, быть и другие несовместимости. На сервере стоит
nfs-kernel-server? Userspace реализации NFS у нас сейчас (по-разному)
неработоспособны.
--
Машины пока еще от копирования защищены хитрой немецкой технологией сборка
On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
Не могу разобраться, почему не идет запись по nfs ...
На двух машинах стоит lenny
1) rpcinfo -p
2) nfswatch
Ну и проверить, что одна версия протокола используется...
--
To UNSUBSCRIBE, email to debian-russian-requ
старой памяти, могут расти из отсутствия portmap. На клиенте, кажется,
а не на сервере.
Могут, впрочем, быть и другие несовместимости. На сервере стоит
nfs-kernel-server?
Да.
Плохо понимаю ситуацию, на всякий случай вот rpcinfo:
main:/home/andrei# rpcinfo -p
прог-ма верс прото порт
Иван Лох wrote:
On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
Не могу разобраться, почему не идет запись по nfs ...
На двух машинах стоит lenny
1) rpcinfo -p
2) nfswatch
nfswatch -- может, не так? на нахожу
Ну и проверить, что одна версия протокола используется...
А
On Thu, Sep 02, 2010 at 08:24:56PM +0700, Andrei Lomov wrote:
Иван Лох wrote:
On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
Не могу разобраться, почему не идет запись по nfs ...
На двух машинах стоит lenny
1) rpcinfo -p
2) nfswatch
nfswatch -- может, не так? на
On Thu, Sep 02, 2010 at 05:53:19PM +0400, Иван Лох wrote:
On Thu, Sep 02, 2010 at 08:24:56PM +0700, Andrei Lomov wrote:
Иван Лох wrote:
On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
Не могу разобраться, почему не идет запись по nfs ...
На двух машинах стоит lenny
разобраться, почему не идет запись по nfs ...
На двух машинах стоит lenny
1) rpcinfo -p
2) nfswatch
nfswatch -- может, не так? на нахожу
http://nfswatch.sourceforge.net/
nfswatch:
Таблица версий:
4.99.11-1 0
500 ftp://ftp.fi.debian.org unstable/main
On Thu, Sep 02, 2010 at 01:15:56PM +0700, Andrei Lomov wrote:
Машина client монтирует ресурс:
/etc/fstab:
main:/mnt/pool /mnt/p...@main nfs
user,soft,tcp,retrans=10,timeo=1,retry=1,bg,noauto,rsize=8192,wsize=8192 0
Должно быть: hard,bg,intr,tcp,ver=3 и user (если надо)
soft - это зло, а
Всем привет. Может кто-нибудь подсказать в чем могут быть траблы с NFS?
Окружение:
* Сервер на debian lenny, клиент на убунте 10.04.
* Сеть Wifi g.
* На сервере расшарены папки по nfs4 (до этого был nfs3 и те же проблемы):
/srv/nfs4
192.168.0.0/16(ro,nohide,sync,no_subtree_check,insecure
Результаты 1 - 100 из 261 matches
Mail list logo