ни более-менее рабочие (для npm не очень, не хватает sub_filter*,
но его можно утащить из примера для pypi)
Все они используют proxy_cache* с гибкими настройками параметров
кэширования - но мне это не очень удобно, т.к. кэш получается вещью в
себе, его нельзя использовать как репозиторий непосредс
On Sun, Nov 26, 2023 at 10:43:13AM +0300, Eugene Prokopiev wrote:
> и уже с proxy_ssl_server_name on наконец 200 - но с совершенно
> неожиданным http body (см. новую ветку - т.к. это уже явно не про
> репозитории)
Навскидку: удалить Via:, X-Forwarded-For:, X-Real-IP: и прочие
свитедельства
вс, 26 нояб. 2023 г. в 10:33, Evgeniy Berdnikov :
> Прочесть текст по ссылке? Там речь не про параметры ssl, однако.
Если я правильно читаю этот текст, то там про:
proxy_set_header Host repo.clojars.org
и возможно про:
proxy_ssl_name repo.clojars.org;
но с этими параметрами я по-прежнему
On Sun, Nov 26, 2023 at 09:53:54AM +0300, Eugene Prokopiev wrote:
> Requested host does not match any Subject Alternative Names (SANs) on
> TLS certificate
> [f38588ca7dc3f37ec048583198230295986084302bfd4d5c2d944911bd377a95] in
> use with this connection.
>
> Visit
>
чт, 23 нояб. 2023 г. в 18:36, Илья Шипицин :
>
> я передумал ))
>
> выглядит как безобидный способ убить кучу времени. но почему бы и нет
А сколько лет мы убили на JFrog Artifactory ... Начали с плагина на
groovy для неподдерживаемого типа репозитория, но в итоге перевезли
эту логику в OpenResty
ost localhost left intact
И что-то я не могу подобрать комбинацию из proxy_ssl_*, чтоб
repo.clojars.org отдал через pass_proxy что-нибудь более
вразумительное - подскажете?
Да, первоначальный вопрос про proxy_store vs proxy_cache* по-прежнему
актуален :)
--
WBR,
Eugene Prokopiev
я передумал ))
выглядит как безобидный способ убить кучу времени. но почему бы и нет
чт, 23 нояб. 2023 г. в 15:25, Eugene Prokopiev :
> Нету там POST - даже у самого замороченного npm, а у maven/pypi и
> метаданных-то толком нет - это примитивные файлопомойки, которые даже
> на S3 держать тожно
> Есть задача кэширования репозиториев maven/pypi/npm для разработки - и
>> гуглится куча примеров, как это сделать
>>
>> Но смущает, что во всех примерах используются директивы proxy_cache*,
>> а мне более удобным кажется proxy_store - в этом случае кэш
>> раскла
Нету там POST - даже у самого замороченного npm, а у maven/pypi и
метаданных-то толком нет - это примитивные файлопомойки, которые даже
на S3 держать тожно
чт, 23 нояб. 2023 г. в 16:24, Илья Шипицин :
>
> есть же прямо специализированные кеширующие прокси для, какой смысл
> кулибинствовать на
, как это сделать
>
> Но смущает, что во всех примерах используются директивы proxy_cache*,
> а мне более удобным кажется proxy_store - в этом случае кэш
> раскладываются по файлам аналогично оригиналу, понятно где, что и
> сколько места занимает, легко вручную удалить часть кэша и т.
;> гуглится куча примеров, как это сделать
>>
>> Но смущает, что во всех примерах используются директивы proxy_cache*,
>> а мне более удобным кажется proxy_store - в этом случае кэш
>> раскладываются по файлам аналогично оригиналу, понятно где, что и
>> сколько мест
i/npm для разработки - и
> гуглится куча примеров, как это сделать
>
> Но смущает, что во всех примерах используются директивы proxy_cache*,
> а мне более удобным кажется proxy_store - в этом случае кэш
> раскладываются по файлам аналогично оригиналу, понятно где, что и
> сколько ме
о сделать
>
> Но смущает, что во всех примерах используются директивы proxy_cache*,
> а мне более удобным кажется proxy_store - в этом случае кэш
> раскладываются по файлам аналогично оригиналу, понятно где, что и
> сколько места занимает, легко вручную удалить часть кэша и т.д.
&g
Здравствуйте!
Есть задача кэширования репозиториев maven/pypi/npm для разработки - и
гуглится куча примеров, как это сделать
Но смущает, что во всех примерах используются директивы proxy_cache*,
а мне более удобным кажется proxy_store - в этом случае кэш
раскладываются по файлам аналогично
Боюсь, что эти вопросы не относятся к теме рассылки.
Вам стоит сходить куда-то на StackOverflow или Toster. Обычно подобные
вопросы задают там.
Тут обсуждают Nginx и его модули/конфигурации.
2017-10-12 6:19 GMT+03:00 demolitionman :
> Чуть не забыл pgsql между собой
Чуть не забыл pgsql между собой тоже синхронизируются, какой софт
посоветуете для этого?
Posted at Nginx Forum:
https://forum.nginx.org/read.php?21,122768,276827#msg-276827
___
nginx-ru mailing list
nginx-ru@nginx.org
Вообще схема выглядит так
ASA+LB
|
|
|--nginx1---gunicorn--memcached---pgsql
|---|-|\---/--\--/---\/
|---|---FS\-/\/-\--/
|---|-|--\---/--\--/---\/
|---|--sync2---\-/\/-\--/
В общем папку static я создал на сервере nginx и все заработало, теперь я не
могу понять каким образом кешировать медиафайлы картинки на сервере nginx.
Posted at Nginx Forum:
https://forum.nginx.org/read.php?21,122768,276811#msg-276811
___
nginx-ru
В общем решили на каждом Nginx держать свой кэш. и с помощью sync2 делать
синхронизацию этого кэша.
Если один nginx отвалится то LB перенаправит на другой. как бы все ок.
Тут у меня другая проблема появилась, уже моск весь сломал. не отдает
gunicorn стили.
[error] 11431#0: *1 open()
у вас любой из nginx-ов может быть недоступен в какой-то момент времени
(например, полчаса, вы там систему переставляете)
явления, которые будут происходить в случае недоступности одного из двух
балансеров - контент окажется только на одном из балансеров.
кроме цепочек вам предстоит придумать,
Проще сделать цепочки
nginx1-nginx2-backend
nginx2-nginx1-backend
так будет вычисление одноразовое и контент сразу будет на обоих кешах.
Только надо не забыть сделать так, что если с nginx1 не доступен nginx2, то
пусть он сам перезапрашивает у backend.
+ любой из множества вариантов проверки на
demolitionman писал 2017-10-07 14:46:
Доброго дня комрады! С Ngnix знаком неделю, сроки горят. Настраиваю
связку
nginx+gunicorn+memcached+postgresql+Django
Уперся в одну задачу, пол дня ковыряю ни как решение найти не могу.
Задача такая есть два сервера nginx1 nginx2, необходимо что бы первый
Доброго дня комрады! С Ngnix знаком неделю, сроки горят. Настраиваю связку
nginx+gunicorn+memcached+postgresql+Django
Уперся в одну задачу, пол дня ковыряю ни как решение найти не могу.
Задача такая есть два сервера nginx1 nginx2, необходимо что бы первый сервер
кэшировал объекты (медиафайлы,
27 января 2017 г., 16:10 пользователь Maxim Dounin написал:
> В приведённом логе нет проксирования с кешированием, а есть отдача
> статического файла с помощью mp4-модуля. И до кучи - множество
> дополнительных действий, включая rewrite'ы, try_files и
> обработку заголовков
proxy_connect_timeout 30s;
> proxy_cached0;
> proxy_cache_valid 200 201 204 24h;
> proxy_cache_valid 301 302 304 24h;
> proxy_cache_valid 404 30m;
> proxy_cache_valid
/mp4, но
как только он попадает в кеш, периодически он отдается с Content-Type:
text/plain. При этом его длина верная и на диске файл лежит в нормальном
виде (как видео).
Настройки для прокси:
proxy_connect_timeout 30s;
proxy_cached0;
proxy_cache_valid 200 201
Hello!
On Wed, Oct 19, 2016 at 12:57:18AM +0100, Anton Kiryushkin wrote:
> Здравствуйте.
>
> У меня два вопроса к собравшимся.
> 1. Чем обсуловлено условие, по которому add_headers и expires нельзя
> добавить для кода ответа 502. Его можно кэшировать, но нельзя пытаться
> управлять этим
Здравствуйте.
У меня два вопроса к собравшимся.
1. Чем обсуловлено условие, по которому add_headers и expires нельзя
добавить для кода ответа 502. Его можно кэшировать, но нельзя пытаться
управлять этим кэшированием. Например, с помощью expires.
2. Собственно сам этот expires и cache-control,
n;
> proxy_no_cache $cookie_session;
>
> proxy_ignore_headers Set-Cookie;
> server {
> listen 80;
> server_name multiblender.ru www.multiblender.ru;
> log_format cache_status '[$time_local] "$request" $upstream_cache_status';
> access_log /var/log/cache.
nce off;
sub_filter '="aaa' '="bbb';
proxy_cache cache;
proxy_ignore_headers Expires;
proxy_ignore_headers Cache-Control;
proxy_cache_valid any 30m;
proxy_cache_valid 404 502 503 1m;
proxy_cache_key $host$uri$request_uri$is_args$args;
proxy_cache_bypass $cook
Hello!
On Wed, Nov 18, 2015 at 04:00:54PM -0500, vhvvx777 wrote:
> #proxy_hide_header "Set-Cookie";
> закоментировал эту строку и прошла авторизация
Это плохое решение. В результате у вас ответы будут кешироваться
вместе с заголовком Set-Cookie, и одна и та же кука будет
возвращаться из кеша
ля проверки
> работоспособности PHP сессий.
>
> Что я уже не менял, все равно не помогает, только если убрать proxy_cache
Беда в том, что вы в конфиге явно попросили nginx не верить тому,
что бекенд сообщает про возможность кеширования тех или иных
ответов, и вместо этого руководствоваться п
if ($cookie_dle_user_id) { return 412; }
if ($cookie_dle_password) { return 412; }
if ($request_method = POST ) {
return 412;
}
error_page 412 = @nocached;
proxy_cache hrportal;
proxy_cache_key
"$request_method|$http_if_modified_since|$http_if_none_match|$host|$request_uri";
proxy_no_cache $coo
Вот что нашел в файле авторизации.
set_cookie( "dle_user_id",
$member_id['user_id'], 365 );
set_cookie( "dle_password",
$row['password'], 365 );
Hello!
On Mon, Aug 17, 2015 at 08:11:11PM +0300, Eugene Toropov wrote:
Добрый вечер,
У меня странная (на мой взгляд) ситуация - есть proxy_cache_path, через
который ходят POST запросы с заголовком “Accept-Encoding: gzip”. В коде
клиента в ответе от nginx-а я вижу gzip-нутый body и
Добрый вечер,
У меня странная (на мой взгляд) ситуация - есть proxy_cache_path, через
который ходят POST запросы с заголовком “Accept-Encoding: gzip”. В коде
клиента в ответе от nginx-а я вижу gzip-нутый body и “Content-Encoding:
gzip”, но tcpflow показывает, что между nginx-ом и апстримом
On Monday 17 August 2015 20:11:11 Eugene Toropov wrote:
Добрый вечер,
У меня странная (на мой взгляд) ситуация - есть proxy_cache_path, через
который ходят POST запросы с заголовком “Accept-Encoding: gzip”. В коде
клиента в ответе от nginx-а я вижу gzip-нутый body и “Content-Encoding:
Добрый день.
Есть порядка 2ТБ картинок и видео, все это лежит на 1 sata диске, хочется
немного ускорить отдачу файлов
имеет ли смысл делать горячий кеш на ssd с помощью proxy_cache или proxy_store
?
При этом картинки и видео пополняются ежедневно, и количество запросов к данным
добавленным
Добрый день.
Надо сделать 2 кеша на 2 дисках для 2 разных локейшенов, но с try_files
локальных файлов.
Вариант
server {
server_name server80;
listen 80;
root /etc/nginx/html;
try_files $uri @local;
location @local {
;
proxy_cache cache1;
}
location /2/ {
try_files $uri @cache2;
}
location @cache2 {
proxy_pass http://server2;
proxy_cache cache2;
}
?
--
Maxim Dounin
http://nginx.org/
___
nginx-ru mailing list
nginx
Проверил с proxy_cache_valid, с явным указанием все работает.Спасибо огромное и низкий вам поклон! 11.09.2014, 20:05, "Maxim Dounin" mdou...@mdounin.ru:Hello!On Thu, Sep 11, 2014 at 07:21:27PM +0400, Den Bozhok wrote:Доброго дня!Пытаюсь настроить кеширование картинок но nginx отказывается
=1w max_size=100G;proxy_temp_path /var/www/cache/temp 2 2; server { listen 80; proxy_cache cache; location / { include snippet.d/origin; if ($origin = '') { set $origin "10.9.0.1"; } proxy_pass http://$origin; proxy_set_header Host storage.ostrovok.ru; proxy_
Hello!
On Thu, Sep 11, 2014 at 07:21:27PM +0400, Den Bozhok wrote:
Доброго дня!
Пытаюсь настроить кеширование картинок но nginx отказывается
кешировать. Не могу понять в чем может быть причина. Никаких лишних
заголовков от бэкенда не приходит,поэтому проблем быть не должно,
On Thursday 11 September 2014 19:21:27 Den Bozhok wrote:
Доброго дня!
Пытаюсь настроить кеширование картинок но nginx отказывается кешировать. Не
могу понять в чем может быть причина. Никаких лишних заголовков от бэкенда
не приходит,поэтому проблем быть не должно, однако..
Конфиг:
[..]
Expires Cache-Control Set-Cookie Pragma;
proxy_cache_use_stale error timeout invalid_header http_502;
proxy_cache_lock on;
proxy_cache_methods GET HEAD;
proxy_cache_min_uses 3;
...
дальше описан сервер, там
location / {
proxy_pass ...;
proxy_cache cache;
}
Права на /var/lib/nginx
;
proxy_cache_use_stale error timeout invalid_header http_502;
proxy_cache_lock on;
proxy_cache_methods GET HEAD;
proxy_cache_min_uses 3;
...
дальше описан сервер, там
location / {
proxy_pass ...;
proxy_cache cache;
}
Права на /var/lib/nginx выставлены 777 рекурсивно. Каталоги
*)/(.*)$ {
proxy_pass http://mydomain.com;
rewrite ^/w(\d*)/(.*)$ /$2 break;
image_filter resize $1 -;
image_filter_jpeg_quality 95;
image_filter_buffer 4M;
proxy_cache image-preview;
proxy_cache_key $host$document_uri
On 05/27/13 14:16, Андрей Василишин wrote:
Ситуация такая, нгинкс с proxy_cache стоит перед FMS, и все хорошо, когда размер
фрагмента больше 1Мб, кусок сразу отдается пользователю, когда размер меньше
1Мб, почему-то идет задержка 1с.
Добавьте $upstream_response_time в лог, чтобы видеть где
On May 27, 2013, at 11:32 AM, Андрей Василишин a.vasilis...@kpi.ua wrote:
27.05.2013 13:28, Anatoly Mikhailov пишет:
Проксирование перед медиа-сервером? Видео отдаете через HTTPS?
Если да, то чем это лучше отдачи через модуль псевдостримминга
nginx_mp4_module?
нет, не HTTPS, лучше тем,
27.05.2013 13:41, Anatoly Mikhailov пишет:
On May 27, 2013, at 11:32 AM, Андрей Василишин a.vasilis...@kpi.ua wrote:
27.05.2013 13:28, Anatoly Mikhailov пишет:
Проксирование перед медиа-сервером? Видео отдаете через HTTPS?
Если да, то чем это лучше отдачи через модуль псевдостримминга
27.05.2013 14:53, Eugene Mychlo пишет:
Можно немного поподробнее про задачу парсинга? Фраза не совсем понятна.
Ну, вот скажем перелить на свой сервер файл при nginx_mp4_module не
составляет особого труда и при этом не потребуется пост обработка, а вот
100500 кусочков HLS - уже проблема.
51 matches
Mail list logo