Ошибка 414 Request URI Too Large в Nginx

Читать далее

Ошибка 414 Request URI Too Large возникает в тех случаях, когда веб-сервер не способен обслужить запрос от клиента (т.е. веб-браузера или робота), потому что запрашиваемый URI (Request URI) длиннее, чем сервер может интерпретировать. Говоря простым языком, запрашиваемый веб-адрес слишком длинный, то есть содержит слишком много байтов. Читать далее “Ошибка 414 Request URI Too Large в Nginx”

Как исправить ошибку 413 Request Entity Too Large в Nginx

Читать далее

Ошибка появляется при загрузке файлов больше 1 мегабайта. Одна из причин — это дефолтные настройки nginx, а точнее параметра client_max_body_size, который по умолчанию равен 1mДиректива client_max_body_size задаёт максимально допустимый размер тела запроса клиента, указываемый в строке “Content-Length” в заголовке запроса. Если размер больше заданного, то клиенту возвращается ошибка “Request Entity Too Large” (413). Следует иметь в виду, что браузеры не умеют корректно показывать эту ошибку. Читать далее “Как исправить ошибку 413 Request Entity Too Large в Nginx”

Немного о Xargs

Читать далее

Об утилите xargs написано очень много — что можно написать еще? Но если, что называется, копнуть поглубже, то выясняется, что во многих публикациях излагаются лишь самые основы, но нет главного: не объясняется, как можно применять xargs в реальной практике. Статей с разбором сложных и нетривиальных вариантов применения этого весьма полезного для системного администратора инструмента, к сожалению, очень мало. Именно поэтому мы написали свою статью и постарались включить в нее как можно больше примеров использования xargs для решения различных проблем.

Сначала мы рассмотрим принцип работы xargs и разберем примеры попроще, а затем перейдем к разбору сложных и интересных кейсов. Читать далее “Немного о Xargs”

Как скачать сайт на Linux целиком через wget

Читать далее

С помощью wget можно скачивать сайты, включая картинки, всего лишь указав адрес сайта и определенные параметры. wget будет автоматически переходить по ссылкам на сайте и скачивать страницу за страницей. Рассмотрим несколько примеров от простых к более сложным использования wget для скачивания сайтов. Читать далее “Как скачать сайт на Linux целиком через wget”