Перейти к содержанию

fluxy

Members
  • Постов

    10
  • Зарегистрирован

  • Посещение

    Никогда

Достижения fluxy

  1. Доброго времени суток! Если кто-то знает или у кого есть реальный опыт установки почтового сервера в кластерной среде типа LVS, подскажите, как решить следующую проблему: есть 2 машины, есть 1 active router, который в режиме round-robin отправляет все коннекты на 25-порт на эти 2 сервера по очереди. Вопрос в том, что оба почтовых сервера, в этом случае, должны иметь одинаковый /var/spool/mail. Была предпринята попытка сделать NFS шару. Оказалось, что, например, sendmail доставляет письмо 30 секунд. Только через этот интервал в ящик пользователю реально кладется письмо. В логах (maillog, messages) никаких ошибок. Все в штатном порядке. Видимо local mailer о чем-то думает перед тем как реально бросить в ящик письмо...))) В чем может быть проблема и какой выход из этой ситуации кто-то может посоветовать?)))
  2. Сделал! Все заработало!!! Спсибо большое! А почему это надо было делать можно вопрос? Потомучто появилось какое-то новое железо на другой машине, поддержка которого не входит в предыдущий initial ram disk?)
  3. Т.е. грузауться с rescueCD и сделать mkinitrd новый... и все?
  4. Приветствую всех! У меня возникла проблема с переносом винта на другую машину... На той, что я ставил и настраивал linux, винт IDE был Primary Slave. Возникла необходимость перенести винт на др. машину. BIOS на новой машине может грузить только Primary Master, к сожалению. В результате получаю kernel panic с сообщением volume group "VolGroup00" not found... Что можно сделать? # fdisk -l Device Boot Start End Blocks Id System /dev/sda1 * 1 13 104391 83 Linux /dev/sda2 14 38880 312199177+ 8e Linux LVM # cat /boot/grub/grub.conf ... title Fedora Core (2.6.22.9-61.fc6) root (hd0,0) kernel /vmlinuz-2.6.22.9-61.fc6 ro root=/dev/VolGroup00/LogVol00 quiet initrd /initrd-2.6.22.9-61.fc6.img ... # mount ... /dev/mapper/VolGroup00-LogVol00 on / type ext3 (rw) /dev/sda1 on /boot type ext3 (rw) ...
  5. Пожалуйста!!! # iptables -L -n -v -t nat Chain PREROUTING (policy ACCEPT 2974K packets, 187M bytes) pkts bytes target prot opt in out source destination Chain POSTROUTING (policy ACCEPT 26607 packets, 2758K bytes) pkts bytes target prot opt in out source destination 736K 56M SNAT all -- * eth1 0.0.0.0/0 0.0.0.0/0 to:10.0.0.2 Chain OUTPUT (policy ACCEPT 763K packets, 59M bytes) pkts bytes target prot opt in out source destination -o eth0 я убрать не могу, т.к. мне надо чтобы только через eth1 SNAT делался... Иначе хренова туча сервисов работать не будут. # cat /proc/sys/net/ipv4/ip_forward 1 Картина та же..))) tcpdump'ом я вижу траф от 10.0.1.2.domain -> x.x.x.x.domain
  6. Почему не отрабатывается действие SNAT в POSTROUTING. Ситуация: eth0: ip_addr 10.0.1.2/24 eth1: ip_addr 10.0.0.2/24 # iptables -A POSTROUTING -t nat -o eth1 -j SNAT --to-source 10.0.0.2 # iptables -L -t nat Chain PREROUTING (policy ACCEPT) target prot opt source destination Chain POSTROUTING (policy ACCEPT) target prot opt source destination SNAT all -- anywhere anywhere to:10.0.0.2 Chain OUTPUT (policy ACCEPT) target prot opt source destination # tcpdump ip proto \\udp -i eth1 -n | grep domain | grep 10.0.1.2 tcpdump: verbose output suppressed, use -v or -vv for full protocol decode listening on eth1, link-type EN10MB (Ethernet), capture size 96 bytes 13:04:09.112904 IP 10.0.1.2.domain > xxx.xxx.xxx.xxx.domain: 49944 [1au] A? xxx.xxx. (42) 13:04:17.920696 IP 10.0.1.2.domain > xxx.xxx.xxx.xxx.domain: 47423 [1au] A? xxx.xxx. (42) 1813 packets captured 3632 packets received by filter 0 packets dropped by kernel У кого-нибудь такое было? Кстати, все записи одного характера: 10.0.1.2.domain -> another_ip_addr.domain В обоих случаях domain->domain, записей типа ip_addr.UNPIVILEGED_PORT -> xxx.xxx.xxx.xxx.domain нет, т.к. они реально отрабатываются SNAT'ом.
  7. Черт знает что, но устновка значения метки в 10 помогла)))... С --set-mark 1 не работало... Спасибо огромное.
  8. http://www.opennet.ru/docs/RUS/iptables/#TRAVERSINGGENERAL Таблица 3-3. От локальных процессов CUT -> 1 шаг. Локальный процесс (т.е., программа-сервер или программа-клиент). 2 шаг. Принятие решения о маршрутизации. Здесь решается куда пойдет пакет дальше -- на какой адрес, через какой сетевой интерфейс и пр. 3 шаг. T-mangle, C-OUTPUT. Здесь производится внесение изменений в заголовок пакета. Выполнение фильтрации в этой цепочке может иметь негативные последствия. <-
  9. Типа того... Относительно IPTables: iptables -t mangle -A OUTPUT -p tcp --dport 25 -j MARK --set-mark 1 iptables -t mangle -A OUTPUT -p tcp --dport 80 -j MARK --set-mark 1 Относительно iproute2: echo eth1out >> /etc/iproute2/rt_tables ip rule add fwmark 1 table eth1out ip route add default via ETH1_GW dev eth1 table eth1out ip route flush cache
  10. Доброе время суток всем! Есть 2 канала в инет, 2 сетевых адаптера. Необходимо трафик от почтового сервера и от прокси заруливать на определенный интерфейс, а весь остальной трафик на другой (сервисы почты и прокси крутятся на данной машине). Более наглядно: 1 channel - eth0 2 channel - eth1 Шлюз по умолчанию eth0. На шлюз, который определен для eth1 необходимо бросать все пакеты с sport tcp/80, tcp/25. Весь остальной трафик - на шлюз по умолчанию для eth0. Пробовал решить проблему маркирокой пакета на этапе прохождения табл. mangle цепочки OUTPUT, а далее iproute'ом обрабатывать данные пакеты определяя для них другой шлюз по умолчанию (от eth1). Но как выяснилось система принимает решение о маршрутизации сразу после того как пакет вообще попадет в цепочку OUTPUT, следовательно ставить метки на пакет получилось бессмысленным. Как тут быть?
×
×
  • Создать...