Перейти к содержанию

handler

Members
  • Постов

    286
  • Зарегистрирован

  • Посещение

    Никогда

Сообщения, опубликованные handler

  1. Удалил все правила из фаервола, относящиеся к портам настраиваемой игры, поставил клиент с офф. сайта - клиент норм. видит сервера в интернет и стучится норм. на офф. сайт.

    Запускаю сервер в двух режимах - с указанием локального ip и без:

    Режим 1:

    CODE

    ./hlds_run -game cstrike +map de_dust -autoupdate +ip 192.168.1.1

    Auto detecting CPU

    Using Pentium II Optimised binary.

    Auto-restarting the server on crash

    Updating server using Steam.

    Checking bootstrapper version ...

    Updating Installation

    Checking/Installing 'Counter-Strike Base Content' version 35

    Checking/Installing 'Linux Server Engine' version 53

    Checking/Installing 'Half-Life Base Content' version 12

    HLDS installation up to date

    Console initialized.

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    Protocol version 48

    Exe version 1.1.2.6/Stdio (cstrike)

    Exe build: 15:58:06 Jun 15 2009 (4617)

    STEAM Auth Server

    couldn't exec language.cfg

    Server IP address 192.168.1.1:27015

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    [s_API FAIL] SteamAPI_Init() failed; unable to update local steamclient. Continuing with current version anyway.

    Adding master server 72.165.61.189:27010

    Adding master server 68.142.72.250:27010

    couldn't exec listip.cfg

    couldn't exec banned.cfg

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    [s_API FAIL] SteamAPI_Init() failed; unable to update local steamclient. Continuing with current version anyway.

    Adding master server 69.28.151.162:27010

    Adding master server 68.142.72.250:27010

    Could not establish connection to Steam servers.

    cminterface.cpp (680) : Assertion Failed: 0 != m_hConnection

    cminterface.cpp (680) : Assertion Failed: 0 != m_hConnection

    Режим 2:

    CODE

    ./hlds_run -game cstrike +map de_dust -autoupdate

    Auto detecting CPU

    Using Pentium II Optimised binary.

    Auto-restarting the server on crash

    Updating server using Steam.

    Checking bootstrapper version ...

    Updating Installation

    Checking/Installing 'Counter-Strike Base Content' version 35

    Checking/Installing 'Linux Server Engine' version 53

    Checking/Installing 'Half-Life Base Content' version 12

    HLDS installation up to date

    Console initialized.

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    Protocol version 48

    Exe version 1.1.2.6/Stdio (cstrike)

    Exe build: 15:58:06 Jun 15 2009 (4617)

    STEAM Auth Server

    couldn't exec language.cfg

    Server IP address 127.0.0.1:27015

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    [s_API FAIL] SteamAPI_Init() failed; unable to update local steamclient. Continuing with current version anyway.

    Adding master server 69.28.151.162:27010

    Adding master server 72.165.61.189:27010

    couldn't exec listip.cfg

    couldn't exec banned.cfg

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    [s_API FAIL] SteamAPI_Init() failed; unable to update local steamclient. Continuing with current version anyway.

    Adding master server 68.142.72.250:27010

    Adding master server 69.28.151.162:27010

    Connection to Steam servers successful.

    VAC secure mode is activated.

    Reconnected to Steam servers.

    VAC secure mode is activated.

    Reconnected to Steam servers.

    VAC secure mode is activated.

    Reconnected to Steam servers.

    VAC secure mode is activated.

    cminterface.cpp (680) : Assertion Failed: 0 != m_hConnection

    cminterface.cpp (680) : Assertion Failed: 0 != m_hConnection

    В обоих случаях клиент не видит мой сервер.

    Если мы выключим сервер и на его место поставим netcat слушать 27015 порт , то получим строку запроса от клиента:

    CODE

    nc -l 27015 -u

    ����TSource Engine Query ^C

    Почему же сервер не отвечает?

  2. Здравствуйте!

    Задача: организовать доступ к папке ./stat по логину/паролю

    1) httpd.conf

    <Directory "/var/www/html/stat">

    AuthType Basic

    AuthName "Administrative zone"

    AuthBasicProvider file

    AuthUserFile /var/www/html/stat/.htpasswd

    Require valid-user

    </Directory>

    2) .htaccess

    AuthType Basic

    AuthName "NeTAMS Administrators Only"

    AuthBasicProvider file

    AuthUserFile /var/www/html/stat/.htpasswd

    Require user admin

    3) > htpasswd -c /var/www/html/stat/.htpasswd admin

    создаем пароль для админа

    4) service httpd restart

    заходим на страничку в вышеуказанной директории, вводим запрашиваемый логин/пароль и браузер возвращает нас на окно авторизации.

    Нажимаем <Esc> - выдает:

    Authorization Required

    This server could not verify that you are authorized to access the document requested. Either you supplied the wrong credentials (e.g., bad password), or your browser doesn't understand how to supply the credentials required.

    Кто-нибудь настраивал ограниченный доступ к директориям?

  3. Был на оф. форуме контры - там дали ссылки на софт, сказали, что сервер бесплатный, клиент платный. Скачал у них клиента для коннекта к оф. серверу - теперь клиент сервера в мире видит, а мой - нет.

    Странно то, что порт 27015 в форвардинге я не пробрасывал, а он все равно в мир видит.

    И еще:

    Если, к примеру, мы по-пробуем прослушать порт 80:

    # nc localhost -l 80

    nc: Address already in use

    а если порт 27015 то начинает слушать.

    И вообще, как можно узнать, какие порты проходят форвардом, инпутом и оутпутом?

    nc показал:

    nc -vvzu 192.168.1.1 27000-27030

    Connection to 192.168.1.1 27015 port [udp/*] succeeded!

    tcpdump показывает все порты на интерфейсе, но это не дает картины открыты порты или нет

  4. # ip ro ls

    10.10.20.0/24 dev eth2 proto kernel scope link src 10.10.20.10

    10.10.50.0/24 dev eth1 proto kernel scope link src 10.10.50.10

    10.10.30.0/24 dev eth3 proto kernel scope link src 10.10.30.10

    10.10.10.0/24 dev eth1 proto kernel scope link src 10.10.10.10

    192.168.122.0/24 dev virbr0 proto kernel scope link src 192.168.122.1

    10.10.40.0/24 dev eth4 proto kernel scope link src 10.10.40.10

    169.254.0.0/16 dev eth2 scope link metric 1002

    169.254.0.0/16 dev eth3 scope link metric 1003

    169.254.0.0/16 dev eth4 scope link metric 1004

    169.254.0.0/16 dev eth0 scope link metric 1005

    169.254.0.0/16 dev eth1 scope link metric 1006

    192.168.0.0/16 dev eth0 proto kernel scope link src 192.168.1.1

    default

    nexthop via 10.10.10.1 dev eth1 weight 1

    nexthop via 10.10.20.1 dev eth2 weight 1

    nexthop via 10.10.30.1 dev eth3 weight 1

    nexthop via 10.10.40.1 dev eth4 weight 1

    ]# ip ru ls

    0: from all lookup local

    32758: from all fwmark 0x28 lookup RT4

    32759: from all fwmark 0x1e lookup RT3

    32760: from all fwmark 0x14 lookup RT2

    32761: from all fwmark 0xa lookup RT1

    32762: from 10.10.40.10 lookup RT4

    32763: from 10.10.30.10 lookup RT3

    32764: from 10.10.20.10 lookup RT2

    32765: from 10.10.10.10 lookup RT1

    32766: from all lookup main

    32767: from all lookup default

    для eth1 создано два интерфейсв

  5. Не берусь утверждать, но, по-моему, свитч флудит - такие пинги для него как раз.

    У меня такое было - в основном это после гроз бывает: падает скорость по локалке, отказывают порты в разное время суток, пинги по сети ~ 1 мск, на сервер большие файлы не заливаются.

    Свитч меняем и забываем где он вообще стоит (до следующей грозы)

  6. Ответ прост - тар-архив

    все запаковал на внешний винт, переразбил винт и распаковал назад и кодировка не помешала, а то копированием нельзя скопировать файлы с кодировкой, отличающейся от кодировки системы.

    только странно что винт был 320гектар а после переразбивки стал 298гектар.

    Делал сначала fdisk -> mkfs -t ext3 /dev/sda1 -> mnt /dev/sda1 /mnt

    неужели 20 гектар ушло под журналы?

    fdisk показал полный объем

  7. На Вашем месте я бы обратил внимание на мандриву - она концептуально ничем не отличаеися от винды.

    Ставьте последний релиз - там все в одном флаконе: и видео и обновление ч/з интернет и многое другое что Вам пригодится.

    Есть еще асп-линукс - это русская версия линуха

  8. Здравствуйте!

    Когда-то давно пробовал поставить свой игровой сервер, почитал статьи, установил сервер, клиент, все вроде коннектилось но толком не заработало, так и оставил это не решенным до конца.

    Теперь решил возобновить попытки. Ситуация такова:

    статья взята отсюда: http://www.opennet.ru/base/sys/game_server.txt.html

    ОС fedora10

    установил пакеты:

    сервер

    hldsupdatetool.bin

    engine.v15.tgz

    клиент

    cs16full-v7.exe

    фаервол:

    ${FW} -A OUTPUT -o $IF_LOCAL -p udp --dport 1200 -j ACCEPT

    ${FW} -A OUTPUT -o $IF_LOCAL -p udp --dport 27000:27020 -j ACCEPT

    ${FW} -A OUTPUT -o $IF_LOCAL -p tcp --dport 27030:27039 -j ACCEPT

    ${FW} -A INPUT -i $IF_LOCAL -p udp --dport 1200 -j ACCEPT

    ${FW} -A INPUT -i $IF_LOCAL -p udp --dport 27000:27020 -j ACCEPT

    ${FW} -A INPUT -i $IF_LOCAL -p tcp --dport 27030:27039 -j ACCEPT

    Запускаем сервер:

    # ./hlds_run -game cstrike +maxplayers 8 +map de_aztec

    Auto detecting CPU

    Using Pentium II Optimised binary.

    Auto-restarting the server on crash

    Console initialized.

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    Protocol version 48

    Exe version 1.1.2.6/Stdio (cstrike)

    Exe build: 15:58:06 Jun 15 2009 (4617)

    STEAM Auth Server

    couldn't exec language.cfg

    Server IP address 127.0.0.1:27015

    Metamod version 1.19 Copyright © 2001-2006 Will Day <willday@metamod.org>

    Metamod comes with ABSOLUTELY NO WARRANTY; for details type `meta gpl'.

    This is free software, and you are welcome to redistribute it

    under certain conditions; type `meta gpl' for details.

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    [s_API FAIL] SteamAPI_Init() failed; unable to update local steamclient. Continuing with current version anyway.

    Adding master server 68.142.72.250:27010

    Adding master server 69.28.151.162:27010

    scandir failed:/usr/hlds/./valve/SAVE

    scandir failed:/usr/hlds/./platform/SAVE

    [s_API FAIL] SteamAPI_Init() failed; unable to update local steamclient. Continuing with current version anyway.

    Adding master server 69.28.151.162:27010

    Adding master server 72.165.61.189:27010

    Connection to Steam servers successful.

    VAC secure mode is activated.

    запускаем клиент на ХР, но он не видит ни локального сервера, ни внешних.

    Думаю, что фаервол тут не при чем, скорее несовпадение в версиях

    Кто-нибудь устанавливал у себя сервер?

  9. Здравствуйте!

    OS - Fedora10

    Имеем жесткий диск /dev/sda 320 Gb , на нем раздел sda8 с файлами

    Задача: скопировать файлы на флешку, переформатировать винт и скопировать ФАЙЛЫ (НЕ РАЗДЕЛ!) во вновь созданный раздел.

    Задача усложняется тем, что кодировка текущей системы не совпадает с кодировкой файлов, а так я не могу перенести файлы простым копированием.

    Решено перенести раздел командой dd, только как потом вернуть содержимое раздела?

    Вот тип исходного раздела

    [root@server genesis]# df -T

    Filesystem Type 1K-blocks Used Available Use% Mounted on

    /dev/sda8 xfs 195222868 195222848 20 100% /asp

    Я создал раздел 200Гб на /dev/sdc (sdc1), затем создал на нем файловую систему:

    [root@server genesis]# mkfs -t ext3 /dev/sdc1

    mke2fs 1.41.3 (12-Oct-2008)

    /dev/sdc1 is mounted; will not make a filesystem here!

    [root@server genesis]# umount /media/disk/

    [root@server genesis]# mkfs -t ext3 /dev/sdc1

    mke2fs 1.41.3 (12-Oct-2008)

    Filesystem label=

    OS type: Linux

    Block size=4096 (log=2)

    Fragment size=4096 (log=2)

    13115392 inodes, 52430127 blocks

    2621506 blocks (5.00%) reserved for the super user

    First data block=0

    Maximum filesystem blocks=0

    1601 block groups

    32768 blocks per group, 32768 fragments per group

    8192 inodes per group

    Superblock backups stored on blocks:

    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,

    4096000, 7962624, 11239424, 20480000, 23887872

    Writing inode tables: done

    Creating journal (32768 blocks): done

    Writing superblocks and filesystem accounting information: done

    This filesystem will be automatically checked every 34 mounts or

    180 days, whichever comes first. Use tune2fs -c or -i to override.

    затем смонтировал:

    [root@server genesis]# mount /dev/sdc1 /mnt

    затем скопировал исходный раздел :

    [root@server genesis]# dd if=/dev/sda8 of=/mnt/1 bs=4K

    48829559+1 records in

    48829559+1 records out

    200005876224 bytes (200 GB) copied, 6243.35 s, 32.0 MB/s

    Теперь он лежит у меня одним файлом, а как его распаковать обратно с sdc на sda (после того, как последний будет переразбит и размеры разделов не будут совпадать)?

  10. gogi писал(а) Fri, 24 July 2009 16:14

    Я не совсем понял Вашу схему. Если проблема ещё не решилась, нарисуйте более подробную схемку с указанием клиента, выхода в инет, на каком интерфейсе поднят vpn, адресов интерфейсов и т.д..

    Имеется компьютер с пятью сетевыми картами eth0, eth1, eth2, eth3, eth4 и ОС Fedora10

    Сетевая карта eth0 имееет адрес 192.168.1.1/16 и смотрит в локальную сеть

    Сетевая карта eth1 имеет адрес 10.10.10.10/24 и смотрит на адсл-модем

    Сетевая карта eth2 имеет адрес 10.10.20.10/24 и смотрит на адсл-модем

    Сетевая карта eth3 имеет адрес 10.10.30.10/24 и смотрит на адсл-модем

    Сетевая карта eth4 имеет адрес 10.10.40.10/24 и смотрит на адсл-модем

    Всем пользователям назначены статические адреса в диапазоне 192.168.0.0/16

    Далее фаервол настроен на статическую маршрутизацию адресов, т. е. все пользователи разделены на четыре группы и каждая группа роутится на один из модемов.

    Для этого созданы четыре таблицы маршрутизации.

    Так есть сейчас.

    Наша задача: динамически распределять пользователей по модемам по следующей схеме:

    1. Пользователь получает динамический адрес от DHCP-сервера из диапазона 192.169.0.0/16

    2. Пользователь создает впн-подключение к серверу по логину/паролю

    3. скрипт инициализации ppp-канала прописывает вышеуказанные правила форвардинга и маршрутизации, назначая ему динамически один из четырех маршрутов.

    В последнем пункте загвоздка с маршрутизацией.

    Для чистоты эксперимента скрипт сбрасывает вначале все таблицы маршрутизации и правола iptables но клиент не может выйти в интернет.

    буду рад Вашим соображениям

  11. И снова здравствуйте!

    Имеем роутер на базе Fedora10 с 5-ю сетевыми картами:

    eth0 - смотрит в локаль (192.168.0.0/16)

    eth1-4 - смотрят в нет (ч/з адсл-модемы)

    Адреса клиентам раздаются ДНСП (192.169.0.0/16)

    Клиенты подключаются к интернет ч/з ВПН

    Скрипт инициализации ВПН-соединения: (/etc/ppp/ip-up)

    $1 - имя создаваемого интерфейса (ppp0)

    $5 - адрес, насначаемый клиенту (к примеру 192.168.10.20)

    $4 - адрес роутера (192.168.1.1)

    iptables -I INPUT -i $1 -s $5 -d $4 -j ACCEPT

    iptables -I INPUT -i $1 -s $5 -d $4 -j LOG --log-prefix "INPUT "

    эти правила работают, клиент видит сервер, но в логи ничего не попадает

    iptables -I FORWARD -i $1 -s $5 -j ACCEPT

    iptables -I FORWARD -i $1 -s $5 -j LOG --log-prefix "FORWARD "

    iptables -t nat -I POSTROUTING -i eth1 -s $5 -j SNAT --to-source (ip_eth1)

    iptables -t nat -I POSTROUTING -i eth1 -s $5 -j LOG --log-prefix "POSTROUTING"

    iptables -I FORWARD -o $1 -m state --state RELATED,ESTABLISHED -j LOG --log-prefix "BACKWARD"

    iptables -I FORWARD -o $1 -m state --state RELATED,ESTABLISHED -j ACCEPT

    Правила форвардинга и построутинга в логи попадают, а обратный форвардинг - нет

    в логи пишет:

    Jul 23 18:44:36 server kernel: FORWARD PPP0: IN=ppp0 OUT=eth1 SRC=192.169.111.1 DST=69.147.83.40 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=34218 DF PROTO=TCP SPT=3472 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Jul 23 18:44:36 server kernel: POSTROUTING PPP0: IN= OUT=eth1 SRC=192.169.111.1 DST=69.147.83.40 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=34218 DF PROTO=TCP SPT=3472 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Jul 23 18:44:39 server kernel: FORWARD PPP0: IN=ppp0 OUT=eth1 SRC=192.169.111.1 DST=69.147.83.40 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=34222 DF PROTO=TCP SPT=3472 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Jul 23 18:44:45 server kernel: FORWARD PPP0: IN=ppp0 OUT=eth1 SRC=192.169.111.1 DST=69.147.83.40 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=34267 DF PROTO=TCP SPT=3472 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Jul 23 18:44:58 server kernel: FORWARD PPP0: IN=ppp0 OUT=eth4 SRC=192.169.111.1 DST=91.198.36.14 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=35074 DF PROTO=TCP SPT=3498 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Jul 23 18:44:58 server kernel: POSTROUTING PPP0: IN= OUT=eth4 SRC=192.169.111.1 DST=91.198.36.14 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=35074 DF PROTO=TCP SPT=3498 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Jul 23 18:45:01 server kernel: FORWARD PPP0: IN=ppp0 OUT=eth4 SRC=192.169.111.1 DST=91.198.36.14 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=35076 DF PROTO=TCP SPT=3498 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Jul 23 18:45:07 server kernel: FORWARD PPP0: IN=ppp0 OUT=eth4 SRC=192.169.111.1 DST=91.198.36.14 LEN=48 TOS=0x00 PREC=0x00 TTL=127 ID=35078 DF PROTO=TCP SPT=3498 DPT=80 WINDOW=65535 RES=0x00 SYN URGP=0

    Как правильно разрешить форвардинг клиентам?

  12. Имеем роутер с двумя сетевыми подключениями:

    между роутером и клиентом ppp (vpn)

    между роутером и внешкой eth

    Для форвардинга нам необходимо два правила - одно внутрь и одно наружу:

    iptables -A FORWARD -i ppp -d eth -j ACCEPT

    iptables -A FORWARD -i eth -d ppp -m state --state RELATED,ESTABLISHED -j ACCEPT

    и одно для ната:

    iptables -t nat -A POSTROUTING -s ppp -j SNAT --to eth

    Я правильно понимаю суть вещей?

  13. Здравствуйте!

    Это не видео-чат, это - трансляция выступления, к примеру, директора корпорации, во всех удаленных офисах по впн-туннелю.

    Для начала нам необходимо организовать этот самый впн-туннель, но как это сделать, если нет белых адресов

    (работаем ч/з адсл-модемы укртелекома)

    И второе: как запихнуть видео с камеры в туннель.

    Буду признателен за ссылки на статьи.

    Если честно, сам в поиске, кроме стандартных настроек ничего не нашел.

  14. Пожалуй, Вы правы - действующие правила мешают нормальному тестированию нового набора правил, хоть и ставлю их в начало.

    Сам IPTABLES с предложенными Вами правилами пускает в обе стороны (TCPDUMP показал одну строчку ответа от удаленного узла), но за ним стоит шейпер, который режет скорость и сортирует адреса по каналам. Скорее всего он не пускает дальше, а кидает его в DEFAULT.

    Вся трабла в том, что это роутер сети и играться в нем правилами непозволительно, вот и изворачиваюсь, как могу.

  15. Проблема 1:

    В скриптах /etc/ppp/ip-up и ip-down правила IPTABLES добавляются в конец после DROP и потому они не применяются ни одной из команд: -A(ADD) -I(INSERT)

    Проблема 2:

    Насколько я понимаю, VPN-туннель попадает в цепочку FORWARD. Тогда пишем:

    IPTABLES -A FORWARD -i ppp+ -j ACCEPT

    Это значит мы пропустили в одну сторону.

    Нам осталось его завернуть NAT-ом и пропустить в обратную сторону.

    Помогите составить последние два правила

  16. Извините за неудобства - больше этого не повторится!

    Значит, на каждого клиента у нас будет создаваться отдельный канал ppp0, ppp1, и т. д.

    Теперь нам надо для каждого туннеля назначить маршрут, куда ему ходить и канал, предварительно созданный шейпером tc.

    В настоящий момент у нас статическая адресация и правила маршрутизации, фаервола и шейпера, загружаются одноразово при выполнении загрузочных скриптов, а тут надо выполнять динамическую маршрутизацию в момент создания туннеля.

    На сервере имеем:

    /etc/ppp/ip-up(ip-down). Директории pptp нет

    для того, чтобы удостовериться, что это скрипты отрабатывают при создании туннеля в файл ip-up добавил маршрут по-умолчанию:

    route add default gw x.x.x.x

    Но маршрут не работает, т. е. интернета на клиенте нет.

    Подскажите, пожалуйста, как правильно назначить маршрут туннелю?

  17. поставил pptp попробовал коннектиться с windows-клиента и линукс-клиента все работает

    теперь следующие вопросы

    при коннекте клиента создается канал ppp0 а если второй клиент сделает коннект он попадет в существующий ppp0 или для енго будет создан новый канал ppp1?

    кстати как сделать на линуксе чтобы он устанавливал два впн-подключения (для тестирования впн-сервера)?

    мы ведь можем одной машине назначить два адреса

    далее этот самый pptpd работает в связке с pppd а у последнего скорость для диалапа - этот впн-сервер не будет резать скорость до 56К?

    думаю в chap-secrets прописать привязку ip к логину и паролю и поднять dhcp чтобы клиент настраивал сразу впн-канал и привязать arp мак-адрес к ип тогда у нас получится что клиент сможет выходить в интернет только с конкретной машины под своим логином а статистику будем собирать по заранее назначеным ип

    вот еще бы отрабатывать скрипты при коннекте и дисконнекте каждого пользователя - на стороне клиента они есть(pppdUp PppdDown) а вот на стороне сервера чтоб назначить маршрут каналу и шейпить его а после дисконнекта освободить канал

  18. здравствуйте!

    имеем локальную сеть на 100 пользователей с выходом в интернет ч/з 3 адсл-модема по 4 Мбита каждый

    роутер - федора 10

    распределение нагрузки статическое

    весь канал 12 Мбит делим по 512 Кбит "tc"

    пользователей делим на группы и каждую группу в отдельный канал "iptables"

    при таком количестве абонентов схема вполне работоспособна, но при увеличении числа абонентов сразу упадет

    Вопрос:

    какое число абонентов можно обслужить с такой шириной канала при правильной балансировке чтобы каждому было доступно не менее 512 Кбит, трафик неограниченный

    netams пока настроен для сбора статистики, настроить на биллинг мне пока не удалось

  19. итак имеем сервер и клиент - оба прекрасно работают как видно из логов указанных выше но связи друг другом не имеют независимо от того на одной машине они запущены или на разных

    может фаервол не пускает но в логи пишет что открыт по определенному порту

    тогда аутетнтификация

    у кого-то вообще работает локальный чат?

×
×
  • Создать...