Перейти к содержанию

Aceler

Members
  • Постов

    1760
  • Зарегистрирован

  • Посещение

    Никогда

Весь контент Aceler

  1. "Jan 16 00:27:02 linux gdm[5831]: Перезагрузка компьютера..." А вы как этот файл прочитали??? После перезагрузки?
  2. А не могли бы вы все же организовать отдельную ветку? Эвил, а вы претензии к Kopete все же поконкретнее. Глядишь - и реализуем.
  3. Можно я повешу третий значок "почетный телепат линукс.ру" и скажу, что вам надо для решения вашей задачи запускать VNC как сервис, тогда он запустит все необходимые приложения и они постоянно будут висеть в памяти, независимо от того, подключен пользователь или нет?
  4. Выделенный пункт - это как раз вызов главного меню. Проверьте, на что он влияет.
  5. См. скриншот. Где они, интересно, перевод взяли....
  6. 2 White_mouse root в ubuntu заблокирован. Но если вы назначите ему пароль, он будет работать как и в других системах.
  7. Центр управления KDE -> региональные и специальные настройки -> горячие клавиши. Будьте вежливее.
  8. /me вешает на грудь значок "почетный телепат Linux.ru"
  9. Ну вот когда у нас будет Wiki - тогда и будет раздел. ОК?
  10. Ну вы же не знаете, где находится машинка с линуксом и где хаб... А ставить новую - это те самые тысячи. Лучше пусть изучает Perl Или любой другой PCRE язык.
  11. Maestro писал(а) Fri, 12 January 2007 08:48 всего делов то... На несколько тысяч рублей
  12. По теме. Попробуйте snort в режиме snort -dev. А вывод его перенаправьте на перловый скрипт, который будет парсить URL.
  13. esvaf писал(а) Fri, 12 January 2007 00:11 1.Это действительно Х_А_Б и никто другой, даже могу сходить модель посмотреть если это пригодится. 2.Какие непускаемые адреса провайдера? Надо СПИСОК ПОСЕЩЕННЫХ АДРЕСОВ(даже не важно работают ли они - в браузере набрал url, нажал enter - адрес уже в базе) - в совершенстве это база MySQL с тремя полями время/хост_юзверя/запрошенный_URL так-же хорошо иметь просто список сайтов(без путей по сайту) но при хранении в базе я сам напишу скрипт выдирания адресов самих сайтов У меня такое чувство, что сегодня все дружно разучились читать чужие посты....
  14. EvilShadow писал(а) Thu, 11 January 2007 23:30 Предполагая, что сеть построена на свичах (а что она построена на хабах, очень маловероятно), Народ, вы что оба два??? esvaf писал(а) Thu, 11 January 2007 21:15 Здравствуйте! Передо мной стоит задача собирать и записывать в базу список url адресов, запршеных с компьютеров моей сети по HTTP, с указанием времени и имени компьютера(или ip). В распоряжении имеется компьютер, подключенных на равных правах с остальными. Сеть построена на базе одного хаба. ОС Linux.
  15. Hans R. Steiner писал(а) Thu, 11 January 2007 22:42 Потому, что я ответ набивал долго... пока задача не была перефразирована 30 минут???
  16. Hans R. Steiner писал(а) Thu, 11 January 2007 21:55 Эта задача не выполнима... если только, Вы не собираетесь в автоматическом режиме, генерировать URL и пытаться на него зайти. Почему?
  17. esvaf писал(а) Thu, 11 January 2007 21:51 AccessD писал(а) Thu, 11 January 2007 21:49 воспользоваться снифером А поточнее можно? Какой сниффер лучше подходит для моей задачи? И как его запустить(параметры, скрипты)? Никакой. Очень специфичная задача, скорее всего вам придется писать скрипт для обработки вывода сниффера.
  18. Aceler

    Asus s200

    попробуйте с USB?
  19. Перефразирую задачу: вам нужно перехватить все пакеты, гуляющие по сети, и вытащить из них те, что содержат обращения к http серверам, а из пакетов вытащить адреса?
  20. Пролема в патентных ограничениях.
×
×
  • Создать...