February 3rd, 2011

  • artitz

выбор эффективного сетевого адаптера

Можете посоветовать сетевые адаптеры для тестирования? Интересуют низкая нагрузка на процессор, большая пропускная способность в pps, стабильность. Типичные нагрузки: 200-600Мбит/с, размер пакетов ~50-100 байт. Операционная система linux.
Рысь

Выбор свитча

 Нужен свитч на 24 (можно больше) Gigabit порта. Нужна возможность снимать статистику о скорости с каждого порта по snmp + ограничивать скорость на access порту. Никакой авторизации клиентов, просто возможность снять информацию о текущем трафике на порту + ограничить первый порт по трафику до 500Mbit, второй, скажем 200Mbit ну и т.д.

Что будет оптимально по соотношению цена/качество? Пока смотрю в сторону Cisco, но может...
  • o_nerti

Hardware шлюз

Коллеги, посоветуйте хардверный шлюз доступа для предприятия с шейпингом, фаерволом и блэкджеком на 100-200 пользователей, интеграция с AD желательна.
портрет
  • goodic

[Solved} Запуск скрипта перед выключением? ОС Slackware

  День добрый.
Возникла необходимость выполнить скрипт перед выключением машины. Разово. Скрипт копирует файл из одной папки в другую, затем создает флаг о выполнении копирования в папке пользователя и удаляет сам себя. Сам скрипт написать не проблема. Нет понимания как его выполнить именно перед выключением или перезагрузкой. ОС Slackware , ядро 2.6.17.13

Всем спасибо. Разобрался

Отправка почты в Roundcube

Может кто сталкивался с проблемой:

1. создаю контакт в адресной книге, например test@test.com с именем Test
2. создаю письмо Test <test@test.com> (выбираю из адресной книги) - при отправке ошибка: не удалось отправить письмо
3. если удалить имя т.е. отправить на <test@test.com> - всё великолепно отправляется

в логах ни почтовика ни апача ни самого роундкуба никаких ошибок нет

Спасибо
  • artitz

продолжение: выбор эффективного сетевого адаптера

Видимо, на 1Гбитных сетевухах следует ориентироваться на intel 82575/82576 как минимум из-за реализации очередей. 8 очередей позволяют равномерно раскидать нагрузку по ядрам.

for 82575-based adapters the maximum number of queues is 4; for 82576-based and newer adapters it is 8.

cat /proc/interrupts

CPU4          CPU5       CPU6       CPU7
7248         47138     628981      26022   PCI-MSI-edge      eth0-TxRx-0
2049955      36992        571       4178   PCI-MSI-edge      eth0-TxRx-1
423013       24391      26908      23120   PCI-MSI-edge      eth0-TxRx-2
6354256    4031929       1089      17757   PCI-MSI-edge      eth0-TxRx-3
2414        714686        902      10056   PCI-MSI-edge      eth0-TxRx-4
5583658    5695187      21074      14541   PCI-MSI-edge      eth0-TxRx-5
555426      683518       1443       1596   PCI-MSI-edge      eth0-TxRx-6
296528        5293       8466       5496   PCI-MSI-edge      eth0-TxRx-7

HA сторадж для виртуалок

Захотелось понять что на текущий момент является оптимальным для построения HA-стораджа для виртуалок.

У меня есть парочка 2U супермикровских серваков с 12 дисками в каждом.
Есть с десяток бездисковых 1U серваков с нодами.

Хочу сделать на стораджах хранилище и по эзернету/FC раздавать его на ноды.

Почитав интернеты стало ясно что вариантов решения не так много:
ubuntu, zfs + drbd + aoe
ubuntu, md + drbd + aoe
ubuntu, zfs + zfs send + aoe
freebsd, zfs + gate geom + aoe
freebsd, zfs + zfs send + aoe
openindiana, zfs + avs + aoe/iscsi

drbd предполагается в режиме primary/secondary.

ZFS это для скорости RAIDZ2. Ubuntu там потому что http://zfsonlinux.org/. Собирается просто, работает быстро. Экспортит блочные девайсы как надо. Под нагрузкой с drbd ещё не тестировал.

MD не уверен что хорошо будет жить с 12-ю дисками (даже если собирать два шестых рейда из них, всё равно на запись будет адъ).

zfs send, это не для HA, это лжин из вариантов сделать 60 рейд по сети. Как я понял, вполне можно делать снэпы раз в 10 минут и заливать их на другой сервер. Если первый упадёт, разброс будет в 10 минут, что не критично.

gate geom, в интернетах мало пишут. Оно вообще живое?

openindiana вообще не ясный для меня зверь. Кто-нить его использовал?

Прошу уважаемое комьюнити внести практическую ясность в вопросы.
Спасибо!
  • guest_o

Утечка трафика

Есть у нас канал один, с оплатой по трафику. В один прекрасный момент счета за интернет резко возросли. Интернет у нас раздаёт сервак на FreeBSD, раздаёт через прокси и несколько замапленых портов -- почта. Есть также NAT, он разрешён только строго определённым компам. Через NAT также ходит и сам сервак -- squid и unbound привязаны к локальному интерфейсу, это нужно для того, чтобы оперативно переключать интернет-каналы с основного на резервный без перезапуска сервисов.

Так вот, налаженый ng_ipacct и одновременный сброс sockstat никак не позволяют поймать, куда же утекает трафик. Я вижу в статистике соединений в логе ng_ipacct соединения с серваком с нестандартных портов на нестандартные порты. Ну, например, какой-то удалённый IP-адрес, принадлежащий, в частности, Корбине, с порта 8089 на порт 53197 нашего сервера идёт трафик, общим объёмом около 60 метров. Учитывая особенности раздачи интернета, пользователь к такому соединению быть причастен не может. Одно дело, когда трафик идёт с 80 или 110-го портов чужих серверов -- это понятно. Но на посторонние порты доступ запрещён. Как определить, какие процессы ответственны за такие потусторонние соединения?