Кластер виртуальных машин hyper v
Кластер виртуальных машин hyper vРазвертывание кластера Hyper-V
=== Скачать файл ===
Он не отражает официальную позицию какой-либо организации, и поэтому вы спокойно можете высказывать здесь своё мнение по поводу программного или аппаратного обеспечения того или иного производителя, соблюдая при этом границы взаимного уважения. Вход Вход Регистрация Mail. Ru Яндекс Вконтакте Одноклассники Facebook Google. Идеальный кластер Hyper-V Ответить. Работавший ранее админ, видимо желая освоить возможности виртуализации, поднял на одном из них Hyper-V на базе Windows Server R2, который так и работает с года. И вроде бы всё и хорошо, работает, мощности позволяют и ещё немного наращивать количество виртуальных машин для многопользовательских задач, но пришло понимание, что всё это хорошо ровно до того момента, пока это всё исправно работает. Второй сервер использовался довольно вяло: Пересмотрев сценарии использования имеющегося оборудования, оценив текущие и планируемые нагрузки, в целях обеспечения высокой доступности и отказоустойчивости инфраструктуры было принято решение организовать на мощностях указанных серверов кластер Hyper-V на базе Windows Server R2. Выбрал ряд статей в качестве плана по развёртыванию задуманной структуры, всё как будто и понятно, но хотелось бы узнать некоторые тонкости, и кроме того, может быть подскажете - как же это всё правильнее и так сказать, 'красивее', сделать. Имеется возможность добавить по одной NIC-плате HP NCT DualPort Gigabit, то есть ещё пару гигабитных сетевых интерфейсов в каждый из серверов. Рассматривается только окружение Windows лицензирование EAS , на имеющемся оборудовании, FC коммутаторов нет и не будет ближайший год точно, в данный момент обслуживается пользователей сети, из них постоянно в 1С, в планах поголовное использование 1С. В планах развёртывание RDS-фермы из виртуальных серверов для терминальной работы пользователей, развёртывание Microsoft System Center. Конечно же, множество вспомогательных задач, сервисов и сетевых папок, почты, сайт, сервер печати и тому подобное. Под все задачи стараюсь выделять по отдельному виртуальному серверу, чтобы если уж останавливать, то выполнение какого-либо одного сервиса. Как бы всё вот это обтянуть кабелями? Интересуют пока именно физические подключения серверов. И вообще, прошу озвучить рекомендации по организации и использованию имеющихся мощностей, поскольку всё глубже погружаясь в информацию по теме обнаруживаю, что нюансов очень уж много, и разобраться с ходу довольно сложно, все эти jumbo frames, NLB, CSV, MPIO. В статьях по развёртываю кластера везде фигурирует сервер хранилищ, какие параметры должен иметь этот сервер цели iSCSI или это не важно и коннект узлов кластера и хранилища будет выполняться напрямую, а сервер-цель выполняет роль именно коннектора и можно отдать эту роль старенькому физическому Depo Storm с одним процессором и 4 GB RAM и одним гигабитным сетевым интерфейсом? Либо же при подключении по FC данная роль вообще не нужна и связь напрямую по оптике с хранилищем разумнее? На сегодняшний день с одного из будущих узлов выведены все задачи, установлен Windows Server R2 со всеми обновлениями, с помощью HP SPP обновлены все прошивки аппаратной части, драйверов и вспомогательного ПО от HP, поднята роль HV с компонентом отказоустойчивой кластеризации. Завис я на моменте подключения хранилищ - второй сервер пока нет возможности обновлять, так как сначала нужно перевести все имеющиеся ВМ на новый узел будущего кластера. Интересует использование виртуальных машин именно Gen2, и прямая миграция виртуальных машин с HV на HV пока не видится простой а скорее, она невозможна. И это лишь часть вопросов, как я понимаю, в процессе установки и настройки будут появляться дополнительные. Буду премного благодарен откликнувшимся за советы, ссылки, комментарии! Контактная информация пользователя Алексей Максимов. Думаю надо логически разделить вопросы на группы, каждую из которых обсуждать последовательно. Из того, что я увидел: Вопросы выбора архитектуры и физической организации выбранной архитектуры 2. Вопросы построения кластера Hyper-V 3. Лирика Начнём с п. Предполагаю, что можно попробовать собрать двух-узловой кластер Hyper-V из серверов DL G7 с подключением к общему дисковому хранилищу P G3 по FC наверное всё-таки имеется ввиду 8Gbps а не 6Gbps как Вы везде написали под общий кластерный CSV-том. Если FC-коммутаторов нет, то можно серверы подключить к хранилищу напрямую. Только тут возникает вопрос, взлетят ли все имеющиеся и планируемые виртуальные машины на ресурсах одного хоста DL G7 по памяти и процессорным потребностям в случае выхода из строя или же просто во время необходимости перезагрузить хост после установки обновлений одного их таких хостов виртуализации. G5 сервер тоже можно попробовать добавить в кластер, когда тот уже будет работать, но уверенности что мастер валидации кластера проглотит то, что у узлов кластера сильно разная аппаратная начинка как минимум разные поколения процессоров. Если не получится добавить его в кластер, то просто использовать его как отдельный хост виртуализации у меня вся виртуализация на G5 построена Куда приладить старый сервер Depo, не знаю. Если только для него есть возможность организовать большой объём дешёвой дисковой ёмкости уровня SATA и использовать его для резервного копирования System Center DPM. Опять же тут нужно сначала выяснить поддерживается ли процессором этого сервера битная архитектура. То есть сначала нужно обсудить п. Да, Вы правы, написал много, скорость именно 8Gbps, разворачивать кластер планирую именно на DL G7. Конечно же нужно будет подбирать количество ВМ с избыточностью ресурсов нод, чтобы переполнение не происходило. По нагрузке на ЦПУ ситуация сносная и сегодня, а память будем наращивать в этом году, ещё по Гб в каждый из серверов, в этом я смог убедить руководство. На данном этапе я завис после установки R2 на ноду, и сейчас пытаюсь разобраться с подключениями к хранилищу. Благоразумнее подключать обе ноды парой кабелей FC, к каждому из контроллеров хранилища? Этим я займу все имеющиеся порты FC хранилища и серверов, но как я понимаю, это и будет самое нагруженное место в конфигурации. Или будет достаточно подключения по одному кабелю? Скорее всего DL G5 сделаю физическим сервером SQL, а там тоже скорость доступа к хранилищу ой как пригодится. И да если вы подключите оба порта на двух серверах у вас на СХД не останется свободный FC портов, и если потребуется ёмкость СХД отдать ещё какому-то серверу, например тому же G5, то делать это уже придётся через iSCSI, хотя я бы SQL на iSCSI делать не решился. Далее по всем мануалам следует настраивать сервер на базе Windows Server R2 в качестве сервера-цели iSCSI. Вот и вопрос - подключение ведь выполнено с помощью кабеля FC, шаг с сервером-целью так же необходим? Или же VDisk хранилища напрямую в ноду можно цеплять? Понимаю, вопросы совершенно простые, но я имел мало опыта работы с хранилищами, прошу простить заранее. К FC это отношения не имеет. Если подключаете 2 сервера к СХД напрямую оптическими патч-кордами, то c iSCSI можно не заморачиваться вообще. Когда подключите оба сервера по FC к СХД, создадите кластер с CSV томом, на котором в последствии будут размещаться файлы виртуальных машин файлы конфигурации и VHDX диски. Кто сейчас на конференции Сейчас этот форум просматривают: О нас Этот форум создан исключительно для обмена субъективными мнениями между его участниками. Список форумов Часовой пояс: UTC Удалить cookies конференции Наша команда Связаться с администрацией.
План работы с неуспевающими детьми
Урсофальк инструкция по применению для взрослых
Сколько готовятся голубцы в кастрюле
Принтер kyocera fs 3045dn характеристики
Обезжиривающий состав для металла
Банк с любой кредитной историей
Пермь 2 расписание поездов пермь екатеринбург