Windows storage что это
Windows storage что это
Этот форум закрыт. Спасибо за участие!
Лучший отвечающий
Вопрос
Никак не могу найти где можно купить\скачать сей странный продукт.
Вопросов больше, чем я смог найти ответов! Этот сервер поднимается как роль на обычном W2K8R2 или это самостоятельный продукт? Если это самостоятельный продукт тогда почему его никто не продаёт, закрадывается мысль, что их продают в нагрузку к железным хранилищам. Но тогда ещё вопрос: а кокой софт используется на продаваемых хранилищах вообще?
Я так понял, что этот сервер не удастся протестировать в hyper-v, как виртуальную машинку?
Ответы
а собрать такую штуку очень хочется.
А вообще основной вопрос стал, всё же где взять этого мелкомягкого зверька ).
Сазонов Илья http://www.itcommunity.ru/blogs/sie-wl/
Все ответы
Этот продукт доступен только через канал OEM (Windows Storage Server is an OEM-only product, which means Microsoft OEM partners package and offer Windows Storage Server 2008 R2 NAS appliances.)
В продукт включено ПО Microsoft iSCSI Software Target 3.3, есть возможность бездисковой загрузки серверов Hyper-V.Реализована поддержка протоколов NFS и SMB. Есть SIS. Может использоваться для развертывания двухузлового серверного кластера, устойчивого к аппаратным сбоям и допускающего быструю автоматическую передачу параметров с одного узла на другой.
Страница тут. Даташит тут. К сожалению расская страница почему-то сейчас недоступна 🙁
Хранилища и высокая доступность в Windows Server 2012 R2
Всем привет, уважаемые коллеги и фанаты ИТ-технологий!
И так, давайте попробуем разобраться, что же у нас появилось принципиально нового в Windows Server 2012 R2, а что же продолжает стремительно развиваться в новой инкарнации нашего замечательного серверного продукта.
Хочу хранилку — большую, быструю, крутую… И совсем недорогую!
Как правило, такие вещи как высокопроизводительные дисковые хранилища и возможность плавного масштабирования системы на лету, ассоциируются, в первую очередь, с большими, дорогими «железками», которые имеют стоимость соизмеримую со стоимостью чугунного моста.
Но с другой стороны, далеко не каждая компания в состоянии позволить себе приобрести такую систему СХД, да и сеть SAN построить — дело непростое и ресурсоемкое, и дорогое, если быть откровенным.
Если же коротко сформулировать те, требования которые все хотят удовлетворить за минимум денег, то у нас с вами получится следующая картина:
Рисунок 1. Особенности платформы хранилища данных на базе Windows Server 2012 R2.
В левой части рисунка мы видим список челленджей, с которыми, как правило, сталкиваются компании когда речь заходит о внедрении систем хранения данных и дисковых хранилищ. На правой же части представлен список функций встроенных Windows Server 2012 R2, которые призваны разрешить эти моменты. Если быть детальным, то давайте разберем некоторые моменты, а точнее разберемся что же обычно требуется от современной высокопроизводительной «умной» системы хранения данных:
1) СХД должна быть устойчива к отказам компонентов, коими, как правило являются контроллеры дисковых массиов, дисковые полки, которые подключают непостредственно к контроллерам СХД, а также сами диски, точнее массивы и агрегаты которые образуют из дисков. Интерфейсы подключения, коими обычно выступают FC-адаптеры или iSCSI-адаптеры, также должны быть резервируемыми и сточки зрения доступа к дискам используют мультипоточность или же механизмы MPIO (Multi-Path Input/Output). Также на практике используют CNA-адаптеры (Converged Network Adapter — конвергентный сетевой адаптер) — новое веяние в области построения ЦОДов и сетей передачи данных, где адаптер используют среду Ethernet для передачи трафика как LAN, так и SAN-типа, и может быть динамически изменен тип, режим работы такого адаптера — с LAN на SAN — и наоборот. Также для поддержки CNA-подхода был разработан стандарт DCB (Data Center Bridging) для более удобного управления сетями передачи и данных и их конвергентсности — протокол DCB, кстати, поддерживается в Windows Server начиная с 2012 версии.
2) Современная СХД должна быть «умной», что в частности проявляется в наличии таких функций, как дедубликация данных, Thin Provisioning или т.н. «тонкое предоставление», «тонкая нарезка» и виртуализация дисковой подсистемы. Не лишним за частую оказывается и интеллектуальный тиринг (intellectual tiering) для распределения нагрузок по типам дисков.
3) Современной СХД неполохо было бы управлять каким-нибудь удобным инструментом, желательно встроенным в ОС. В реальной же жизни ИТ-среды состоят из гетерогенного окружения, что фактически говорит о том, что инфраструктурщики управляют различными моделями СХД от разных производителей, и исходя из этого факта, задача управления ими усложняется. Было бы неплохо использовать какие-либо нейтральные стандарты для управления. Примерами таких стандартов являются SMI-S (Storage Management Initiative-Specification) или SMP.
Теперь давайте взглянем на эту картину с точки зрения возможностей Windows Server 2012 R2. Что касается поддержки мультипоточности для организации, по сути, кластеров хранилищ данных — то эта функция присутствует в Windows Server с незапамятных времен и реализуется она на уровне драйвера сетевого адаптера и функции ОС — с этим проблем нет. По конвергентность, поддержку CNA и DCB я уже сказал чуть ранее.
А вот если перейти ко второй части, то тут есть чем поживиться (то есть о чем рассказать — самйл).
И так, начнем с дедубликации данных. Впервые это функционал был представлен в Windows Server 2012 и работает дедубликация данных в WS2012/2012R2 на блочном уровне. Напомню, коллеги, что дедубликация может работать на 3-х уровнях, что определяет, с одной стороны, ее эффективность, а с другой — ресурсоемкость. Самая «лайтовая» версия — файловая дедубликация. Примерами файловой дедубликации можно назвать технологиюSIS (Single Instance Storage, которая уже канула в лету). Как нетрудно догадатья — работает она на уровне файлов и заменяет полностью повторяющиеся файлы ссылками на расположение оригинального файла. Замена реальных данных на ссылки — это общий принцип работы дедубликации. Но вот, если мы внесем изменения в дедублицированный файл, то он уже станет уникальным — и в результате, «сожрет» реальное место — так что сценарий не самый привлекательный. Поэтому дедубликация на блочном уровне выглядит более привлекательным решением и даже в случае изменения оригинального файла, место съедят только изменившиеся блоки, а не блоки всего файла целиком. Именно таким образом работает дедубликация данных в WS2012/2012R2. ну и для полноты картину остается упомянуть, что существует также битовая дедубликация оперирует, как нетрудно догадаться из ее название, на уровне битов, имеет самый большой коэффициент дедубликации, НО при этом имеет просто адскую ресурсоемкость… Как правило, битовая дедубликация применяется в системах оптимизации трафика, которые используют в случае сценариев с участием территориально-распределенных организаций, где каналы связи между офисами организации либо очень дороги в эксплуатации, либо имеют очень низкую пропускную способность. По сути функция таких устройств заключается в кэшировании предаваемого трафика в устройстве и передачи только уникальных битов данных. Решения подобного класса могут быть как аппаратными, так и на базе виртуальных апплаинсов (виртуальных машин с программным комплексом, реализующих соответствующий функционал).
Все было бы просто замечательно с дедубликацией, но во одно маленькое но… Дедубликация в WS2012 не могла применяться к online-данным, т.е. тем которые, заняты каким либо процессом, находятся в использование, а значит использование дедубликации поверх ВМ становится невозможным, что убивало всю привлекательность данного подхода. Однако улучшения в WS2012R2 позволяет нам использовать дедубликацию поверх активных VHD/VHDX-файлов, а также является эффективной для VHD/VHDX-библиотек, общих ресурсов с дистрибутивами продуктов да и для файловых шар в общем. Ниже приведен рисунок показателями эффективности применения дедубликации для моего хоум-сервера с пачкой виртуалок и VHD/VHDX-дисков.
Рисунок 2. Эффективность дедубликации в Windows Server 2012 R2
Если же мы говорим с вами про тонкое предоставление, тут тоже можно реализовать такой подход для ВМ. Сделать один прообраз, родительский диск — а от него уже делать разностные диски — тем самым мы сохраняем консистентность и единообразие виртуальной ОС внутри, а с другой — сокращаем место, занимаемое дисками ВМ. Единственный тонкий момент в таком сценарии — это размещение родительского виртуального жесткого диска на быстром накопителе — так как параллельный доступ к одному и тому же жесткому диску со множества различных ВМ приведет к повышенной нагрузки на данные сектора и блоки данных. Т.е. либо SSD — наш выбор, либо виртуализованное хранилище. Ну и интеллектуальный тиринг тут тоже пригодится.
Виртуализация… А какая она бывает.
Однако обо всем пор порядку.
Давайте вернемся к вопросу виртуализации дисковой подсистемы.
Исторически сложилось так, что виртуализация дисковой подсистемы — это очень старая тема и история. Если мы вспомним, что виртализация — это абстракция от физического уровня, т.е. скрытие нижележащего уровня — то RAID-контроллер на материнской плате таже выполняет фнкцию виртуализации храналища, а именно самих дисков.
Однако, в WS2012 появился механизм Storage Spaces — фактически аналог RAID-контроллера, но на уровне специального драйвера ввода-вывода данных ОС WS2012. Собственно, типы создаваемых логических агрегатов очень напоминают типы томов RAID: Simple (RAID 0), Mirror (RAID 1) и Parity (RAID 5). В ОС WS 2012 R2 к этому механизму добавился интеллектуальный тиринг хранилища. Иными словами теперь можно создавать агрегаты поверх различных типов дисков, SATA, SAS и SSD, которые включены в один агрегат — а WS2012 R2 уже будет интеллектуально распределять нагрузки на сами диски, в зависимости от типов и интенсивности нагрузок.
Рисунок 3. Включение функции интеллектуального тиринга при создании логического агрегата дисков с использованием Storage Spaces.
Надежность, надежность и еще раз надежность
Ну и если уж мы с вами говорим про дисциплину, связанную с хранилищами данных — то как тут не обратить внимание на вопросы надежности данных, а точнее надежности их размещения. Тут есть несколько важных моментов:
С появлением WS 2012 у нас появилась возможность размещать нагрузки поверх файловых шар и файловой системы SMB 3.0. Ну и тут, конечно же, мы вспоминаем про дублирование компонентов нашего хранилища: сетевые адаптеры мы можем резервировать с использованием встроенного функционала NIC Teaming или же агрегации интерфейсов передачи данных, а механизмы SMB Multichannel выполняют функцию MPIO, но на уровне обмена сообщениями SMB. От падения канала мы с вами защитились — не забудьте и коммутаторы задублировать только. Ну а сточки зрения непрерывности размещения ВМ и не только, но и файлов в целом — мы можем развернуть масштабируемый файл-сервер (Scale-Out File Server — SOFS) и разместить на нем критические данные, таким образом гарантируя не то, чтобы высокую доступность, но именно непрерывность доступа к данным. Добавьте к этому возможность WS 2012 R2 использовать файловую систему ReFS для CSV-томов при создании кластера — и вот она, высокая надежность и исправление ошибок файловый системы практически на лету, без остановки работы! Остается добавить, что у ReFS были некоторые болячки в первой своей версии для WS2012, но теперь, она, естественно, поправилась и теперь является по-настоящему resilient-системой!
Возможность шифрование данных поверх SMB тоже является интересной фичей для тех, кто заботится о безопасном размещении данных и контроля доступа к ним.
Еще одной интересной фичей является возможность использования механизмов контроля пропускной способности и производительности дисковой подсистемы — Storage QoS. Механизм интересный и важный — позволяет в дальнейшем использовать политики размещения нагрузок поверх хранилищ с использованием этого механизма, а также передавать эти данные в System Center Virtual Machine Manager 2012/2012 R2.
Ну и на последок, остается напомнить, что с точки зрения задачи управления, что Windows Server 2012 R2, что System Center 2012 R2 поддерживают различные нейтральные механизмы управления — SMI-S, SMP, WMI.
Рисунок 5. Возможности по управлению хранилищами и их предоставления в System Center 2012 R2 — Virtual Machine Manager.
Is This the end. No — it is just the beginning!
Ну что же, мне остается только добавить, что пока что продукты категории R2 у нас доступны в предварительной версии для ознакомления и скачать их можно тут:
Надеюсь вам было полезно и интересно, до новых встреч и хороших всем выходных!
P.S> Забыл вам напомнить, что 10 сентября я и Александр Шаповал проведем для всех желающих бесплатный онлайн-семинар на тему новинок Windows Server 2012 R2 — присоединяйтесь — будет огненно! Регаемся тут: technet.microsoft.com/ru-ru/dn320171
С уважением и пламенным мотором в сердце,
Человек-огонь,
по совместительству,
Эксперт по информационной инфраструктуре
корпорации Microsoft
Дисковые пространства: программный RAID в Windows 8
Как я писал в предыдущих публикациях, на самом деле Windows 8 есть что предложить пользователю кроме нового интерфейса Metro (а иногда и в противовес ему). У меня Windows 8 прочно обосновалась на настольном ПК благодаря одному только Hyper-V, но это, конечно, довольно специальное применение, востребованное далеко не каждым. В этой статье речь пойдет о еще одной важной новинке, которая также достаточно сложна в техническом плане, но, тем не менее, может претендовать на гораздо большую популярность.
Storage Spaces
В русскоязычной версии Windows 8 функция, с которой я хочу познакомить читателей, называется «Дисковые пространства».
Перевод совершенно неудачный, поскольку набирающие популярность SSD к дискам никакого отношения не имеют. По-английски же название звучит совершенно корректно — Storage Spaces, пространства хранения.
Если не вдаваться в глубокую теорию, то «Дисковые пространства» представляют собой программный RAID в составе всех редакций Windows 8. Вообще говоря, для Windows это не новость — похожую функциональность предоставляют динамические диски, а Drive Extender из Windows Home Server можно считать прямым прообразом нынешнего решения. Тем не менее «Дисковые пространства» имеют свою специфику, и можно предположить, что они умышленно вынесены на пользовательский уровень, чтобы привлечь к ним дополнительное внимание. Но прежде чем приступить к их изучению, напомним вкратце о самом
Эта аббревиатура расшифровывается как Redundant Array of Independent Disks, т. е. избыточный массив независимых дисков. Причем первоначально I означало Inexpensive, поскольку речь шла о применении недорогих дисков из мира ПК. По мере развития технологии, в частности с применением SCSI-дисков, это качество перестало ощущаться, что и привело к соответствующей замене в названии. Сейчас такая же участь, по-видимому, ожидает последнюю букву D, которую, ввиду все более широкого распространения SSD, следовало бы трактовать как Drives, накопители.
Наиболее принципиальное свойство RAID — избыточность (т. е. использование накопителей сверх минимально необходимого количества), которая в итоге трансформируется в другие полезные качества: отказоустойчивость и/или производительность. Существуют различные схемы работы RAID, каждая из которых имеет свои особенности.
К примеру, самый простой RAID 0 объединяет два или более накопителея в единое пространство суммарного объема, причем распараллеливание операций чтения/записи позволяет существенно повысить производительность. Ценой же будет, вообще говоря, снижение надежности, т. к. выход из строя одного накопителя разрушает весь массив из-за того, что запись ведется не файлами, а достаточно крупными блоками данных.
А RAID 1 представляет собой простейшее «зеркало», когда все операции на двух накопителях дублируются, т. е. они всегда представляют копии друг друга. Таким образом при отказе одного, вся информация остается доступной на другом. Это главное, но не единственное преимущество. RAID 1 также ускоряет чтение данных, распараллеливая операции, тогда как скорость записи остается примерно такой же, как и у одиночного накопителя. Здесь как раз хорошо видна та самая избыточность: ведь мы используем два накопителя, хотя с точки зрения объема данных хватило бы и одного.
Реализации RAID бывают аппаратные и программные. Первые представляют собой платы расширения, которые могут быть достаточно дороги, поскольку включают специализированный процессор, RAM для кэша, резервное питание (батарейку) для корректного завершения работы в случае пропадания внешнего питания и пр. Программные RAID, соответственно, реализуются средствами ПО и сегодня существуют для всех распространенных ОС. Они, таким образом, задействуют обычные вычислительные ресурсы компьютера, что и является их основным недостатком — под большой нагрузкой общая производительность системы может снижаться. С другой стороны, близость программных RAID к ОС позволяет обеспечить дополнительную гибкость, что мы и увидим на примере «Дисковых пространств».
Как это работает
Microsoft постаралась сделать «Дисковые пространства» максимально прозрачными для пользователя и гибкими в применении. Для этого будущее хранилище формируется на двух уровнях.
Прежде всего, необходимо создать так называемый пул хранения, т. е. логическое объединение нескольких накопителей. Примечательно, что при этом можно комбинировать устройства с разными объемами и интерфейсами — USB, SATA, SAS, SCSI и даже iSCSI. Количество накопителей, вообще говоря, также может быть совершенно произвольным, не считая минимальных ограничений для каждого типа пространств (см. ниже).
Если вы еще не экспериментировали с данной функцией, то, запустив аплет «Дисковые пространства», увидите приглашение выполнить первичную настройку:
Дальше будут автоматически найдены все физические накопители, которые можно объединить в пул — отдельно пустые и содержащие данные или отформатированные. Имейте в виду, что старые данные будут безвозвратно удалены. Кроме того, для RAID не может быть использован системный накопитель — вот первое (впрочем, достаточно очевидное) ограничение.
Как уже говорилось, нет никаких препятствий для объединения в один пул накопителей различных типов и объемов, как, к примеру, на иллюстрации ниже — объединены внутренний SATA- и внешний USB-диски:
На протяжении всего процесса настройки Windows не выдает никаких рекомендации или предупреждений о возможных нюансах — скажем, с производительностью. Между тем, чрезмерные вольности, безусловно, могут приводить к негативным эффектам. Именно поэтому перед использованием «Дисковых пространств» следует разобраться с ними.
Затем на основе пула хранения создаются уже собственно пространства, которые на системном уровне будут выглядеть как обычные логические диски, хотя их природа, как понятно из описания, достаточно виртуальна. Поскольку в моем примере пул объединяет два физических накопителя, то Windows довольно логично предлагает организовать двухстороннее зеркало:
Однако доступны и другие варианты:
Тип пространства | Минимальное число дисков в пуле | Допустимое число отказавших дисков | Аналог RAID |
Простое | 1 | 0 | 0 |
Двухсторонее зеркало | 2 | 1 | 1 |
Трехсторонее зеркало | 5 | 2 | 1E (?) |
Четность | 3 | 1 | 5 |
Остановимся чуть подробнее на каждом из них.
Простое пространство, которое является аналогом RAID 0, не улучшает надежности и может использоваться для ускорения работы с некритичными данными или с файлами огромных размеров. Более того, можно считать, что на самом деле в данном случае надежность как раз ухудшается. Дело в том, что данные на дисковые пространства (любых типов) записываются не файлами, а довольно большими блоками и считаны они могут быть только с функционирующего пространства. Но простое дисковое пространство разрушается, если в пуле выйдет из строя хотя бы один накопитель — при этом никаких аварийных инструментов пока нет, хотя блоки, вероятно, могут хранить какие-то файлы целиком. Такая же проблема касается и всех прочих типов — при отказе числа накопителей свыше допустимого. Некоторые сторонние разработчики заявили о намерении создать соответствующие утилиты, но, насколько мне известно, реально пока ничего не показали. Хотя правильней было бы, чтобы этим вопросом озаботилась сама Microsoft.
В двухстороннем зеркале каждая операция записи осуществляется одновременно на два накопителя. Соответственно, при отказе любого одного накопителя пространство остается работоспособным. Однако, если в пуле более двух дисков то задействоваться они могут все и алгоритм такого «размазывания» от пользователя скрыт.
Трехстороннее зеркало подразумевает параллельную запись на три накопителя, что, соответственно, защищает от отказа любых двух. Для соответствующего пространства, однако, требуется целых пять дисков, хотя в бета-версии Windows 8 достаточно было именно трех. Вероятно, схема RAID видоизменилась уже в последний момент и в доступной сегодня документации четко не описана. Скорее всего, это нечто вроде RAID 1E, где каждый блок действительно записывается трижды, но каждая следующая операция выполняется со сдвигом на один накопитель, т. е. заведомо равномерно «размазывается» по всему пулу. Обычно это делается для улучшения производительности (за счет большего распараллеливания), но будет ли это справедливо в данном случае — вопрос открытый. Некоторые обозреватели также предположили, что речь может идти о RAID 6, однако это достаточно медленная схема (из-за необходимости расчета двух типов контрольных сумм), чего по тестам не видно. В любом случае, для «Дисковых пространств» трехсторонне зеркало — единственный способ добиться максимально надежного хранения критичных данных.
Наконец, пространство с контролем четности (видимо, для краткости оно называется просто четность) в точности соответствует RAID 5. В нем одновременно может задействоваться от 3 до 8 накопителей (хотя пул, как обычно, может содержать и больше). Схема работает следующим образом: на все накопители кроме одного записываются блоки с полезными данными, а на последний — блок контрольных сумм, представляющих собой результат операции XOR. Соответственно, при отказе одного из накопителей, недостающие данные могут быть буквально вычислены. C точки зрения надежности пространство с контролем четности аналогично двухстороннему зеркалу, однако в остальном они отличаются заметно. Так, избыточные данные в первом случае составляют 1/N от общего объема, где N — от 3 до 8 (т. е. равно количеству накопителей, на которые одновременно ведется запись), а во втором — всегда 1/2. Однако из-за необходимости расчета контрольных сумм, пространства с контролем четности ощутимо медленнее на запись, вследствие чего их рекомендуют для хранения больших объемов редко изменяемых данных, к примеру, видео.
На предыдущей иллюстрации видно, что одной из немногочисленных настроек пространства является его размер. В данном случае он вроде бы логично для двухстороннего зеркала установлен в половину от общего доступного объема. Однако же использованные накопители вовсе не равны. Более того, на самом деле можно установить любой размер — на функционировании пространства это никак не скажется. В частности, как только будет заполнен меньший накопитель, пространство демонтируется и восстановить его функционирование можно будет добавлением в соответствующий пул новых накопителей. Подобный принцип работы обеспечивается так называемой тонкой инициализацией (thin provisioning), когда, несмотря на заявленные показатели, физическое пространство реально выделяется только под конкретные запросы системы.
Отсюда, в частности, вытекают еще несколько особенностей «Дисковых пространств». Во-первых, в отличие от аппаратных реализаций RAID в данном случае нет жесткого закрепления за накопителями определенных функций. В общем случае данные и контрольные суммы как бы «размазываются» по всем доступным накопителям, что несколько улучшает производительность и придает технологии дополнительную гибкость, но как уже говорилось затрудняет восстановление. Во-вторых, на каждом пуле может быть создано несколько пространств, причем любых типов. К примеру, при использовании накопителей большой емкости не обязательно сразу же целиком отдавать их под зеркало, если объем критичных данных будет расти постепенно. Параллельно можно создать простое пространство и использовать его (до поры до времени) для повышения производительности при работе, скажем, с временными файлами.
На системном же уровне созданные пространства выглядят как обычные логические диски, их использование абсолютно прозрачно и никаких явных особенностей не имеет.
Специфика функционирования
Надеюсь, предыдущий раздел дал общее представление о гибкости «Дисковых пространств», однако, как и всегда, это качество достигается за счет ряда компромиссов. Часть из них, как то: блочная запись и объединение накопителей различных типов — уже затрагивались. Но есть и другие, которые также необходимо иметь в виду.
Пространства и пулы вполне переносимы, но только в пределах Windows 8, так как в других ОС технология не поддерживается. Сам этот процесс совершенно прост, поскольку вся информация о конфигурации, а также достаточно подробные журналы операций хранятся на самих накопителях. Понадобится лишь вручную смонтировать пространство через аплет в Панели управления, т. к. автоматически это не делается.
Протоколирование работы с пространствами имеет ряд преимуществ. К примеру, при добавлении нового диска в пул пространства не будут перестаиваться, что, с одной стороны может снижать эффективность их работы, но с другой — минимизирует дополнительную нагрузку на компьютер. При замене дефектного накопителя в сохранившем работоспособность пространстве заполнение его необходимой информацией будет выполнено автоматически, причем в фоновом режиме. При отключении и повторном подключении накопителя все данные на нем сохранятся, будут лишь добавлены новые, связанные с пропущенными операциями записи. Обо всех проблемах в работе пулов и пространств выдаются краткие системные оповещения с приглашением заглянуть в аплет «Дисковые пространства»:
А вот реакция Windows на заполнение пространства достаточно своеобразна. Начиная с 70% пользователю будут выдаваться соответствующие оповещения, а при полном исчерпании места пространство автоматически демонтируется — подключить его обратно можно вручную через аплет «Дисковые пространства». Хотя кажется более логичным, чтобы пространство просто переводилось в режим только для чтения.
Производительность
Вполне закономерно, что это один из самых неоднозначных вопросов, относящихся к «Дисковым пространствам». Комбинирование накопителей с разными интерфейсами может приводить к самым различным эффектам. Особенно это касается USB, где не всегда даже понятно, как порты распределяются между контроллерами и, конечно, дело не только в пропускной способности интерфейса (т. е. USB 3.0 не решит всех проблем). К сожалению, никаких предупреждений при формировании пулов и пространств пользователь не получает — хотя некоторые неудачные конфигурации вычисляются довольно легко.
Вот как выглядит производительность дисковых пространств из примеров этой статьи.
А вот, для сравнения, производительность использованных физических накопителей.
Видно, что запись на зеркало определяется худшими показателями для двух накопителей, а чтение, как и все операции с простым пространством — усредненными. В данном случае результаты, пожалуй, было несложно предсказать, исходя из принципов работы схем RAID. Однако если бы накопителей в пуле было больше, арифметика была бы не столь проста.
Выводы
Благодаря различным компромиссам и ухищрениям «Дисковые пространства» реализованы таким образом, чтобы среднестатистическому пользователю не пришлось даже задумываться о подробностях конфигурирования и обслуживания RAID. C помощью этой возможности, к примеру, можно совершенно просто задействовать старые, разрозненные накопители, которые уже рискованно использовать поодиночке. Да, это приведет к каким-то негативным эффектам, но работать все будет исправно и совершенно автоматически. Для более опытных пользователей и администраторов небольших серверов имеется возможность и тонкой настройки посредством PowerShell. Конечно, сегодня появляется все больше бюджетных NAS, однако они все-таки служат несколько иным целям, требуют дополнительных затрат и не обладают гибкостью «Дисковых пространств». В любом случае, хорошо иметь выбор. Наконец, само появление «Дисковых пространств» в Windows 8 говорит о том, что Microsoft пока не собирается сбрасывать со счетов рынок традиционных ПК.