روش فعال کردن SSH در ESXi

روش فعال کردن SSH در ESXi

برای این منظور دو روش وجود دارد.

روش اول : استفاده از DCUI

  • بروی صفحه لاگین هاست خود کلید F2 را بفشارید.

  • نام کاربری و پسورد خود را وارد نمایید.

  • پس از لاگین، گزینه Troubleshooting Options را انتخاب نمایید.

  • با انتخاب گزینه Enable SSH، می توانید SSH هاست خود را فعال نمایید.

  روش دوم : استفاده از vSphere Client

  • توسط vSphere Client به هاست مورد نظر و یا Vcenter متصل شوید و پس از انتخاب هاست خود،  Tab مربوط به Configuration را انتخاب نمایید.

  • در قسمت Configuration گزینه Security Profile را انتخاب نمایید.

  • گزینه Properties را انتخاب نموده و از پنجره جدید، SSH را انتخاب نمایید و سرویس مربوط به SSH را Start نمایید.

  • اگر در دسترسی به SSH خود مشکلی داشتید، بخش Firewall را بررسی نمایید.

روش ریست کردن پسورد administrator@vsphere.local در vCenter 5.5

vcenter5.5

روش ریست کردن پسورد administrator@vsphere.local در vCenter 5.5

اگر به هر دلیلی در اتصال به vCenter خود دچار بروز خطا بدلیل Credentials شوید و نیاز به ریست کردن پسورد administrator@vsphere.local داشتید می توانید از این آموزش استفاده نمایید.

نسخه ویندوزی vCenter

1- با یک یوزر Domain Administrator و یا Local Administrator به سرور vCenter متصل شوید.

2- یک Command Prompt را با Run As Administrator اجرا نمایید.

3- به مسیر C:\Program Files\VMware\Infrastructure\VMware\CIS\vmdird بروید.

4- vdcadmintool.exe را اجرا نمایید.

5- کنسول زیر نمایش داده می شود.

 ===============================
Please select:
0. exit
1. Test LDAP connectivity
2. Force start replication cycle
3. Reset account password
4. Set log level and mask
5. Set vmdir state
===============================

6- گزینه 3 یعنی Reset account password را انتخاب نمایید.

7- زمانی که Account UPN را از شما خواست، عبارت زیر را تایپ نمایید.

cn=Administrator,cn=users,dc=vSphere,dc=local

8- دکمه Enter را بفشارید.

9- یک پسورد جدید تولید و بروی صفحه نمایش داده می شود.

10- 0 را انتخاب نمایید.

11- با پسورد جدید در vSphere Web Client لاگین نمایید.

12- بروی Home کلیک کنید.

13- بروی Administration کلیک کنید.

14- بروی Single Sign-On > Users and Groups کلیک نمایید.

15- بروی User کلیک کنید.

16- بروی administrator@vsphere.local راست کلیک کنید و Edit را انتخاب نمایید.

17- پسورد جدید را وارد نمایید.

نسخه vCenter Appliance

1- توسط SSH به vCenter Server Appliance متصل شوید.

2- دستور زیر را برای فعال سازی دسترسی به Bash Shell اجرا نمایید.

 shell set –enable true

3- shell را تایپ نمایید و Enter را بفشارید.

4- با فرمان زیر ابزار vdcadmintool را اجرا نمایید.

/usr/lib/vmware-vmdir/bin/vdcadmintool

5- ادامه مراحل بمانند گزینه 6 به بعد نسخه ویندوزی است.

EMC محصول Unity خود را معرفی نمود-قسمت اول

EMC به تازگی یکی از محصولات جدید خودش را به نام Unity که در گروه Midrange Array  قرار میگیرد معرفی کرده است. نکته ای  که EMC  درهر معرفی از این محصول بیان کرده است تحت الشعاع قرار گرفتن رده  VNX  و VNXe توسط این محصول است. به این منظور که در ادامه نسل VNX ، تولید VNX 3  برنامه ریزی نشده و Unity  به عنوان یک Storage Platform  جدید در گروه  Midrange ها قرار گرفته است. EMC  این محصول (Unity array) را مابین VNXe 1600 ، VNXe 3200، 7600 و Hybrids 8000 قرار داده است. این مساله در ادامه مقاله میتواند برای شما واضح تر گردد. حال که به معرفی کلی این محصول پرداختیم و از آنجایی که معرفی یک محصول بدون رونمایی از آن ممکن نیست در تصویر شماره یک، ظاهر یک Unity  نمایش داده شده است تا با آن بهتر آشنا شوید.

تصویر شماره 1

تفاوت های مهم :

در معرفی هر محصول مهم ترین قسمت معرفی بیان چندین ویژگی جدید هست که در ادامه بیشتر در مورد آن توضیح خواهیم داد.

  • HTML 5 GUI : دیگر نیازی به وجود JAVA برای دسترسی به  Storageنیست.
  • Native block, File and VVOLS
  • یک فایل سیستم جدید که میتواند تا 64TB را پوشش بدهد.
  • Unified block و  File Snapshot و Replication .
  • همه چیز در تنها در 2 یونیت از فضای رک قرار میگیرد. دیگر نه Control Station و Data Mover  وجود ندارد.

مدل های جدید:

در این سری از EMC، چهار مدل جدید وجود دارد، که در هر مدل Storage  ها یا به صورت ALL-FLASH ( این رده توسط حرف F  تفکیک و مشخص شده اند.)  و یا  Hybrid  هستند..

تصویر شماره 2

ویژگی این مدل ها:

  • Proactive support
  • Self-service Portal
  • System Monitoring
  • CloudIQ dashboard and management platform

 EMC در مورد بهبود Density ( چگالی ) هم صحبت هایی کرده، که این موضوع توسط مقایسه VNX5800 با Unity 600F میتواند مشخص شود.

 در این مقایسه :

  • Footprint از 7 یونیت  به 2 یونیت  کاهش یافته است.
  • کابل کشی ها از 30 عدد به 6 عدد کاهش یافته است.
  • توان مصرفی از 1495 وات به 730  وات رسیده است.
  • نصب رک از 60 دقیقه به 2 دقیقه کاهش یافته است.
  • Hero number هم افزایش پیدا کرده است.

من تا امروز این دستگاه را داخل رک قرار نداده ام و فرصت امتحان کردن آن را هم نداشته ام، بنابراین هر آنچه در اینجا آمده تنها چیزهایی است که در مستندات EMC بیان شده است و ممکن است نظرات هر کس بنا بر تجربه و کار با دستگاه متفاوت از این باشد.

معماری:

آیا ما بالاخره از دست سیستم عامل ویندوز FLARE بر روی SP ها راحت شدیم ؟ طبق چیزی که EMC  میگوید, بلی.

اگر بلاگ Chad  را دنبال کرده باشید احتمالا ایده ای در مورد برخی از ویژگی های قبلی معمارایی که در Unity  اعمال شده است، را دارید.

به طور خلاصه، در حال حاضر یک سیستم عامل SUSE-based  با تمامیه ویژگی ها  (Block, VVOLS and File)  در یک فضای مشترک وجود دارد. به نظر من این چیزی بوده که ما امیدوار بودیم در VNX2 ببینیم که در این محصول دیده میشود.

تصویر شماره 3

برخی  از ویژگی های این معماری جدید شامل:

  • یک فایل سیستم 64 بیت –  و پشتیبانی از فضای 64TB
  • پشتیبانی از IP multi-tenancy
  • Unified snapshots and replication ( قبلا این کار توسط ابزار های مختلف با کمی به هم ریختگی انجام میشد )
  • مدیریت کپی اطلاعات به هم پیوسته ( لازم است در این مورد اطلاعات بیشتری توسط EMC ارائه شود)
  • بهبود کیفیت سرویس یا QoS و Quota management
  • خدمات رمزنگاری و آنتی ویروس
  • محافظت داده (Data Protection ) “مدرن”

Storage Pool

Storage Pool ها از نسخه 30 FLARE وجود دارند ولی این سری از نسل های پیشین خود کمی توانا تر هستند.

برخی از ویژگی ها عبارت اند از:

  • تغییر عملوند هایی مثل Create, Expand, Modify و Delete .
  • کاربران میتوانند Storage Pool ها را مانیتور و پیکربندی کنند . ( برای مکان هایی با تجهیزات غیر معمول مفید است )

کاربران حتی میتوانند :

  • فضای استفاده شده در حال حاضر یا گذشته
  • جا به جایی FAST VP  و توزیع داده در Tierهای متفاوت Storage Pool
  • فضایی که Snapshot میگیرد و یا قوانین حذف

را هم ببیند.

در زیر، یک جدول مفید که حداکثر فضا برای یک Storage Pool  در هر Unity Model  را مشخص کرده است آمده است.

تصویر شماره 4

به یاد داشته باشید که اجزا ی فایل، که درون بخشی که EMC آنها را NAS Servers می نامد، قرار دارد، بسیارشبیه DATA  Mover  مجازی عمل میکنند.

در آینده نزدیک با عمق بیشتری به بررسی این مطالب میپردازیم.

تصویر شماره 5

Speed and Feeds

جدول زیر شامل اطلاعات در مورد جزئیات مدل های مختلف  ( بجز از UnityVSA است که در ادامه پوشش داده خواهد شد) است.

با یاد آروی این نکته که ( Unity 500 ( F  از 350 درایور در حالت اولیه تا  500 درایور را با 2H16 پشتیبانی میکند.

( Unity 600 ( F  نیز 500 درایور و 1000 درایور را با2H16  پشتیبانی میکند.

تصویر شماره 6

یک  DPE در Unity شامل 2 عدد Storage Processors ) SPs )  است که هر یک شامل :

  • A single socket CPU Intel Haswell processor with 6-12 cores each
  • DDR4 DIMM slots
  • Embedded ports :
  • ( 2x 1GbE RJ45 ports ( management and service
  • ( 2x 10GbE RJ45 ports ( front-end
  • ( 2x CNA ports (front-end; configured during OE install for either FC or Ethernet
  • ( 2x mini-HD SAS ports (12Gb SAS DAE connectivity
  • 1x USB port
  • Front end connectivity is IP/iSCSI & Fibre Channel
  • Back end connective to drives is 12Gb SAS

تمامی مدل های Unity Hybrid میتوانند از Drive Enclosure های 2 یونیت که تا 25 عدد درایور 2.5 اینچی و یا  Drive Enclosure های 3 یونیت که تا 15 عدد درایور 3.5 اینچی دارا هستند را، پشتیبانی کنند.

قابل ذکر است که مدل  ALL- FLASH  تنها Drive Enclosure های 2 یونیت را پشتیبانی میکنند.  البته نیازی هم برای پشتیبانی Drive Enclosure های 3 یونیت نیست.

در زیر جدول لیست درایور های پشتیبانی شده توسط Unity، ارائه شده است .

 

تصویر شماره 7

UnityVSA

حتما تا به حال در مورد vVNX شنیده اید. UnityVSA همان مفهوم را گرفته و به Unity اعمال کرده است و محصول جدیدی تحت عنوان UnityVSA معرفی کرده است.

جدول زیر اطلاعاتی در مورد تنظیمات ساده ای که برای راه اندازی و به کار گیری این دستگاه لازم است بیان کرده است.

تصویر شماره 8

ویژگی  parity  هم به همان اندازه که در سیستم های مجازی میتواند باشد در اینجا وجود دارد.

تصویر شماره 9

Unity Unisphere

در ابتدای این مقاله اشاره شد که در این نسخه از Unisphere نیازی به Java  نیست. به علاوه کاربران این نسخه از Unisphere  قابلیت های زیر را هم دارا هستند.

  • از بین بردن نگرانی های امنیتی به علت استفاده از جاوا
  • فضایی مرتب و تمیز برای استفاده
  • یک UI مسطح ( Flat ) که اجازه استفاده از تمامی  تابع ها را در صفحه اولیه در یک گروه را میدهد.
  • قابل استفاده بودن تعداد زیادی از  Browser ها در نتیجه  استفاده از HTML 5 مثل:
  • Google Chrome 33 or later .
  • Internet Explorer 10 or later .
  • Mozilla Firefox 28 or later .
  • Apple Safari 6 or later .

شکل زیر تصویری از UI جدید است که همان طور که مشاهده میکنید تفاوت زیادی با  Navisphere و Unisphere  دارد.

تصویر شماره 10

نتیجه:

من مدت زیادی هست که با EMC های ردهMidrange کار کرده ام و در اکثر مواقع محصولات این رده توانستند که جواب مناسبی برای بسیاری از راه حل ها باشند. با اینکه رده VNX2 ها خیلی در زمان خودشان با سایر محصولات  تناسبی نداشت، ولیکن Unity ها این فضا را شکستند و توانستند که خیلی مدرن تر از سری های پیشین خود باشند. قطعا برای دیدن مزایا و معایب این دستگاه باید منتظر باشیم تا در آینده ببینیم که چه بازخوردی از این سری خواهیم داشت. ولی به طور کلی به نظر من اگر شما در بازار به دنبال EMC Midrange هستید پرسش در مورد محصول جدید EMC Unity  ضرری ندارد و ممکن است برای شما این سری کاراتر از سری های پیشین باشد.

معرفی EMC VNX MirrorView

معرفی  EMC VNX – MirrorView

MirrorView قابلیت Replication لایه Block برای محصولات رده VNX است. MirrorView دارای دو شیوه Mirroring است :

  • (MirroView/S (Synchronous
  • (MirrorView/A (Asynchronous

MirrorView تکنولوژی ایست که می تواند Block های داده ها را در سایت دومی، Mirror نماید. این قابلیت یک راهکار مناسب برایReplication داده ها در طرح Disaster Recovery است. MirrorView یک راهکار LUN Centric است یعنی در این راهکار یک LUN اولیه موجود در VNX سایت عملیاتی با LUN ثانویه موجود در VNX سایت دوم، Replicate می شوند و این همسان سازی تنها در لایه LUN صورت می گیرد.

MirrorView/S

MirrorView/S قابلیت Synchronous Replication را در فواصل کوتاه فراهم می آورد. در صورت استفاده از  Synchronous Replication، آنگاه RPO یا همان Recovery Point Objective برابر با صفر است. این یعنی اگر حتی سایت اول دچار حوادثی نظیر آتش سوزی، سیل و …. شود، شما حتی یک بیت داده را از دست نخواهید داد!!

فرآیند فعالیت  MirrorView/S بدین شیوه است :

  1. هاست متصل به VNX سایت اول، یک دستور Write را ارسال می نماید.
  2. VNX سایت اول، داده ها را برای VNX سایت دوم ارسال می نماید.
  3. VNX سایت دوم پس از دریافت داده، یک پیام Acknowledges مبتنی بر Write داده به VNX سایت اول ارسال می کند.
  4. VNX سایت اول، یک یک پیام Acknowledges مبتنی بر Write داده به هاست ارسال می کند.

تصویر ذیل گویا فرآیند ذکر شده است.

درک جریان داده در MirrorView/S بسیار مهم است. نتیجه بررسی RTT یا همان Round Trip Time، بین دو تجهیز VNX بایستی کمتر و یا مساوی 10 msباشد. RTT بالا به معنای Response Time بسیار بالا برای هاست است و باعث کندی عملکرد کل سامانه می شود.

MirrorView/A

MirrorView/A قابلیت Replication را در مسافتهای طولانی فراهم می آورد. این قابلیت می تواند مابین VNX هایی که دارای RTT بالاتر از 10 ms تا حداکثر 200 ms است، استفاده شود. MirrorView Asynchronous بصورت دوره های تناوبی شروع به بروزرسانی داده ها در سایت دوم می کند. در این مکانیزم داده های در تغییرات داده ها را درسایت اول توسط MirrorView/A، ردیابی می نماید و آنگاه آن تغییرات را بر اساس RPO تنظیم شده از سوی کاربر، برای VNX سایت دوم ارسال می دارد.

فرآیند عملکرد MirrorView/A بدین شیوه است :

  1. هاست متصل به VNX سایت اول، یک دستور Write را ارسال می نماید.
  2. VNX سایت اول، پس از دریافت داده یک پیام Acknowledge برای هاست ارسال می دارد.
  3. VNX سایت اول، بر اساس RPO تنظیم شده، تغییرات در داده های سایت اول را برای VNX سایت دوم ارسال می کند.
  4. VNX سایت دوم، داده ها را دریافت می کند و یک پیام Acknowledge برای VNX سایت اول، ارسال می دارد.

تصویر ذیل گویا فرآیند ذکر شده است.

 

Consistency groups

هر دو شیوه MirrorView/S و MirrorView/A از Consistency Groups پشتیبانی می کنند. Consistency Groups زمانی استفاده می شود که LUN ها نیاز به رعایت یک ترتیب پایدار در Replication دارند. برای مثال اگر شما در vMware خود یک Datastore مشتمل بر 6 عدد LUN تولید نموده اید، برای Replication صحیح و قابل استفاده در سایت دوم نیاز است که تمامی این LUN ها و با همین ترتیب، Replicate شوند.

چگونه یک Storage Group بسازیم؟

چگونه یک Storage Group بسازیم؟

در این آموزش قصد داریم مقداری در خصوص فرآیندهایی که احتمالا روزانه یک مدیر Storage با آن درگیر است صحبت کنم.

درست کردن یک Lun

اولین مرحله از آموزش ما تولید یک LUN است. در این آموزش تمامی مراحل با بهره گیری از GUI انجام می شود ولیکن قابلیت انجام تمامی این مراحل توسط CLI نیز موجود است. بسیار خوب در ابتدا به EMC خود متصل شوید و پس از باز شدن صفحه اولیه Unisphere، تجهیز مورد نظر خود را انتخاب نمایید. پس از آن در منوی بالایی بروی قسمت Storage بروید و آنگاه LUN را انتخاب نمایید.

Unisphere Storage Menu

وقتی که  LUN را انتخاب نمودید در صفحه بعد لیستی از تمامی LUN های موجود خود را مشاهده می نمایید. شما می توانید نحوه نمایش این لیست را به سلیقه و دلخواه خود تغییر دهید و یا حتی این لیست را بصورت یک فایل Export نمایید. از دکمه های پایین صفحه گزینه “ Create “ را انتخاب نمایید.

Unisphere – LUN Section

بعد از انتخاب دکمه ” Create ” پنجره زیر را می بینید :

Create New LUN

قطعا چیزی که شما بروی تجهیز خود مشاهده می نمایید با تصویر فوق یکسان نیست. بنا به تنظیمات شما تفاوتهایی وجود دارد. در تصویر نمونه ما یک Pool با Raid 6 بنام Pool-Bronze داریم.

موارد ابتدایی که باید آنها را وارد نمایید و همچنین به خوبی درک نمایید عبارتند از :

  • آیا شما یک Pool LUN می خواهید و یا یک Raid Group LUN ؟
  • آیا LUN شما باید Thin باشد یا Thick ؟ آیا باید Deduplication روی آن فعال باشد یا خیر ؟
  • ظرفیت آن چقدر باید باشد و LUN ID آن چند باید باشد ؟

در این مثال، ما قصد داریم یک Pool LUN با سایز 100 GB تولید کنیم.برای این منظور من از یک Storage Pool که از قبل ساخته شده است و Pool-Silver نام دارد، استفاده می کنم. من می خواهم این LUN بصورت Thin باشد. همچنین قصد دارم LUN ID شماره 43023 را برای آن انتخاب کنم.

Create New LUN

بعد از کلیک بروی گزینه “ Apply “ ، یک تاییدیه از شما گرفته می شود و آنگاه LUN تولید می شود و در نهایت یک پیغام ” Success ” دریافت می کنید.

همین! تمام شد! شما توانستید یک LUN بسازید. به همین سادگی!

اتصال به یک HOST

در اولین قدم ما یک LUN ساختیم. حال ما به یک Host برای اتصال و دسترسی به LUN نیاز داریم. در این مثال می خواهیم نحوه ساخت یک Host را فرا بگیریم. فرض کنید یک Host جدید در محیط ما به تازگی نصب و راه اندازی شده است ولیکن تا کنون روشن نشده است. اما ما از HBA WWN آن مطلع هستیم.

تا زمانی که سرور روشن نشده است، ما هیچ Host را در لیست Host List نخواهیم دید. در شرایط عادی پس از اتصال Host به Storage، عموما توسط یک Host Agent و یا Unsiphere Server Utility و در موارد خاصی هم بصورت دستی، Host خود را بروی تجهیز Register می نماید. Host Agent ها در دو نسخه ویندوزی و لینوکسی موجود هستند و با نصب آنها بروی سرور مربوطه فرآیند Auto Register اتفاق می افتد. لازم بذکر است که با توجه به اینکه vMware از شرکتهای زیر مجموعه EMC است، تمامی Hypervisor های این شرکت بصورت پیش فرض این Agent را در خود دارند.

در این مثال ما قصد داریم شیوه Manual Registration را انجام دهیم. برای این منظور به منوی Host رفته و آنگاه Initiators را انتخاب نمایید.

Unisphere Host Menu

تمامی هاستهای متصل به SAN حداقل یک Initiator در این لیست دارند. شما باید بتوانید صفحه شبیه تصویر زیر ببینید :

Unisphere – Initiators

بسیار خوب، چیزی که می بینید لیستی است از تمامی Initiator های موجود. یک قانون مهم : هر Initiator می تواند تنها در یک Storage Group باشد. هیچ استثنایی نیز ندارد. این قانون در واقع می گوید که : هر هاست تنها و تنها می تواند در یک Storage Group وجود داشته باشد. حال اگر با دقت بیشترب به تصویر ارائه شده نگاه کنید، درمی یابید که هر هاست می تواند بیش از یک Initiator نیز داشته باشد. پس می توان با شیوه ای خاص یک هاست را در چندین Storage Group قرار داد!

حال ببینیم چگونه می توان بین یک هاست و یک LUN توسط Storage Group ارتباط برقرار کرد.

در صورت رعایت اصول MPIO هر هاست دارای 4 Initiator خواهد بود.

  1. host_HBA_1 connected to Port_X in Storage Processor A
  2. host_HBA_1 connected to Port_Y in Storage Processor B
  3. host_HBA_2 connected to Port_Z in Storage Processor A
  4. host_HBA_2 connected to Port_U in Storage Processor B

در این شیوهما هیچ Single Point Of Failure برای قطع ارتباط مابین هاست و Storage نداریم. از آنجاییکه نمی خواهم این آموزش پیچیده و غیر قابل درک شود و برای اینکه این مثال ساده تر پیش برود، فرض می کنیم که هاست ما دارای تنها یک Initiator است که به پورت 5 ،SP A متصل است. در پایین صفحه شما می توانید دکمه Register را بیابید.

Create Initiator Record

بسیار خوب پس از انتخاب Register، در پنجره جدید WWN را وارد نمایید. پورت متصل به هاست را تعیین کنید و Failover Mode را در حالت Active-Active یا همان ALUA بگذارید و برای نام test_host و برای آن IP آدرس را وارد نمایید، آنگاه بروی دکمه  OK بفشارید.

Create Initiator Record

موفقیت آمیز بود و توانستیم یک هاست جدید تولید نماییم. حال پس از Refresh نمودن باید بتوانید هاست جدید را در لیست ببینید.

Unisphere – Our “fresh” Initiator

همانگونه که می بینید هاست جدید عضوی از Storage Group بنام management~ می باشد. management~ در واقع یک Storage Group خاص است. و هر هاستی که در آن حضور دارد بدین معناست که آن هاست درون هیچ Storage Group واقعی نیست.

بسیار خوب وارد Host List شوید. اسم هاست جدید را می توانید در اینجا ببینید:

Unisphere Host List

همانگونه که دریافتید ما هاست را بصورت دستی تولید کردیم. اکنون ما هاست خود را برای اضافه کردن به Storage Group در اختیار داریم.

تولید یک Storage Group

اگر هنوز نمی دانید که Storage Group چیست و چرا به آن نیاز داریم می توانید آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” را مطالعه نمایید.

برای درست کردن یک Storage Group خیلی ساده به قسمت Host > Storage Group بروید و آنگاه بروی گزینه Create کلیک نمایید و تنها نیاز است که برای آن یک نام تعیین کنید:

Create Storage Group

من یک Storage Group با نام new_SG درست کردم. پس از کلیک بروی گزینه OK یک سوال از شما پرسیده می شود مبتنی بر اینکه : آیا شما مطمئنید که …. ؟؟؟!!! قطعا. من که مطمئنم!! شما را نمی دونم!!

پس از آن شما شما یک پنجره شبیه این می بینید :

 

New Storage Group

همانگونه که می بینید فرآیند تولید موفقیت آمیز بوده و گزینه ” Yes, I want to add LUNs and/or connect host ” را انتخاب نمایید. این صفحه را خواهید دید :

 

Adding LUNs to Storage Group

در ابتدا شما باید گزینه (ADD LUN(s را انتخاب نمایید. LUN های تولید شده خود را بیابید و آنگاه گزینه “ Add “ را بفشارید.

یک موضوع مهم در اینجا، انتخاب Host LUN ID است. همانگونه که دید من برای این منظور هیچ مقداری وارد نکردم و Storage بصورت خودکار یک Host LUN ID را به هاست اعطا کرد. در صورت نیاز جهت آشنایی بیشتر با HLU/ALU می توانید به آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” مراجعه نمایید.

پس از انتخاب LUN مورد نظر بروی کلید “ Apply “ بفشارید و آنگاه Tab بعدی یعنی Host را انتخاب نمایید:

Connect Host to Storage Group

تنها کار که نیاز است در اینجا انجام دهید انتخاب هاست و یا هاستهای دلخواه است. در پایان گزینه OK را بفشارید.

خلاصه

 شاید در ابتدا کمی پیچیده بنظر برسد ولیکن تنها نیاز است که در انجام تمامی این فرآیندها دقت عمل داشته باشید. در نهایت این مسائل را نیز بیاد داشته باشید :

  • شما می توانید چند LUN را به تعدادی Storage Group اضافه نمایید، تنها لازم است که گزینه “ Show LUNs” را به “Already Connected To Different Storage Group “ تغییر دهید.
  • بصورت پیش فرض شما می توانید یک هاست را تنها در یک Storage Group قرار دهید و اگر هاستی را در Storage Group دومی قرار دهید، آنگاه آن هاست از عضویت Storage Group اول خارج می شود.
  • عضویت یک هاست در Storage Group بنام managment~ بمعنای عدم عضویت آن هاست در یک Storage Group واقعی است.

معرفی اجمالی Unispher

معرفی اجمالی Unispher

پیشتر مطالب مختصری در آموزش ” Unisphere چیست ؟ ” در خصوص Unisphere ارائه شد. در این آموزش قصد دارم به ارائه آموزشهای ابتدایی نحوه استفاده با Unisphere بپردازم.

چکونه Unisphere را راه اندازی کنیم ؟

همانگونه که در آموزش قبلی نیز گفتم، ساده ترین روش استفاده از یک Web Browser و وارد نمودن IP آدرس یکی از SP ها و یا Control Station هاست. نکته : بیاد داشته باشید که شما برای این منظور نیاز به جاوا دارید.

زمانی که پنجره Login را دیدید، می توانید با ورد نام کاربری و پسورد خود به تجهیز Login نمایید. پس از ورد موفق شما این صفحه را خواهید دید :

Unisphere Dashboard

اولین چیزی را که به محض Login مشاهده می نمایید صفحه Dashboard است. اگر شما بیش از یک تجهیز VNX در دامین خود داشته باشید، در این وضعیت شما هنوز به هیچ تجهیز خاصی از VNX های خود Login نکرده اید.

اگر قصد دارید با یک تجهیز خاص کار کنید و یا آنرا مدیریت کنید، لازم است که آن تجهیز را انتخاب نمایید. جهت این کار می توانید بروی اسم تجهیز خود را از Drop-Down لیست موجود در گوشه بالایی سمت چپ، انتخاب نمایید و یا بروی نام تجهیز در زیر منو اصلی کلیک نمایید.

کار کردن با تجهیز Storage

زمانیکه شما تجهیز مورد نظر خود را انتخاب نمودید، صفحه داشبورد با کمی تغییرات بشکل زیر نمایش داده می شود :

Unisphere VNX Dashboard

این صفحه در همان پنجره پیشین باز می شود. حال شما اطلاعات بیشتری در خصوص یک تجهیز خاص دارید. اول اینکه شما می توانید تمامی System Alert های مهم اخیر را ببینید. در گوشه بالایی سمت راست می توانید اطلاعات اولیه را ببینید. شماره سریال و مدل تجهیز شما نیز از همین محل قابل استخراج است.

نگاهی به گزینه های منوی اصلی بیندازیم :

System

 

Unisphere System menu

هر منو برای خود دارای انتخابهایی است. شما می توانید با کلیک بروی گزینه منو (System,Storage,Host,Data Protection و ….) و یا قرار گرفتن روی این منوها و آنگاه باز شدن Popup منو به انتخاب زیر منوها بپردازید.

گزینه System  این انتخاب ها را دارد :

  • Hardware : اینجا میتوانید تمامی اطلاعات مربوط به سخت افزارها، از یک هارد دیسک تا وضعیت فن ها را بیابید.
  • Monitoring And Alerts : تمامی Alert ها اینجا هستند، همچنین می توانید به SP Event Logها، Notification ها و وضعیت فعلی تجهیز و یا ارسال هشدار ها توسط ایمیل و … دست یابید.
  • Reports : جایی که می توانید گزارشات خود را اینجا بسازید.

Storage

Unisphere Storage menu

احتمالا این TAB را در حین کارهای روزمره خود دیده اید. تعداد انتخابها و زیر منوهایی که ممکن است اینجا ببینید کاملا بستگی به لایسنسها و ورژن تجهیز شما دارد.مثلا اگر تجهیز شما دارای لایسنس های سرویس File باشد، شما موارد بسیار بیشتری را مشاهده خواهید کرد.

در این قسمت شما می توانید یک Raid Group، Storage Pool و LUN و … تولید نمایید.

Hosts

 

Unisphere Host Menu

 دراین TAB مهمترین قسمت قطعا Storage Group است که به شما امکان تولید، حذف و یا تغییر یک Storage Group را می دهد.  البته قطعا برای تولید یک Storage Group شما نیاز به Host دارید. لیست Host های شما در HOST List موجود است. یک مقدار عمیق تر به موضوع بنگریم، برای اینکه Host داشته باشید، باید تعداد Initator داشته باشید. فعلا  تا همین حد وارد می شویم و در آینده نزدیک بیشتر به این موضوع می پردازیم.

امیدوارم این آموزش توانسته باشد یک دید کلی و پایه ای برای شروع کار با Unisphere برای شما فراهم نماید.

Flashها به جز سرعت و کارایی، چه امکانات بیشتری دارند؟

کارایی Flash

Flash ها به جز سرعت و کارایی، چه امکانات بیشتری دارند؟

Flash Storage ها بسرعت در حال تبدیل شدن به جریان اصلی در حوزه تکنولوژی ذخیرشی، هستند. تا جایی که تحلیلگران Gartner، پیش بینی کرده اند که، تا 5 سال آینده از هر 5 دیتا سنتر، یکی از آنها تمامی اطلاعات اولیه خود را بروی  Flashها منتقل خواهد نمود.

وقتی به Flash ها فکر می کنیم، ناخودآگاه ذهن ما تنها به سرعت و کارآیی آنها معطوف می شود. در حالیکه اینها تنها به عنوان مزایای اولیه برای جابجایی دیتاها از Disk-Based Storage به Flash ها، در بدو ورود Flash ها به این بازار ، بر شمارده می شد. این موضع برای مشتریانی که نرم افزارهایی داشتند که نیاز بود تا همیشه Available و Super Responsive، یک نیاز اساسی بود و Flash ها با سرعت و کارآیی خود به سادگی به این نیازها پاسخ می دادند و به همین دلیل نیز به عنوان شاخصهای اصلی این تکنولوژی نزد مشتریان معرفی شدند.

اما اکنون زمان آن رسیده که قابلیتهایی فراتر از سرعت و کارآیی را مورد بحث قرار دهیم. زیرا همانگونه که پیشتر هم ذکر شد این تکنولوژی بسیار فراتر از این دو خصیصه است. این موارد شامل سرویسهای Built-in Data نظیر Deduplication، Encryption، Replication، و Thin Provisioning می گردد.  فراتر از افزایش خام سرعت، بهره گیری از این سرویسها باعث تغییر معادله هزینه تمام شده می گردد و دیتا سنتر ها را قادر می سازد تا به نیازهای روبه تغییر سریع مشتریان خود، پاسخگو باشند.

تجدید نظر در خصوص هزینه های Storage

هزینه بهره برداری از یک Flash Storage در مقام مقایسه با یک Spinning Disk Storage بسیار مقرون به صرفه تر است! زیرا که All-Flash Arrays ها می توانند تا 6 برابر دیتای  بیشتری نسبت به Storage System سنتی،  با ظرفیت برابر، در خود ذخیره نمایند، تا جاییکه بنا به تخمین  تحلیلگران IDC، استفاده از All-Flash Arrays باعث کاهش 80% هزینه ها در طول 3 سال خواهد شد. بهره گیری از تکنولوژیهای هوشمندی نظیر Compression و Deduplication به معنای دخیره سازی دیتاها به شیوه موثرتر و با راندمان بسیار بالاتری نسبت به شیوه های سنتی پیشین است. پس با توجه به ذخیرش داده ها بیشتر بروی یک تجهیز، هزینه ذخیره سازی در ازای هر گیگابایت، به شدت کاهش می یابد.

این بهبود بهره وری در سرویس، تاثیر مثبتی نیز بروی تراکم Workload دارد. علاوه بر این، راه اندازی و بهره گیری از All-Flash Arrays باعث کاهش فضای مورد نیاز نصب ( Footprint )  تجهیز نیز می گردد که این به معنای نگهداری دیتای بیشتر در همان حجم فضای مورد نیاز Storage های سنتی است. با توجه به عدم وجود قطعات چرخشی و متحرک درون هاردهای Flash، گرمای تولید شده نسبت به سیستمهای سنتی بسیار کمتر است و این به معنی کاهش نیاز به سیستم خنک کنندگی و نتیجتا منجر به کاهش مصرف انرژی و  در نهایت کاهش هزینه در ازای نگهداری در هر گیگابایت دیتا خواهد شد.

ارائه چابکی بیشتر

نرم افزارهایی نظیر Airbnb و یا Uber که جز نرم افزار های موبایل Next-Generation هستند، باعث چالش هایی برای کسب و کارهای بزرگ در ارائه هر چه بهتر سرویس به مشتریان، شده است. برای موفقیت در دنیای کسب و کاری این چنینی، مجموعه شما باید بتواند اینگونه نوآوری های خود را، سریع تر از دیگران ارائه نماید. به محض رونمایی از اینگونه نرم افزار های جدید، با تاثیر سریع و موثر خود بروی مشتریان، باعث تولید نیازها و خواسته های جدیدی از سوی مشتریان می گردد. پاسخگویی به اینگونه نیازها در راهکارهای سنتی Storage ها مستلزم صرف هفته ها و یا حتی ماهها می باشد در حالیکه سیستمهای Flash تمامی این قوانین را زیر پا می گذارد.

بیایید فرض کنیم که شما یک نرم افزار پر مخاطب دارید که نیاز است در بخشهایی ازآن تغییراتی بوجود آید. با بهره مندی از All-Flash Arrays ها شما قادر خواهید بود تا 20 نسخه کپی از نرم فزار خود را بدون هیچ گونه تاثیری بر سرعت یا کارآیی تجهیز و یا حتی بدون نیاز به افزودن ظرفیت! در اختیار داشته باشید. بدین گونه تیم توسعه نرم افزار سازمان شما می تواند بصورت موازی بروی این نسخ کار کرده و نسخه جدید این نرم افزار را با سرعت بیشتری در اختیار مشتریان شما قرار دهد. فرآیندی که ممکن بود در کسب و کارهای بزرگ مستلزم هفته و یا ماهها باشد اکنون با بهرمندی از تکنولوژی All-Flash Arrays با توجه با بهبود دسترسی به کارآیی و ظرفیت، به ساعتها تقلیل یافته است.

برای مطالعه بیشتر در این خصوص می تواند کتاب الکترونیکی Agile Data Center – Where Scale Meets Performance را از اینجا دانلود نمایید.

معرفی XtremIO

XtremIO

معرفی XtremIO

اگر بیاد داشته باشید EMC در May سال 2012، XtremIO را به قیمت 340  میلیون دلار خریداری کرد. انتظار طولانی بود ولیکن بالاخره EMC نیز دست بکار شد و تصمیم گرفت وارد بازار All Flash Array Storage ها شود و به این انتظار مشتریان خود را پایان دهد. از May سال 2012 تا Nov سال 2013 شرکت EMC مشغول انجام کارهای تحقیقاتی بروی XtremIO بود و این محصول اصطلاحا تنها بصورت DA  و یا Direct Availability در دسترس بود و از تاریخ Nov سال 2013 به بعد این محصول بصورت عمومی در دسترس قرار گرفت. از آن تاریخ و در طی این 2 سال این محصول رشد کرده و به بلوغ لازم رسیده و با توجه به نیاز دیتا سنترها امروزی به سرعت های بالاتر در زمینه Storage ، تصمیم گرفتم در این مقاله شما را با این رده از محصولات EMC آشنا کنم.

در ابتدا، مبانی:

در حال حاضر 6 انتخاب برای این محصول وجود دارد. اجزای تشکیل دهنده اصلی آن عبارتند از:

  • 6 یونیت در ازای هر X-Brick ( در ادامه این مفهوم بررسی خواهد شد. )
  • 5 یونیت در ازای هر X-Brick اضافه
  • 750 وات
  • 4 عدد پورت 8GB FC در قسمت Front End
  • 4 عدد پورت 10GB ISCSI در قسمت Front End
  • پشتیبانی از 5 TB الی 320 TB فضای خام (Raw Capacity )

تصویر شماره 1

یک آرایه XtremIO از 1 الی 8 عدد X-Brick تشکیل می شود. تصویر شماره 1، اولین X-Brick را نمایش می دهد. اولین X-Brick دارای دو تجهیز باتری پشتیبان است. در صورت استفاده از دو عدد X-Brick، آنگاه X-Brick دوم از یک عدد تجهیز باتری بهره می برد و بدین گونه هر X-Brick دارای یک باتری پشتیبان خواهد بود. ذکر این موضوع تنها برای انجام محاسبات جانمایی در رک و تعداد یونیتهای مورد نیاز بود. هر X-Brick خود شامل دو عدد کنترلر با معماری X86-based تک یونیت و یک DAE با سایز 3 یونیت و ظرفیت 25 عدد هارد دیسک 2.5” SSD می باشد. زمانی که شما قصد دارید که از X-Brick دوم نیز استفاده نمایید، جهت برقراری ارتباط میان X-Brick ها به یک سوئیچ Infiniband تک یونیت نیز، نیاز خواهید داشت. ( تصویر شماره 2 )

 تصویر شماره 2

 

بیاد داشته باشید که کنترلرهای شما در واقع یک سرور تک یونیت مبتنی بر معماری X86-based می باشند و هیچ قطعه سخت افزاری خاصی، نسبت به سرورهای رایج در بازار ندارد. تمام معجزات XtremIO در بخش نرم افزاری آن رخ می دهد و این یک مزیت مهم این نوع طراحی است. زیرا تمامی قابلیتها و نوآوریهایی که در این زمینه رخ دهد تنها با بروز رسانی نرم افزار موجود برای شما نیز قابل دسترس خواهد بود.

 تصویر شماره 3

تصویر شماره 3، معماری مورد استفاده در این محصول را آشکار می نماید. هر کنترلر از 16 هسته پردازنده فیزیکی و GB 256 ، RAM بهره می برد. دو کنترلر توسط یک واسط ارتباطی Infiniband RDMA با یکدیگر تبادل اطلاعات می نمایند. زمانیکه شما تنها از یک X-Brick استفاده می نمایید، کنترلرها مستقیما به یکدیگر متصل می گردند، اما در حالتی که بیش از یک X-Brick وجود داشته باشد، لازم است از یک Infiniband switch استفاده نماییم. هر دو کنترلر توسط کابلهای SAS به DAE متصل می شوند.

هر دو کنترلر بصورت Active/Active عمل می نمایند و LUN ها در یک لحظه توسط هر دو کنترلر قابل دسترسی است ( مانند حالتی که در EMC VNX شما از لایسنس Power Path استفاده میکنید و به نوعی از جمع پهنای باند هر دو کنترلر استفاده می نمایید.) و دیگر نیازی به بهره گیری از تکنولوژی ALUA یا همان Asymmetric Logical Unit Access نمی باشد.

بررسی عملکرد

XtremIO بسیار بسیار ……. سریع است. دیگر از یک Full Flash Array چه انتظاری دارید؟ موضوع بسیار جالب درباره EtremIO اینست که این Storage به اندازه کافی سریع است و جالب تر اینکه بدانید با بسط آن و افزایش تعداد X-Brick ها، سریعتر نیز می شود. EMC با ارائه این محصول به بازار سر و صدای زیادی راه انداخته است. معیار محاسبه سرعتهای ارائه شده، یک تجهیز با 80% توان آن Workload می باشد که عموما توسط Full Flash Array ها قابل تحمل نیست اما EMC قصد داشته تا تجهیز خود را در شرایط کاملا مشابه با شرایط واقعی بیازماید و تمامی IO بصورت ترکیبی از Read/Write می باشد.

Read IOPS

Read/Write IOPS Raw Capacity System

250 K

150 K

5 TB

Starter X-Brick

250 K

150 K

10, 20, or 40 TB

1 X-Brick

500K

300 K

20, 40, or 80 TB

2 X-Brick Cluste

1M

600 K

40, 80, or 160 TB

4 X-Brick Cluster

1.5M

900 K

120 or 240 TB

6 X-Brick Cluster

2M

1.2 M

160 or 320 TB

8 X-Brick Cluster

 جدول شماره 1

نکته قابل تامل رابطه خطی افزایش سرعت تجهیز با افزایش تعدادX-Brick ها می باشد. در واقع با افزایش X-Brick ها نه تنها ظرفیت را افزایش داده اید، بلکه سرعت تجهیز را نیز افزایش داده اید. بدین شیوه برای محاسبات Sizing سامانه Storage خود تنها نیاز دارید تا IOPS مورد نیاز را بدانید. آنگاه بر اساس جدول شماره 1 ، تعداد X-Brick های مورد نیاز را بیابید. سپس بررسی نمایید آیا این تعداد تکافوی ظرفیت درخواستی را نیز دارد یا خیر. به همین سادگی!

همچنین، بیاد داشته باشید که تمامی IOPS شما دارای latency کمتر از 1 ms خواهد بود. می توانید باور کنید؟ راستش واسه من تصورش هم سخته!!

ویژگیها

یکی از بزرگترین ویژگیهای XtremIO اینست که تمامی قابلیتهای آن همیشه قابل استفاده هستند و بمانند سری VNX شما نیاز به خرید لایسنسهای جداگانه جهت بهره برداری از این قابلیتها ندارید. این موضوع باعث سادگی بسیار زیاد مدیریت تجهیز شده است زیرا شما هیج نیازی به فعال و یا غیر فعال نمودن هیچ قابلیتی ندارید و تمامی آنها همیشه روشن هستند و در صورت نیاز بصورت اتوماتیک درگیر خواهند شد.

در XtremIO شما هیچ نیازی به Setup و Tuning ندارید. هیچ Raid Group، هیچ Pool، هیچ Stripe Sizes و حتی هیچ Tier وجود ندارد! در اینجا شما تنها مجموعه از Storage های بسیار بسیار سریع دارید و تنها باید تصمیم بگیرید که می خواهید سایز Lun شما چقدر باشد؟ این تنها کاری است که شما باید انجام دهید!

در ادامه خواهیم دید که دیتا بروی XtremIO چگونه Deduped و چگونه نوشته می شود ولیکن فعلا به این حد بسنده کنیم که XtremIO میتواند تمامی درخواستهای IO را روی تمامی SSD های موجود در کلاستر Balances می شود. به همین دلیل در XtremIO هیچ HotSpot در هیچ جا وجود ندارد و شما نمیتوانید هیچ SSD پیدا نمایید که تقریبا پر شده باشد در حالیکه SSD با ظرفیت تقریبا خالی وجود داشته باشد. تصویر شماره 4 این موضوع را نمایش می دهد.

تصویر شماره 4

همچنین هر چه بروی XtremIO نوشته می شود تنها بصورت Thin می باشد. XtremIO همچنین از VAAI نیز پشتیبانی می کند. قابلیتهای پشتیبانی شده در VAAI عبارتند از :

  • Zero Blcoks/Write Same
  • Clone Blocks / Full Copy / XCopy
  • Atomic Test & Set
  • Block Delete / UNMAP / TRIM

ظرفیت و راهکار جادویی XtremIO

همانگونه که تا کنون دیدیم در هر X-Brick محدودیت ظرفیت داریم ( تعداد حداکثر 25 عدد هارد SSD ) . برای رفع این نقیصه XtremIO از شیوه Full In-Line Deduplication بهره می برد و این قابلیت همیشه روشن است و بر خلاف دیگر مدلها نظیر VNX امکان غیرفعال نمودن آنرا ندارید. هماهنگونه نیز که ذکر شد این قابلیت بصورت In-Line عمل می نماید و شامل تمامی هارد دیسکها و X-Brick های موجود در کلاستر است. فرآیند این قابلیت بدین گونه است که هر داده ای که وارد آرایه می گردد ابتدا انگشت نگاری می شود و آنگاه آرایه یک Hash خاص برای آن تولید می نماید تا از نوشتن داده هایی با همان Hash در آینده بروی آرایه جلوگیری نماید.

تصویر شماره 5

نکته بسیار جالب در خصوص این فرآیند اینست که XtremIO جداول مربوط به Deduplication را پس از بوت شدن سامانه بروی Ram تمامی X-Brick های درون کلاستر نگاه می دارد تا بتواند به سرعت به جستجو درون آن بپردازد و بدین گونه سرعت این فرآیند را بشدت بالا ببرد.

حال سوال اصلی اینست که شما به چه فضایی نیار دارید؟ این کاملا بستگی به نوع داده های مورد استفاده در سازمان شما دارد زیرا که نرخ  Deduplication می تواند از 3:1 تا 10:1 متغییر باشد.

حالت ارتجاعی

آیا می توان به XtremIO برای نگهداری داده ها اطمینان کرد؟ من فکر می کنم میشود. همه قطعات در XtremIO دارای Redundant هستند.

  • Redundant controllers
  • Backup power supplies
  • Dual (redundant) power supplies
  • Dual (redundant) InfiniBand ports
  • Dual SAS Controller Modules
  • Dual iSCSI and Fibre Channel ports on each storage controller
  • Fail up to 6 SSDs per X-Brick
  • N+2 row and diagonal parity

ذکر این موضوع لازم است که شما نمی توانید همزمان 6 عدد SSD را در یک X-Brick از دست بدهید، بلکه در هر زمان می توانید حداکثر تا 2 عدد SSD را بصورت همزمان بدون از بین رفتن داده ها، از دست بدهید. بعد از این رخداد XtremIO شروع به فرآیند باسازی می نماید و پس از پایان بازسازی، تجهیز شما می تواند 2 عدد SSD دیگر را از دست بدهد. بهمین ترتیب تا حداکثر 6 عدد SSD در هر X-Brick. حال فرض کنید که شما در کلاستر خود از 4 عدد X-Brick استفاده می نمایید. آنگاه کلاستر شما تحمل از دست دادن تا 24 عدد SSD را دارد! این تقریبا معادل تعداد کل درایوهای SSD یک X-Brick است.

نرم افزار های XtremIO برای محافظت از داده ها از مکانیزیمی بنام XDP (XtremIO Data Protection  ) بهره می برند. XDP با بهره گیری از تکنولوژیهای بسیار پیشرفته می تواند حفاظت از داده های شما را تضمین نموده و بر خلاف روشهای معمول و سنتی Raid، I/O Overhead و هدر روی کمتر فضای دیسک (Capacity Overhead  ) را به ارمغان می آورد. جالب است بدانید که در XDP، Capacity Overhead تولید شده کمتر از 8% است.

XDP بسیار کارآمد و موثر است. در بسیاری از All Flash Array Storage ها در هنگام نوشتن داده ها، تمامی SSD ها Lock می شوند. بدین معنا که در همان لحظه شما امکان خواندن دیتا بصورت همزمان را نخواهید داشت! بر خلاف آن XtremIO با بهره گیری از XDP هیچ نیازی به Lock کردن SSD ها نداشته و بلکه امکان دسترسی با سرعت به مراتب بالاتری را نیز فراهم می آورد.

XDP نیازی به هیچ گونه تنظیماتی ندارد و همچنین هیچ تعریفی بنام HotSpare در XDP وجود ندارد. در صورت بروز مشکلی برای SSD ها سیستم بصورت کاملا آگاهانه شروع به بازسازی می نماید و پس از آن بر خلاف حالتهای Raid سنتی، دوباره سیستم به سرعت طبیعی خود برمی گردد.

و در نهایت شما بدون نیاز به هیچ گونه Down Time و یا تولید اختلالی می توانید سامانه خود را بروز رسانی نمایید حتی بدون کوچکترین تاثیر در IO سرویس گیرنده ها.

تولید کننده SSD شما کیست و چرا این موضوع مهم است ؟

Untitled-2

تولید کننده SSD شما کیست و چرا این موضوع مهم است ؟

قابلیتهایی نظیر VSAN، Pernix Data FVP، XtremSW و ScaleIO از EMC و همچنین ioVDI، ioTurbine از FusionIO توجه خاصی به وجود هارد دیسکهای Flash بروی سرورهای شما دارند. مشکل بسیار بزرگی که بسیاری از مدیران شبکه با آن روبرو می شوند اینست که در انتخاب Flash دیسک باید بسیار محتاط بود. تمامی SSD ها و PCIe Card ها یکسان نیستند …. و داستان از همینجا شروع می شود.

اگر به SSD های موجود بروی سرورها متفاوت نگاهی بیاندازید، قطعا با انواع انتخاب روبرو خواهید شد. در بازار تجاری SSD های سه دسته اصلی ( البته به صورت کامل دارای 4 دسته هستند ) از SSD ها موجود است: MLC ( گاهی به نام cMLC نیز نامیده می شود. ) ، eMLC و SLC. SLC ها در واقع Single Layer Cell هستند که گرانترین نمونه نیز می باشند. با ظهور eMLC (Enterprise Multi-Level Cell .) ها کم کم SLC ها کم فروغ تر شدند. پیشتر SLC به دلیل سرعت بالا و طول عمر بالاتر، بسیار مورد توجه بودند ولیکن بدلیل قیمت بسیار بالا در مقایسه با eMLC ها، رقابت را به آنها باختند. eMLC ها به سرعت توانستند خلاء میان MLC و SLC را با هزینه بسیار کمتر پر کنند. و در آخر، MLC ها که همانگونه که گفته شد به آنها cMLC و یا Consumer Multi-Level Cell نیز گفته می شود. اینگونه SSD ها بیشتر مناسب شرایط استفاده در Notebook ها و PC ها می باشند و در محیطهایی با IO بالا پاسخگو نیستند.

اما شما بعنوان یک Storage Admin باید فراتر از این مسائل را در نظر داشته باشید. شما باید مسائلی از قبیل Over Provisioning Space، طول عمر، سلولهای Wears Out شده و یا سلولهایی که دیگر قابل استفاده نیستندو….. . عموما تمامی SSD ها دارای فضایی هستند که شما نمی توانید به آن دسترسی داشته باشید  و برای جابجایی اطلاعات سلولهایی که بسیار مستعمل شده اند مورد استفاده قرار می گیرد. SSD هایی که کیفیت های بالاتر و گرانتر عموما دارای فضای بیشتری جهت انجام این فرآیند هستند و قطعا SSD های ارزانتر فضای بسیار کمتری برای انجام این پروسه دارند. این فضای اضافه عموما برای مقاصد دیگری نظیر Garbage Collection و … نیز استفاده می گردد. Garbage Collection در واقع فرآیندی که طی آن SSD سلولهایی که اطلاعات آن توسط سیستم عامل حذف شده است را به صفر تبدیل می نماید تا برای نوشتن مجدد آماده باشد.

در این مقاله خیلی قصد ندارم به عمق این فرآیندهای درون SSD  ها وارد شوم ولیکن اگر فرصتی پیش آید بزودی در خصوص ساختار فیزیکی و فرآیند House Keeping درون SSD ها نیز، مقاله ای در اختیار شما قرار خواهم داد.

تولید کنندگان متفاوت همچنین از کنترلرهای متفاوتی برای SSD های خود بهره می برند. تفاوت این کنترلرها در Interface مورد استفاده، پردازنده مورد استفاده و مهمترین بخش آن Frameware مورد استفاده است. بسیاری از قابلیتها و انجام صحیح و سریع آن فرآیندها منوط به وجود Frameware مناسب است. این Frameware بمانند یک سیستم عامل بروی رایانه شما عمل می کند و تمامی رفتارهای اجزای فیزیکی را کنترل می کند. قطعا SSD های با کیفیت تر بدلیل برخورداری از Frameware های بهتر، در محیط پر ترافیک می توانند عملکرد مناسب تری را نسبت به SSD های ارزان قیمت تر داشته باشند.

عموما وقتی شما قصد خرید یک SSD را بروس سرور و یا Storage خود را دارید نمی تواند از مدل و برند هارد SSD خود اطلاعات دقیقی کسب نمایید و معمولا با نامهای خاص تجاری که فروشنده به روی تجهیز قرار داده برخورد می نمایید نظیر :

  • Fast VP و Fast Cache در EMC
  • Enterprise Value و Enterprise Performance در Cisco
  • و ….

ولیکن با قدری جستجو در اینترنت قطعا می توانید بطور دقیق دریابید که مثلا در برند Cisco عبارت Enterprise Value برای SSD های Micron P400e و یا Enterprise Performance برای Samsung 1625 استفاده می شود. با جستجوی بیستر درمیابید که Micron P400e برای یکبار در روز Full Drive Overwrite طراحی شده است در حالیکه Samsung 1625 دارای تحمل 5 بار Full Drive Overwrite در روز می باشد. پس با توجه به این موارد می توان دریافت SSD مدل Micron P400e برای مقاصدی نظیر VSAN اصلا مناسب نیست. استفاده از این نوع SSD برای مقاصدی نظیر VSAN و Pernix Data FVP با توجه به حجم بالای ترافیک خواندن و نوشتن و از همه مهمتر نرخ بالای Modify صورت گرفته، باعث مرگ زودرس SSD می گردد و سلولهای SSD را به سرعت به انتهای بازه عمرشان می رساند. پس بر خلاف صحبتهای رایج میان کاربران خانگی، تفاوت قیمت میان SSD ها عموما تفاوتی بنیادی و بر اساس تکنولوژیهای متفاوت است و نه تنها هزینه ای است که بابت برند پرداخت می نمایید.

معرفی EMC VMAX3

EMCVMAX3

معرفی EMC VMAX3 :

امسال، تمامی توجهات در دنیای سامانه های ذخیره سازی ( Storage) ، معطوف به تکنولوژی درخشان All-Flash Arrays و یا AFAs بود. این سامانه ها بسیار سریع هستند، به سادگی مدیریت می شوند و به خوبی بسط پذیرند و ….. . اما آنها ابزاری مناسب، برای تمامی مشکلات نیستند، هر چند که شرکت های سازنده این محصولات، سعی می نماید به گونه ای دیگر به شما وانمود نمایند.

به عنوان یک دلیل خوب، درصد بسیار زیادی از دنیا هنوز از  Enterprise-Class Storage Arrays ( مبتنی بر دیسکهای مکانیکی ) استفاده می نمایند. این سامانه ها، پایداری و قابل اطمینان بودن خود را در طی سالها به اثبات رسانده اند و می توانند سرویس قویتری نسبت به دیگر Platform ها ارائه نمایند. مشکل اینگونه سامانه ها عموما هزینه های سنگین و مدیریت پیچیده، آنهاست.

حدود یکسال پیش شرکت EMC بطور رسمی محصولی جدید را در رده Enterprise-Class Storage Arrays، رونمایی کرد. حال سوال اینجاست : در حالی که رده محصولات All-Flash Arrays در کانون توجهات جهانی قرار دارد، چرا باید کسی خود را با انتخاب این رده از محصولات به مخاطره و چالش بیاندازد؟ در این مقاله به بررسی ویژگیهای منحصر به فرد و اغوا کننده این رده از محصولات می پردازیم :

تعریف جدیدی از مفهوم VMAX

VMAX3 توانسته محصولات Enterprise شرکت EMC را در مسیر جدیدی قرار دهد. حتی Chad Sakac نیز در این پست به آن اشاره کرده است. این محصول به مراتب سریعتر و متراکم تر است. از مدیریت ساده تری برخوردار است و بسیار منعطف تر می باشد. همه اینها در حالی است که با هزینه ای به مراتب پایینتر توانسته از اعتمادی که توسط مدلهایی نظیر  DMX / Symmetrix / VMAX در طی سالیان متمادی به کسب شده است، به خوبی پاسداری نماید.

سریعتر و متراکم تر

همانگونه که از VMAX3 انتظار می رفت، از سرعت بهتری نسب به نسل پیشین خود بهره می برد. از Engine های ( عملکرد Engine بمانند Storage Controller در سری VNX می باشد. ) سریعتری بهره می برد. دارای حافظه Cache بیشتر، پردازنده هایی با تعداد هسته بیشتر، و تعداد پورتهای Front-End بیشتری با سرعت 16 Gb می باشند. با مقایسه نسل پیشین با نسل جدید این محصول به سادگی می توان دریافت که عموما شما تنها به نیمی از تعداد Engine هایی که پیشتر مورد استفاده بوده است، نیاز دارید. این به معنای فضای کمتر جهت نصب، سیستم سرمایش کمتر و مصرف برق کمتر خواهد بود.

تصویر شماره 1

و همچنین بهره مندی از کابینتهای دیسک جدید (Disk Shelves ). این  Disk Shelve ها نیز بسیار متراکم تر می باشند بگونه ای که شما می تواند از تعداد دیسک بیشتری در فضای کوچکتری بهره ببرید. در تصویر شماره 1، تصویر Disk Shelve مدل Viking را مشاهده می نمایید که امکان استفاده از 120 هارد دیسک 2.5 اینچی را در فضایی به ارتفاع 3 یونیت برای شما، فراهم می آورد. همچنین Disk Shelve دیگری نیز به نام Voyager است که قابلیت نگهداری 60 هارد دیسک 5/3 اینچی را در 4 یونیت فراهم می آورد. تراکم زیاد بهمراه سرعت بالا.

همچنین دیگر شما ملزم به استفاده از رکهای خاص نیستید. VMAX3 میتواند در تمامی رکهای استاندارد، مورد استفاده قرار گیرد. ( این موضوع سالهای متمادی، مورد درخواست بسیاری از کاربران VMAX بوده است. ) EMC همچنین نحوه اتصالات کابل (Cabling ) را نیز بهبود داده است و از پیچیدگی های نامانوس پیشین کاسته است. همچنین با بهره گیری از شیوه جدید اتصالات، شما می توانید تا 25 متر فاصله میان رکهای VMAX خود داشته باشید و اجزای مختلف آن را در نقاط مختلفی از دیتا سنتر خود جای دهید.

مدیریت ساده تر

تمامی افرادی که در حوزه Storage فعالیت داشته اند، قطعا تایید می نمایند که مدیریت و اجرای یک بستر ذخیره سازی مناسب نیازمند در نظر گرفتن پارامترهای فراوان و پیچیده ای می باشد. زمانی که قصد دارید یک Storage سفارش دهید باید تمامی نیازهای مربوطه نظیر سرعت، فضا و …… را درنظر بگیرید. این امور با توجه به پیچیدگی های خود باعث غامض شدن این حوزه می گردد. این متد برای سالها بدین گونه بوده است ولیکن به تازگی به سرعت در حال تغییر است. از این پس تیم Storage نیازی به هماهنگی با دیگر تجهیزات ندارد. (Hypers , TDATs  و  Metas ) . بگذارید Storage Array خودش به این امور رسیدگی نماید!

تصویر شماره 2

با بهره گیری از VMAX3 شما قادر خواهید بود تا فضای درخواستی را به سادگی و با توجه به سرعت مورد نیاز مصرف کننده در اختیارش قرار دهید. تنها نیاز است تصمیم بگیرید که در از چه Tier می خواهید شروع نمایید ( و حتی به سادگی می توانید در آینده آنرا تغییر دهید. ). VMAX3 داده های شما را در Tier مربوطه جانمایی می کند و بر اساس این جانمایی همیشه در تلاش است تا بتواند SLA مربوطه را برای آن حفظ نماید و بتواند سرعت مورد نیاز را پاسخگو باشد. این شیوه باعث می شود که تکنولوژی FAST (Fully Automated Storage Tiering ) مورد استفاده در مدلهای VNX شرکت EMC به مرحله جدیدی و ساده تری از مدیریت و تنظیمات، وارد شود.

انعطاف پذیری

VMAX3 از گونه ای متفاوت سیستم عامل قابل اطمینان، بنام HYPERMAX بهره می برد. این سیستم عامل جدید قابلیتها و امکانات جدید فراوانی نیز بهمراه خویش دارد. یکی از این قابلیتهای جدید موجود در این سیستم عامل، Storage Hypervisor نام دارد. اگر شما از دیگر تجهیزات EMC بهره برده باشید، به احتمال زیاد با واژه سخت افزاری بنام Data Mover برای ارائه سرویس File آشنا هستید. از این پس دیگر هیچ نیازی به این سخت افزار نیست!!!. از این پس VMAX3 با بهره گیری از این قابلیت HYPERMAX، قادر خواهد بود تا Data Mover های مجازی خود را بروی لایه مجازی VMAX3 اجرا نماید. این تنها یکی از بسیار قابلیت جذابی است که EMC قصد دارد مستقیما بروی خود Array به آنها پاسخ دهد، است. البته بجز سرویسها و Application های خاصی که در آینده نزدیک قصد ارائه آنها را دارد.

تصویر شماره 3

EMC همچنین در حال یکپارچه سازی قابلیتهای Cloud-Tiering است که در سال گذشته با خرید TwinStrata به تکنولوژی آن دست یافته است. بدین گونه شما قادر خواهید بود که Tier هایی از Storage که به ندرت استفاده می شود را، به یک Cloud عمومی با هزینه ای بسیار پایین تبدیل نمایید.

یکپارچگی با تولید نسخ پشتیبان

ادغام و یکپارچگی هر چه بیشتر با قابلیتها محصول  ProtectPoint . بدین گونه تولید نسخ پشتیبان با بهره گیری از VMAX بسیار ساده تر شده است و دیگر نیازی به نرم افزارهای ثالث جهت تولید نسخ پشتیبان نیست. VMAX3 خود قادر است تا از خود یک SnapShot تولید نموده و آنگاه بیتهای تغییر یافته را جهت تولید نسخه پشتیبان مستقیما به Data Domain ارسال نماید ( بدون هیچگونه نیازی به نرم افزار های تولید نسخ پشتیبان ثالث ).

آیا تمامی راه ها به Flash ختم می شود ؟

امروزه صحبتهای بسیاری در خصوص فرسایش واقعی بازار Enterprise Array به میان می آید. هر چند که من معتقدم بسیاری از این حرفها دارای پایه فنی نیستند، ولیکن به طور قطع نیز معتقدم که بعضی از کاربران نیاز دارند که از Storage های جدید AFA، استفاده نمایند. این موضوع کاملا به محیط و نیاز های شما از سامانه Storage بستگی دارد. آیا به سرعت بالا بهمراه سادگی در مدیریت و بهره وری نیاز دارید؟ All-Flash Arrays پاسخ شماست. به شرط آنکه بتوانید از عهده هزینه نگهداری اطلاعاتتان به روی هارد دیسکهای Flash، برآیید.

اما اگر داده های شما بسیار تکرارپذیر باشند و یا نتوانند بخوبی Dedupe شوند؟ یا نیاز به فراهم آوردن Storage  برای Mainframe های خود هستید.( که بسیاری از AFA قادر به ارائه این سرویس به  Mainframe ها نیستند. ) و …. آنگاه اینجا جایی است که خانواده VMAX شروع به درخشیدن می کند.

درست است که بسیار از مشکلات All-Flash Arrays حل شده است …. اما این به معنای حل تمامی مشکلات نیست.