خطای Heap globalCartel-1 already at its maximum size.Cannot expand

خطای Heap globalCartel-1 already at its maximum size.Cannot expand

هر یک از علایم زیر ناشی از خطای بیان شده می باشد و دلیل یکسانی دارند:

  • عدم توانایی اجرا vMotion (چه برای انتقال یک ماشین از هاست مورد نظر و چه برای انتقال به هاست ESXi).
  • عدم توانایی سرویس ها (چه برای سرویس هایی که از هاست مورد نظر اجرا میشوند و چه برای سرویس هایی که بر روی این هاست اجرا میشوند).
  • Fail شدن هاست ESXi هنگام Enable کردن سرویس ها و یا vMotion .
  •  هنگامی که اجرای  Task ها در Vsphere Client  به Error زیر ختم می شود :

A general system error occurred: Command /bin/sh failed

  • وقتی به کنسول ماشین مجازی متصل میشوید،و Error زیر را می بینید :

Unable to contact the MKS: Could not connect to pipe\\.\pipe\vmware-authdpipe

و

.Unable to connect to the MKS: connection terminated by server

  • وقتی ماشین مجازی را Power On می کنید، خطای زیر را دریافت می کنید :

VMK_NO_MEMORY

  • هنگام اتصال به ESXi shell خطای زیر را دریافت می نمایید :

can’t fork

  • هنگامی که در DCUI کلیدهای Alt+F12 را بزنید:

WARNING: Heap: 2677: Heap globalCartel-1 already at its maximum size. Cannot expand

  • و در log file مربوط /var/log/vmkwarning خطاهای زیر را مشاهده میکنید:

T

(تاریخ و زمان ذکر شده در بالا نسبت به شرایط متغییر است.)

  • در هنگام اجرای هر دستوری در ESXi هم با خطای زیر مواجه خواهید شد:

-sh: can’t set tty process group (Operation not permitted).

۱.تصویر مربوط به خطا در هنگام روشن شدن ماشین مجازی

دلایل error  های بالا:

این خطاها در هاست های ESXi ای که بر روی سخت افزار HP با ورژن های AMS زیر قرار دارند رخ میدهد:

  • hp-ams 500.9.6.0-12.434156
  • hp-ams-550.9.6.0-12.1198610
  • hp-ams 500.10.0.0-18.434156
  • hp-ams-550.10.0.0-18.1198610

راه کار برای رفع این خطا:

این مشکل رایجی است که ESXi 5.x را تحت تاثیر قرار داده است. برای رفع این مشکل یکی از این روش ها را امتحان کنید. Upgrade کردن ESXi و در صورت عدم حل مشکل، به صورت دستی ورژن AMS را Upgrade کنید.

Upgrade نمودن ESXi

  • Upgrade کردن vSphere ESXi 5.5 Update 3 که در این لینک موجود است.

Upgrade به ورژن ۱۹.۰.۱ و بالاتر

 

–  توجه: لینک های ارائه شده در تاریخ ۱۲ August, 2015 معتبر بودند.

نصب درایورها

روش دیگر نصب درایور ها است که اطلاعات در مورد نصب درایور های و بروز رسانی Frimware سرورهای HP در این لینک موجود است.

حذف AMS Package

اگر هم نمیخواهید که هیچ یک را Upgrade نمایید، میتوانید Package را در تمامی ESXi هاست هایی که با ورژن AMS گفته شده هستند، پاک کنید.

توجه: در برخی از موارد Command هایی که بر روی هاست ESXi   اجرا میشوند با خطای cant’t fork رو به رو میشوند که در این صورت باید ماشین های مجازی بر روی این هاست را خاموش کرده و هاست را یکبار Reboot کرد.

ابتدا دستور زیر را برای متوجه شدن ورژن AMS بزنید:

esxcli software vib list | grep ams

  • سپس برای حذف کردن Package بر روی تمامی هاست هایی که این ورژن از AMS را دارا هستند:
  • به هاست خود توسط SSH متصل شوید. اطلاعات بیشتر در ( روش فعال کردن SSH در ESXi )
  • دستور زیر را برای Stop کردن سرویس هاس HP بزنید.

/etc/init.d/hp-ams.sh stop

  • دستور زیر را برای حذف VIB بزنید

esxcli software vib remove -n hp-ams

  • هاست را Restart کنید.

با اجرا هر یک از روش های فوق،خطا باید رفع شود و دیگر نباید با این خطا مواجه شوید.

روش نصب Patchها در Esxi

روش نصب Patchها در Esxi

  • به عنوان اولین مرحله پیشنهاد می کنم در صورت امکان هاست خود را در حالت Maintenance mode قرار دهید.

  • SSH هاست خود را فعال نمایید. در صورت نیاز به راهنمایی به این پست مراجعه نمایید.

  •  Patch های دانلود شده را به Datastore هاست منتقل نمایید.

  • توسط یک نرم افزار SSH Clinet نظیر Putty به هاست خود متصل شوید.
  •  دستور زیر را تایپ نمایید.

esxcli software vib update -d /vmfs/volumes/<your_datastore>/< File Name >.zip

  • در دستور فوق استفاده از سوئیچ Update باعث حفظ تمامی درایورهای سخت افزاری موجود و Vib فایلهای پیشین خواهد شد.
  • پس از چند دقیقه بروز رسانی به اتمام خواهد رسید. در صورت نیاز می توانید با دستور Reboot در محیط Command ، هاست را ریبوت نمایید.
  • از طریق زیر می توانید ویرایش نسخه ESXi خود را ببینید.

  • و یا با دستور زیر در محیط Command ویرایش Esxi را بیابید.

 esxcli system version get

روش فعال کردن SSH در ESXi

روش فعال کردن SSH در ESXi

برای این منظور دو روش وجود دارد.

روش اول : استفاده از DCUI

  • بروی صفحه لاگین هاست خود کلید F2 را بفشارید.

  • نام کاربری و پسورد خود را وارد نمایید.

  • پس از لاگین، گزینه Troubleshooting Options را انتخاب نمایید.

  • با انتخاب گزینه Enable SSH، می توانید SSH هاست خود را فعال نمایید.

  روش دوم : استفاده از vSphere Client

  • توسط vSphere Client به هاست مورد نظر و یا Vcenter متصل شوید و پس از انتخاب هاست خود،  Tab مربوط به Configuration را انتخاب نمایید.

  • در قسمت Configuration گزینه Security Profile را انتخاب نمایید.

  • گزینه Properties را انتخاب نموده و از پنجره جدید، SSH را انتخاب نمایید و سرویس مربوط به SSH را Start نمایید.

  • اگر در دسترسی به SSH خود مشکلی داشتید، بخش Firewall را بررسی نمایید.

روش ریست کردن پسورد administrator@vsphere.local در vCenter 5.5

vcenter5.5

روش ریست کردن پسورد administrator@vsphere.local در vCenter 5.5

اگر به هر دلیلی در اتصال به vCenter خود دچار بروز خطا بدلیل Credentials شوید و نیاز به ریست کردن پسورد administrator@vsphere.local داشتید می توانید از این آموزش استفاده نمایید.

نسخه ویندوزی vCenter

۱- با یک یوزر Domain Administrator و یا Local Administrator به سرور vCenter متصل شوید.

۲- یک Command Prompt را با Run As Administrator اجرا نمایید.

۳- به مسیر C:\Program Files\VMware\Infrastructure\VMware\CIS\vmdird بروید.

۴- vdcadmintool.exe را اجرا نمایید.

۵- کنسول زیر نمایش داده می شود.

 ===============================
Please select:
۰. exit
۱. Test LDAP connectivity
۲. Force start replication cycle
۳. Reset account password
۴. Set log level and mask
۵. Set vmdir state
===============================

۶- گزینه ۳ یعنی Reset account password را انتخاب نمایید.

۷- زمانی که Account UPN را از شما خواست، عبارت زیر را تایپ نمایید.

cn=Administrator,cn=users,dc=vSphere,dc=local

۸- دکمه Enter را بفشارید.

۹- یک پسورد جدید تولید و بروی صفحه نمایش داده می شود.

۱۰- ۰ را انتخاب نمایید.

۱۱- با پسورد جدید در vSphere Web Client لاگین نمایید.

۱۲- بروی Home کلیک کنید.

۱۳- بروی Administration کلیک کنید.

۱۴- بروی Single Sign-On > Users and Groups کلیک نمایید.

۱۵- بروی User کلیک کنید.

۱۶- بروی administrator@vsphere.local راست کلیک کنید و Edit را انتخاب نمایید.

۱۷- پسورد جدید را وارد نمایید.

نسخه vCenter Appliance

۱- توسط SSH به vCenter Server Appliance متصل شوید.

۲- دستور زیر را برای فعال سازی دسترسی به Bash Shell اجرا نمایید.

 shell set –enable true

۳- shell را تایپ نمایید و Enter را بفشارید.

۴- با فرمان زیر ابزار vdcadmintool را اجرا نمایید.

/usr/lib/vmware-vmdir/bin/vdcadmintool

۵- ادامه مراحل بمانند گزینه ۶ به بعد نسخه ویندوزی است.

معرفی EMC VNX MirrorView

معرفی  EMC VNX – MirrorView

MirrorView قابلیت Replication لایه Block برای محصولات رده VNX است. MirrorView دارای دو شیوه Mirroring است :

  • (MirroView/S (Synchronous
  • (MirrorView/A (Asynchronous

MirrorView تکنولوژی ایست که می تواند Block های داده ها را در سایت دومی، Mirror نماید. این قابلیت یک راهکار مناسب برایReplication داده ها در طرح Disaster Recovery است. MirrorView یک راهکار LUN Centric است یعنی در این راهکار یک LUN اولیه موجود در VNX سایت عملیاتی با LUN ثانویه موجود در VNX سایت دوم، Replicate می شوند و این همسان سازی تنها در لایه LUN صورت می گیرد.

MirrorView/S

MirrorView/S قابلیت Synchronous Replication را در فواصل کوتاه فراهم می آورد. در صورت استفاده از  Synchronous Replication، آنگاه RPO یا همان Recovery Point Objective برابر با صفر است. این یعنی اگر حتی سایت اول دچار حوادثی نظیر آتش سوزی، سیل و …. شود، شما حتی یک بیت داده را از دست نخواهید داد!!

فرآیند فعالیت  MirrorView/S بدین شیوه است :

  1. هاست متصل به VNX سایت اول، یک دستور Write را ارسال می نماید.
  2. VNX سایت اول، داده ها را برای VNX سایت دوم ارسال می نماید.
  3. VNX سایت دوم پس از دریافت داده، یک پیام Acknowledges مبتنی بر Write داده به VNX سایت اول ارسال می کند.
  4. VNX سایت اول، یک یک پیام Acknowledges مبتنی بر Write داده به هاست ارسال می کند.

تصویر ذیل گویا فرآیند ذکر شده است.

درک جریان داده در MirrorView/S بسیار مهم است. نتیجه بررسی RTT یا همان Round Trip Time، بین دو تجهیز VNX بایستی کمتر و یا مساوی ۱۰ msباشد. RTT بالا به معنای Response Time بسیار بالا برای هاست است و باعث کندی عملکرد کل سامانه می شود.

MirrorView/A

MirrorView/A قابلیت Replication را در مسافتهای طولانی فراهم می آورد. این قابلیت می تواند مابین VNX هایی که دارای RTT بالاتر از ۱۰ ms تا حداکثر ۲۰۰ ms است، استفاده شود. MirrorView Asynchronous بصورت دوره های تناوبی شروع به بروزرسانی داده ها در سایت دوم می کند. در این مکانیزم داده های در تغییرات داده ها را درسایت اول توسط MirrorView/A، ردیابی می نماید و آنگاه آن تغییرات را بر اساس RPO تنظیم شده از سوی کاربر، برای VNX سایت دوم ارسال می دارد.

فرآیند عملکرد MirrorView/A بدین شیوه است :

  1. هاست متصل به VNX سایت اول، یک دستور Write را ارسال می نماید.
  2. VNX سایت اول، پس از دریافت داده یک پیام Acknowledge برای هاست ارسال می دارد.
  3. VNX سایت اول، بر اساس RPO تنظیم شده، تغییرات در داده های سایت اول را برای VNX سایت دوم ارسال می کند.
  4. VNX سایت دوم، داده ها را دریافت می کند و یک پیام Acknowledge برای VNX سایت اول، ارسال می دارد.

تصویر ذیل گویا فرآیند ذکر شده است.

 

Consistency groups

هر دو شیوه MirrorView/S و MirrorView/A از Consistency Groups پشتیبانی می کنند. Consistency Groups زمانی استفاده می شود که LUN ها نیاز به رعایت یک ترتیب پایدار در Replication دارند. برای مثال اگر شما در vMware خود یک Datastore مشتمل بر ۶ عدد LUN تولید نموده اید، برای Replication صحیح و قابل استفاده در سایت دوم نیاز است که تمامی این LUN ها و با همین ترتیب، Replicate شوند.

چگونه یک Storage Group بسازیم؟

چگونه یک Storage Group بسازیم؟

در این آموزش قصد داریم مقداری در خصوص فرآیندهایی که احتمالا روزانه یک مدیر Storage با آن درگیر است صحبت کنم.

درست کردن یک Lun

اولین مرحله از آموزش ما تولید یک LUN است. در این آموزش تمامی مراحل با بهره گیری از GUI انجام می شود ولیکن قابلیت انجام تمامی این مراحل توسط CLI نیز موجود است. بسیار خوب در ابتدا به EMC خود متصل شوید و پس از باز شدن صفحه اولیه Unisphere، تجهیز مورد نظر خود را انتخاب نمایید. پس از آن در منوی بالایی بروی قسمت Storage بروید و آنگاه LUN را انتخاب نمایید.

Unisphere Storage Menu

وقتی که  LUN را انتخاب نمودید در صفحه بعد لیستی از تمامی LUN های موجود خود را مشاهده می نمایید. شما می توانید نحوه نمایش این لیست را به سلیقه و دلخواه خود تغییر دهید و یا حتی این لیست را بصورت یک فایل Export نمایید. از دکمه های پایین صفحه گزینه “ Create “ را انتخاب نمایید.

Unisphere – LUN Section

بعد از انتخاب دکمه ” Create ” پنجره زیر را می بینید :

Create New LUN https://infofurmanner.de/

قطعا چیزی که شما بروی تجهیز خود مشاهده می نمایید با تصویر فوق یکسان نیست. بنا به تنظیمات شما تفاوتهایی وجود دارد. در تصویر نمونه ما یک Pool با Raid 6 بنام Pool-Bronze داریم.

موارد ابتدایی که باید آنها را وارد نمایید و همچنین به خوبی درک نمایید عبارتند از :

  • آیا شما یک Pool LUN می خواهید و یا یک Raid Group LUN ؟
  • آیا LUN شما باید Thin باشد یا Thick ؟ آیا باید Deduplication روی آن فعال باشد یا خیر ؟
  • ظرفیت آن چقدر باید باشد و LUN ID آن چند باید باشد ؟

در این مثال، ما قصد داریم یک Pool LUN با سایز ۱۰۰ GB تولید کنیم.برای این منظور من از یک Storage Pool که از قبل ساخته شده است و Pool-Silver نام دارد، استفاده می کنم. من می خواهم این LUN بصورت Thin باشد. همچنین قصد دارم LUN ID شماره ۴۳۰۲۳ را برای آن انتخاب کنم.

Create New LUN

بعد از کلیک بروی گزینه “ Apply “ ، یک تاییدیه از شما گرفته می شود و آنگاه LUN تولید می شود و در نهایت یک پیغام ” Success ” دریافت می کنید.

همین! تمام شد! شما توانستید یک LUN بسازید. به همین سادگی!

اتصال به یک HOST

در اولین قدم ما یک LUN ساختیم. حال ما به یک Host برای اتصال و دسترسی به LUN نیاز داریم. در این مثال می خواهیم نحوه ساخت یک Host را فرا بگیریم. فرض کنید یک Host جدید در محیط ما به تازگی نصب و راه اندازی شده است ولیکن تا کنون روشن نشده است. اما ما از HBA WWN آن مطلع هستیم.

تا زمانی که سرور روشن نشده است، ما هیچ Host را در لیست Host List نخواهیم دید. در شرایط عادی پس از اتصال Host به Storage، عموما توسط یک Host Agent و یا Unsiphere Server Utility و در موارد خاصی هم بصورت دستی، Host خود را بروی تجهیز Register می نماید. Host Agent ها در دو نسخه ویندوزی و لینوکسی موجود هستند و با نصب آنها بروی سرور مربوطه فرآیند Auto Register اتفاق می افتد. لازم بذکر است که با توجه به اینکه vMware از شرکتهای زیر مجموعه EMC است، تمامی Hypervisor های این شرکت بصورت پیش فرض این Agent را در خود دارند.

در این مثال ما قصد داریم شیوه Manual Registration را انجام دهیم. برای این منظور به منوی Host رفته و آنگاه Initiators را انتخاب نمایید.

Unisphere Host Menu

تمامی هاستهای متصل به SAN حداقل یک Initiator در این لیست دارند. شما باید بتوانید صفحه شبیه تصویر زیر ببینید :

Unisphere – Initiators

بسیار خوب، چیزی که می بینید لیستی است از تمامی Initiator های موجود. یک قانون مهم : هر Initiator می تواند تنها در یک Storage Group باشد. هیچ استثنایی نیز ندارد. این قانون در واقع می گوید که : هر هاست تنها و تنها می تواند در یک Storage Group وجود داشته باشد. حال اگر با دقت بیشترب به تصویر ارائه شده نگاه کنید، درمی یابید که هر هاست می تواند بیش از یک Initiator نیز داشته باشد. پس می توان با شیوه ای خاص یک هاست را در چندین Storage Group قرار داد!

حال ببینیم چگونه می توان بین یک هاست و یک LUN توسط Storage Group ارتباط برقرار کرد.

در صورت رعایت اصول MPIO هر هاست دارای ۴ Initiator خواهد بود.

  1. host_HBA_1 connected to Port_X in Storage Processor A
  2. host_HBA_1 connected to Port_Y in Storage Processor B
  3. host_HBA_2 connected to Port_Z in Storage Processor A
  4. host_HBA_2 connected to Port_U in Storage Processor B

در این شیوهما هیچ Single Point Of Failure برای قطع ارتباط مابین هاست و Storage نداریم. از آنجاییکه نمی خواهم این آموزش پیچیده و غیر قابل درک شود و برای اینکه این مثال ساده تر پیش برود، فرض می کنیم که هاست ما دارای تنها یک Initiator است که به پورت ۵ ،SP A متصل است. در پایین صفحه شما می توانید دکمه Register را بیابید.

Create Initiator Record

بسیار خوب پس از انتخاب Register، در پنجره جدید WWN را وارد نمایید. پورت متصل به هاست را تعیین کنید و Failover Mode را در حالت Active-Active یا همان ALUA بگذارید و برای نام test_host و برای آن IP آدرس را وارد نمایید، آنگاه بروی دکمه  OK بفشارید.

Create Initiator Record

موفقیت آمیز بود و توانستیم یک هاست جدید تولید نماییم. حال پس از Refresh نمودن باید بتوانید هاست جدید را در لیست ببینید.

Unisphere – Our “fresh” Initiator

همانگونه که می بینید هاست جدید عضوی از Storage Group بنام management~ می باشد. management~ در واقع یک Storage Group خاص است. و هر هاستی که در آن حضور دارد بدین معناست که آن هاست درون هیچ Storage Group واقعی نیست.

بسیار خوب وارد Host List شوید. اسم هاست جدید را می توانید در اینجا ببینید:

Unisphere Host List

همانگونه که دریافتید ما هاست را بصورت دستی تولید کردیم. اکنون ما هاست خود را برای اضافه کردن به Storage Group در اختیار داریم.

تولید یک Storage Group

اگر هنوز نمی دانید که Storage Group چیست و چرا به آن نیاز داریم می توانید آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” را مطالعه نمایید.

برای درست کردن یک Storage Group خیلی ساده به قسمت Host > Storage Group بروید و آنگاه بروی گزینه Create کلیک نمایید و تنها نیاز است که برای آن یک نام تعیین کنید:

Create Storage Group

من یک Storage Group با نام new_SG درست کردم. پس از کلیک بروی گزینه OK یک سوال از شما پرسیده می شود مبتنی بر اینکه : آیا شما مطمئنید که …. ؟؟؟!!! قطعا. من که مطمئنم!! شما را نمی دونم!!

پس از آن شما شما یک پنجره شبیه این می بینید :

 

New Storage Group

همانگونه که می بینید فرآیند تولید موفقیت آمیز بوده و گزینه ” Yes, I want to add LUNs and/or connect host ” را انتخاب نمایید. این صفحه را خواهید دید :

 

Adding LUNs to Storage Group

در ابتدا شما باید گزینه (ADD LUN(s را انتخاب نمایید. LUN های تولید شده خود را بیابید و آنگاه گزینه “ Add “ را بفشارید.

یک موضوع مهم در اینجا، انتخاب Host LUN ID است. همانگونه که دید من برای این منظور هیچ مقداری وارد نکردم و Storage بصورت خودکار یک Host LUN ID را به هاست اعطا کرد. در صورت نیاز جهت آشنایی بیشتر با HLU/ALU می توانید به آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” مراجعه نمایید.

پس از انتخاب LUN مورد نظر بروی کلید “ Apply “ بفشارید و آنگاه Tab بعدی یعنی Host را انتخاب نمایید:

Connect Host to Storage Group

تنها کار که نیاز است در اینجا انجام دهید انتخاب هاست و یا هاستهای دلخواه است. در پایان گزینه OK را بفشارید.

خلاصه

 شاید در ابتدا کمی پیچیده بنظر برسد ولیکن تنها نیاز است که در انجام تمامی این فرآیندها دقت عمل داشته باشید. در نهایت این مسائل را نیز بیاد داشته باشید :

  • شما می توانید چند LUN را به تعدادی Storage Group اضافه نمایید، تنها لازم است که گزینه “ Show LUNs” را به “Already Connected To Different Storage Group “ تغییر دهید.
  • بصورت پیش فرض شما می توانید یک هاست را تنها در یک Storage Group قرار دهید و اگر هاستی را در Storage Group دومی قرار دهید، آنگاه آن هاست از عضویت Storage Group اول خارج می شود.
  • عضویت یک هاست در Storage Group بنام managment~ بمعنای عدم عضویت آن هاست در یک Storage Group واقعی است.

معرفی اجمالی Unispher

معرفی اجمالی Unispher

پیشتر مطالب مختصری در آموزش ” Unisphere چیست ؟ ” در خصوص Unisphere ارائه شد. در این آموزش قصد دارم به ارائه آموزشهای ابتدایی نحوه استفاده با Unisphere بپردازم.

چکونه Unisphere را راه اندازی کنیم ؟

همانگونه که در آموزش قبلی نیز گفتم، ساده ترین روش استفاده از یک Web Browser و وارد نمودن IP آدرس یکی از SP ها و یا Control Station هاست. نکته : بیاد داشته باشید که شما برای این منظور نیاز به جاوا دارید.

زمانی که پنجره Login را دیدید، می توانید با ورد نام کاربری و پسورد خود به تجهیز Login نمایید. پس از ورد موفق شما این صفحه را خواهید دید :

Unisphere Dashboard

اولین چیزی را که به محض Login مشاهده می نمایید صفحه Dashboard است. اگر شما بیش از یک تجهیز VNX در دامین خود داشته باشید، در این وضعیت شما هنوز به هیچ تجهیز خاصی از VNX های خود Login نکرده اید.

اگر قصد دارید با یک تجهیز خاص کار کنید و یا آنرا مدیریت کنید، لازم است که آن تجهیز را انتخاب نمایید. جهت این کار می توانید بروی اسم تجهیز خود را از Drop-Down لیست موجود در گوشه بالایی سمت چپ، انتخاب نمایید و یا بروی نام تجهیز در زیر منو اصلی کلیک نمایید.

کار کردن با تجهیز Storage

زمانیکه شما تجهیز مورد نظر خود را انتخاب نمودید، صفحه داشبورد با کمی تغییرات بشکل زیر نمایش داده می شود :

Unisphere VNX Dashboard

این صفحه در همان پنجره پیشین باز می شود. حال شما اطلاعات بیشتری در خصوص یک تجهیز خاص دارید. اول اینکه شما می توانید تمامی System Alert های مهم اخیر را ببینید. در گوشه بالایی سمت راست می توانید اطلاعات اولیه را ببینید. شماره سریال و مدل تجهیز شما نیز از همین محل قابل استخراج است.

نگاهی به گزینه های منوی اصلی بیندازیم :

System

 

Unisphere System menu

هر منو برای خود دارای انتخابهایی است. شما می توانید با کلیک بروی گزینه منو (System,Storage,Host,Data Protection و ….) و یا قرار گرفتن روی این منوها و آنگاه باز شدن Popup منو به انتخاب زیر منوها بپردازید.

گزینه System  این انتخاب ها را دارد :

  • Hardware : اینجا میتوانید تمامی اطلاعات مربوط به سخت افزارها، از یک هارد دیسک تا وضعیت فن ها را بیابید.
  • Monitoring And Alerts : تمامی Alert ها اینجا هستند، همچنین می توانید به SP Event Logها، Notification ها و وضعیت فعلی تجهیز و یا ارسال هشدار ها توسط ایمیل و … دست یابید.
  • Reports : جایی که می توانید گزارشات خود را اینجا بسازید.

Storage cz-lekarna.com

Unisphere Storage menu

احتمالا این TAB را در حین کارهای روزمره خود دیده اید. تعداد انتخابها و زیر منوهایی که ممکن است اینجا ببینید کاملا بستگی به لایسنسها و ورژن تجهیز شما دارد.مثلا اگر تجهیز شما دارای لایسنس های سرویس File باشد، شما موارد بسیار بیشتری را مشاهده خواهید کرد.

در این قسمت شما می توانید یک Raid Group، Storage Pool و LUN و … تولید نمایید.

Hosts

 

Unisphere Host Menu

 دراین TAB مهمترین قسمت قطعا Storage Group است که به شما امکان تولید، حذف و یا تغییر یک Storage Group را می دهد.  البته قطعا برای تولید یک Storage Group شما نیاز به Host دارید. لیست Host های شما در HOST List موجود است. یک مقدار عمیق تر به موضوع بنگریم، برای اینکه Host داشته باشید، باید تعداد Initator داشته باشید. فعلا  تا همین حد وارد می شویم و در آینده نزدیک بیشتر به این موضوع می پردازیم.

امیدوارم این آموزش توانسته باشد یک دید کلی و پایه ای برای شروع کار با Unisphere برای شما فراهم نماید.

خاموش کردن دستگاه EMC سری VNX

برای خاموش کردن دستگاه VNX به طریقی که داده های ذخیره شده در آن Protect باشد باید مرحله به مرحله و طبق دستور العمل این مستند دستگاه را خاموش کنید.

توجه: خاموش کردن اشتباه دستگاه های سری VNX موجب از دست دادن اطلاعات و یا سرویس میشود.

برای خاموش کردن دستگاه لطفا به مدل دستگاه خود توجه کنید.

مدلVNX5100   تنها در یک حالت، بلاک و دیگر مدل های VNX 7500, VNX 5700 , VNX 5500 , VNX 5300  و همچنین VNX 8000, VNX 7600, VNX 5800, VNX 5600,VNX 5400, VNX 5200با ۳ حالت شامل: Block, File, Unified    موجود است.

توجه داشته باشید در مدل های VNX5700, VNX7500 و VNX8000, VNX7600 به جای DPE ، SPE  وجود دارد. بنابراین در هر کجا که از  DPE استفاده شده برای این مدل ها میتوان آن را SPE  در نظر گرفت.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200 در حالت  Block

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment  خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- .به یکی از Storage Processor ها از طریق پنل کنترل Unisphere آن سیستم وارد شده و وضعیت سیستم را بررسی کنید.

  1.  در مرورگر، آدرس IP مربوط به Storage Processor را وارد کنید.
  2. در Unisphereبه عنوان Admin وارد شده و Scope را به عنوان Global  تعریف کنید.
  3. در Dashboard Unisphere درقسمت Systems By Severity قرار بگیرید.
  4. حتما چک کنید تا در قسمت Status هیچ هشدارCritical  ای وجود نداشته باشد.

 ۳- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰۰.۵.۲۰۹ و بالاتر می توانید، دستگاه را از طریق رابط کاربری Unisphere خاموش کنید.

a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

     

b ) از قسمت System List  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکاتی که Unisphere  بعد از فشار دادن دکمه  Power Off نشان می دهد، به درستی خوانده، و انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه مراحل می باشد .

  • ۵۸۰۰/VNX 5100/5300/5500/5200/5400/5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LED های آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  که به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامی LEDهای دیگر خاموش میباشد.

  •  VNX 5700/7500/7600/8000

بر روی یک SPE  ای که به صورت موفقیت آمیز خاموش شده است، تمامیه Fault LED  ها روشن و مابقی LED های SP و SPE خاموش میباشند.

به علاوه در قسمت پشت دستگاه تمامیه LED  های هر SP  خاموش می باشند.

 بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (از قسمت e  صرف نظر کنید) و بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e )  سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f ) برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

 

 در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

 ۴- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰.۵.۲۰۷ و کمتر، برق VNX را از طریق Power Switch های بر روی SPS قطع کنید.

 a )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید. تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

–  این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت b  صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

b ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

c ) مدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

d )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component ها قطع کرده است.

e )  برای سیستم ها با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200  در حالت  Unified/ File

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- به Unisphere در Primary Control Station سیستم متصل شده و وضعیت سیستم را چک میکنیم.

a ) در مرورگر آدرس IP مربوط به Control Station را وارد میکنیم.

b ) در Unisphere به عنوان ادمین وارد میشویم و Scope را به عنوان Global  تعریف میکنیم.

c ) در داشبورد Unisphere درقسمت Systems by Severity قرار میگیریم.

d ) چک میکنیم که در قسمت status هیچ هشدارCritical ای وجود نداشته باشد.

e ) به طور دلخواه وضعیت Data Mover و Control station را بررسی میکنیم. با انتخاب

  System -> Run Command در پنجره  Control Station CLI  در سمت راست صفحه:

nasmcd/sbin/getreason/

جواب قابل انتظار برای یک VNX  با یک Control Station  و ۲ عدد  Data Mover به صورت زیر است :

۱۰ – slot_0 primary control station

۵ – slot_2 contacted

۵ – slot_3 contacted

۳- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۴.۵ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۹  و بالاتر، برای خاموش کردن Control Station ، Data Mover  و Storage Processor  از کلید Power Off  در Unisphere استفاده میکنیم.

 a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

b ) از قسمت System list  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکات و پیشنهادات Unisphere را که برای خاموش کردن می دهد، به درستی انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP، Data Mover  و Control Station  ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه ی مراحل می باشد .

  •  ۵۸۰۰/ VNX 5300 /5500 /5200 /5400 /5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LEDهای آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامیه LEDهای دیگر خاموش میباشد.

  • برای VNX 5700 /7500 /7600 /8000

در قسمت جلویی SPE برای هر module، Amber Fault LED  روشن است و تمامی LED های دیگر SP، SPE خاموش است.

به علاوه، در پشت SPE، تمامیه LED های Power، Status و  Fault LED  ها بر روی SP  خاموش هستند.

بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت e صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f )  برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۴- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۲.۱ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۷ و پایین تر برای خاموش کردن  دستگاه از روش زیر پیروی کنید:

a ) تمامی Control Stations و Data Mover ها را از طریق Unishphere Control Station CLI متوقف کنید.

/nasmcd/sbin/nas_halt now

 پیغام زیر برای تایید دستور شما و ادامه کار نمایش داده میشود:

*************************** WARNING! **************************

You are about to HALT this VNX including all of its Control

Stations and Data Movers. DATA will be UNAVAILABLE when the system is halted.

Note that this command does *not* halt the storage array.

ARE YOU SURE YOU WANT TO CONTINUE? [ yes or no ] :

 b ) در این پنجره کلمه yes را تایپ کرده تا Power Down شروع بشود.

جزیئات این مراحل را در خروجی  Command  میبینید.

نکته:  این فرآیند بین ۵ تا ۲۰ دقیقه به طول می انجامد، لطفا تا اتمام این پروسه و نمایش این پیغام به مرحله بعد نروید.

با نمایش پیغامی مشابه May 10 11:35:08 rtpplat32cs0 exiting on signal 15 تمامی Control Station  ها و Data Mover  ها خاموش شده اند.

c )  مرحله بعد خود را مشخص کنید:

اگر نمیخواهید دستگاه را کاملا خاموش کنید مراحل زیر را ادامه ندهید و مستقیما به مرحله ۵ بروید.

اگر میخواهید دستگاه را به طور کامل خاموش کنید مراحل زیر را ادامه بدهید.

d )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید.

تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

– این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، ( برای این مدل ها از قسمت e,f,g صرف نظر کنید ) و در مرحلهh  بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

f ) بمدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

g )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component  ها قطع کرده است.

h )  برای سیستم با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU  قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- مراحل زیر را برای قطع برق از هرData Mover و Control Station ادامه بدهید.

a ) برای هر Data Mover Enclosure  برق و Fault LED ها را چک کنید.

 

یک DME  ای که به صورت موفقیت آمیز خاموش شده است Amber Fault LED  روشن شده و Enclosure Power LED  دیگر روشن نیست.

به علاوه در پشت دستگاه  Fault LED در Management Module  هر DME  روشن است.

b ) بعد از اطمینان از خاموش بودن هر DME، کابل تمامی DME ها را از PDU ها جدا کنید. هر DME دارای ۲ کابل برق دارد.

c ) تمامی LED های جلوی هر Control Station  را چک کنید.

 

تنها LED  مربوط به Networking  باید در این حالت روشن باشد ( LED شماره ۶ در تصویر فوق ) و تمامی LED  های دیگر باید خاموش شده باشند.

d ) بعد از مطمئن شدن از خاموش بودن هر CS کابل برق مربوط به هرCS  را از آن جدا کنید.

۶-  اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.

Fast VP : اجازه دهید کارش را انجام دهد!

تمامی دیتا ها به طور یکسان مورد دسترسی قرار نمی گیرند. بعضی از دیتاها بصورت مداوم و بعضی دیگر به ندرت نیاز به دسترسی دارند. با توجه به معرفی و رونمایی قابلیت  FAST VP در رده های CX4، VNX و VNX2، از آن پس تولید یک Storage Pool که شامل خانواده های متفاوت هارد دیسک ها باشد، ممکن شد. سیستم تمامی LUN های شما را به قطعات کوچک ( Slice ) خرد می نماید و به هر Slice، یک درجه ( درجه دمایی ) از سطح دسترسی، اعطا می شود. به عنوان نمونه Slice هایی که مداوما مورد دسترسی قرار می گیرند را Hot Slice، و آنهایی را که به ندرت مورد دسترسی قرار می گیرند را Cold Slice می نامند. پروسه FAST VP داده های Hot را به سریعترین لایه موجود ( به عنوان مثال SSD ) انتقال می دهد. زمانی که سریعترین لایه موجود به لحاظ ظرفیت تکمیل شد، آنگاه FAST VP داده های HOT بعدی را به سریعترین لایه بعدی ( به عنوان مثال SAS ) منتقل می نماید و به همین ترتیب.  شاید این موضوع برای TCO یا همان Total cost of ownership، شما بسیار شگفت انگیز باشد، زیرا که : تمامی داده های Cold شما اکنون بروی Slice های از روی هارد دیسک های NL-SAS شما نگهداری می شود و برای نگهداشت آنها از هارد دیسک های SSD گران قیمت هزینه نمی شود و بدین گونه هزینه کلی نگهداشت داده ها به شدت کاهش می یابد، ضمن اینکه کاربر نهایی شما نیز به هیچ وجه متوجه این فرآیند نمی شود. در این فرآیند تنها یک سناریو نادر وجود دارد که ممکن است شما را به چالش بکشد و آن استفاده سنگین از داده های ارشیو شده موجود بروی لایه Cold است.

  • جابجایی Slice ها توسط FAST VP

همانگونه که ذکر شد FAST VP فرآیندی است که LUN ها را به Slice هایی تبدیل می کند. در رده CX4 و نسل اول VNX، تمامی Slice ها دارای سایزی برابر با ۱ GB بودند ولیکن در VNX2 با بهره گیری از تکنولوژی MCx از Slice هایی با سایز ۲۵۶ MB بهره می برد. تجهیز شما بصورت مداوم مقدار I/O که بسوی یک Slice می رود را پایش می کند و بدین شیوه یک درجه از سطح دسترسی را برای آن Slice مشخص می نماید. در هر روز در زمان برنامه ریزی شدی خاصی Slice ها بنا به درجه حرارتشان به یکی از لایه های موجود منتقل می شوند. پس به خاطر داشته باشید که فرآیند FAST VP یک فرآیند Post Process است. FAST VP تلاش می کند تا آنجایی که امکان دارد داده ها را در ابتدا بروی سریعترین لایه نگه دارد. به عنوان نمونه اگر شما یک Storage Pool با ۱۰ TB لایه SSD و ۲۰ TB لایه SAS داشته باشید و بخواهید تنها ۵ TB داده را بروی آن نگه دارید، آنگاه Fast VP تمامی ۵ GB داده را بروی لایه SSD نگه می دارد ( البته با توجه با Policy پیش فرض ). همچنین FAST VP همیشه ۱۰% فضای هر لایه ( Tier ) را خالی نگه می دارد تا به هنگام تولید Slice برای Thin LUN ها و یا تولید یک LUN جدید، دچار چالش نشود.

حال این سناریو را متصور شوید : یک سرور و یا نرم افزار شروع به تولید حجم بالایی از I/O میکند. Slice ها به سریعترین لایه موجود تحویل می شوند، تجهیز دارای عملکرد مناسبی است و Response Time به سرور و یا نرم افزار کاملا قابل قبول است. در مابقی روزهای ماه سرور یا نرم افزار بنا به دلایلی مورد استفاده قرار نمی گیرد. داده ها شروع به سرد شدن می کنند و به Clod Slice تبدیل می شوند و آنگاه FAST VP آنها را به لایه هارد دیسک های NL-SAS منتقل می نماید. در شروع ماه آینده نرم افزار مجددا به فعالیت خود بازگشته و شروع به تولید حجم بالایی I/O می کند. در اینجا ممکن است تا حدی از این بار تحمیلی را بتوان توسط FAST Cache سریعا مدیریت نمود، اما FAST VP برای مدیریت این حجم بالا نیاز به زمان برای انجام انتقال Slice ها بین لایه ها دارد که معمولا به معنای مدت زمان حدودی، یک روز است. پس در روز اول انجام فعالیت و زمان پاسخ دهی به نرم افزار مناسب نیست و عموما به همین دلیل مدیران این گونه نرم افزارها در این موارد اظهار نارضایتی می کنند.

 برای مدیریت و حل اینگونه مسائل میتوانید Tiering Policy LUN خود را بدین گونه تنظیم نمایید : Auto – Tier

در حالت معمول این Policy بروی گزینه ” Start High Then Auto-Tier ” قرار دارد. اگر نرم افزار شما به گونه ای که در بالا ذکر شد رفتار نماید، شاید شما وسوسه شوید که با انتخاب گزینه ” Highest Tier ” از FAST VP بخواهید که تمامی Slice های داده هایتان را بروی سریعترین لایه خود نگه دارد و بدین شیوه خود را دچار چالش نکنید. اما باید به خاطر داشته باشید که به این شیوه شما Slice هایی از داده های خود را بروی این Tier نگه می دارید که ممکن است هیچ نیازی به سرعت نداشته باشند. و چالش دیگر اینکه Hot Slice های مربوط به LUN های دیگر به دلیل نبود فضا روی سریعترین Tier، به ناچار به یک Tier پایین تر ارسال می شوند. مشکل زمانی بیشتر می شود که شما دارای هر سه لایه در یک POOL هستید یعنی : SSD، SAS ، NL-SAS . هیچ راهی ( تا کنون ) برای چسباندن یک LUN بروی لایه میانی وجود ندارد و انتخاب گزینه ” Highest Tier ” در یک Pool با سه لایه بمعنای انتقال تمامی داده های LUN به هارد دیسک های SSD است که درست است که بسیار سریع هستند ولیکن بسیار هم گرانند. و این بمعنای TCO بالا می باشد.

مدتی پیش در حال بررسی تجهیز یکی از مشتریان بودم و متوجه شدم گه هر شب مقدار بسیار بزرگی از داده ها توسط FAST VP بین لایه ها منتقل می شوند. من میدانم که در هارد دیسک های مکانیکی، اصلی ترین دلیل عملکرد سرعت چرخش موتور یا همان Spindle است. با بررسی وضعیت و تعداد هارد دیسک های این مشتری متوجه شدم که با توجه به نیاز به ظرفیت بالا، مشتری عموما هارد دیسکهای خود را از نوع NL-SAS انتخاب نموده و تنها تعداد کمی هارد دیسک SAS را خریداری کرده است. یک نکته ساده ولیکن مهم را به شما پیشنهاد می کنم: ” با خرید تعداد هارد دیسک بیشتر و سریعتر، عملکرد Tier را افزایش دهید. ” لطفا گراف ذیل را بررسی نمایید :

 

 همانگونه که مشاهده می فرمایید، لایه Performance دارای Slice های زیادی به رنگ قرمز ( Hot ) ، مقداربسیار کمی به رنگ نارنجی و مقداری نیز به رنگ زرد و سبز، می باشد. لایه Capacity نیز دارای Slice هایی به رنگ قرمز، مقداری نارنجی  و قدری زرد، است. مسلما متوقع هستیم که تمامی Slice های قرمز و نارنجی بروی لایه Performane منتقل شود، ولیکن این امکان پذیر نیست چرا که فضای موجود در لایه Performance توسط Cold Slice ها ( سبز ) اشغال شده و با توجه به Policy انتخاب شده، در واقع Sile های سبز به این لایه دوخته ( Pinned ) شده است.

 نکته دیگر اینکه : حتی اگر Hot Slice های لایه Capacity نیز اجازه انتقال به لایه Performance را داشته باشند، فضای کافی برای همه آنها وجود ندارد. در لایه Performance حدود ۸۰۰۰ عدد Slice به رنگهای غیر قرمز وجود دارد در حالیکه در لایه Capacity بیش از ۱۰/۰۰۰عدد Slice نارنجی و قرمز وجود دارد. پس کماکان به شما توصیه می کنم در صورت استفاده از FAST VP ، از تعداد متناسب هارد دیسک SAS بهره ببرید.

اکنون ممکن است که شما بخواهید بدانید، که کدام LUN ها هستند که بطور نسبی، شامل Cold Slice است و مثلا آنها را به لایه Capacity روی تجهیز خود Pin نمایید. خوشبختانه برای این موضوع نیز یک گزارش دیگر وجود دارد، که LUN ها و Slice ها و دمای هر Slice را نمایش می دهد. بدین گونه شما با بررسی LUN ها و یافتن بیشترین Cold Slice ها می توانید دریابید که کدام LUN در حال به هدر دادن فضای لایه های سریع شماست و آن LUN را به لایه های کم سرعت تر خود Pin نمایید. تصویر ذیل وضعیت LUN های Pin شده را نمایش می دهد. همانگونه که مشاهده می نمایید یک LUN کاملا قرمز است. این LUN در سریعترین لایه باقی می ماند اگر حتی شما Policy مربوط به Auto Tiering را هم فعال نمایید. هر دو LUN موجود در سمت چپ تصویر دارای تعداد زیادی Cold Slice ( رنگ سبز ) هستند. در این مورد فعال نمودن گزینه Auto Tiering باعث می شود تمامی این Slice ها به لایه Capacity انتقال داده شوند و روی لایه Performance فضا برای قرار گیری Hot Slice های جدید تامین شود.

 با توجه به این نمودارها ممکن است شرایط معکوس نیز رخ دهد و با خود بگویید : ” داده های Hot ( نارنجی ) روی لایه Capacity موجود است که بایستی به لایه Performance منتقل شوند. بهتر است بعضی از Lun ها را از روی این لایه Unpin کنم تا به Hot Slice های آنها به لایه Performance مهاجرت کنند. “

 

با افزایش و اعطای فضای کافی به لایه Performance مربوط به آن Pool، این امکان را فراهم آورد که اینگونه Hot Slice ها، در اولین فرآیند انتقال، به لایه Performance منتقل گردند. بررسی های بعدی مشخص نمود که این LUN ها بخشی از محیط مورد استفاده برای تبادل داده بوده اند که بسیار نیز کند بوده اند. همچنین ذکر این نکته نیز لازم است که این LUN دارای مقدار زیادی از داده های کم مصرف ( طوسی ) نیز بوده اند. این بهترین مثال برای تشریح عملکرد FAST VP و نحوه صرفه جویی حاصل از بهره مندی از آن است. با بهره مندی از FAST VP این داده های طوسی به هارد دیسک های لایه Capacity منتقل می گردند و بدین گونه دیگر شما داده های کم مصرف خود را بروی هارد های سریع و گران خود نگه نمی دارید و هزینه کمتری را صرف خرید هارد دیسک های سریع می کنید.

  • طراحی Storage Pool

در طراحی یک Storage Pool شما می توانید Pool هایی با یک، دو و یا سه Tier طراحی نمایید. در شرایطی که بار تحمیلی به Storage قابل پیش بینی و یا ثابت باشد، انتخاب یک Pool سه لایه، همیشه بهترین انتخاب است : مقدار کم هارد دیسک های SSD موجود در Pool می تواند پاسخگوی داده های کاملا Hot باشد و داده های های تقریبا بیکار نیز بروی هارد دیسک های NL-SAS قرار می گیرند و از لایه میانی با هارد دیسک های SAS جهت سرویس دهی به مابقی داده ها استفاده می کند. قطعا تایید می کنید که محیط عملیاتی با محیط آزمایشگاهی کاملا متفاوت است، پس در محیط واقعی قطعا با نوسانات زیاد WorkLoad و یا تغییر ماهیت Slice ها از داده های Hot به Clod یا بلعکس  و بصورت مداوم بین لایه های مختلف بالا و پایین شوند.

شما بایستی نسبت به خواسته های نرم افزارتان از Storage بسیار آگاه و مظلع باشید.  به عنوان نمونه اگر شما یکی از آن دسته نرم افزارهایی داشته باشید که در ماه یکبار Workload بسیار زیادی را به Storage وارد می نماید و در مابقی روزهای ماه کاملا بیکار است و استفاده از هارد دیسکهای SAS کاملا پاسخگوی نیاز نرم افزار در روزهای پرکار خود است، پیشنهاد بنده استفاده از یک Pool بدون بهره گیری از هارد دیسکهای NL-SAS است. شاید شما بخواهید با استفاده ار فوت و فنهای FAST VP و بهره مندی از Policy های متفاوت آن، بخواهید داده های خود را به سریعترین Tier خود Pin نمایید، اما اگر شما یک Pool سه لایه با استفاده از هارد دیسک های SSD داشته باشید، آنگاه LUN مربوطه تمامی ظرفیت SSD ها را به خود اختصاص می دهد و باعث کندی عملکرد دیگر LUN ها خواهد شد. متاسفانه تا کنون هیچ Policy برای لایه میانی ( Middle Tier ) وجود ندارد و تنها می توان از Policy های :

  • Auto-Tier
  • Highest Tier
  • Lowest Tier
  • No Data Movement

استفاده نمود.

این موضوع می تواند تاثیر مستقیمی در طراحی، تعداد و نوع لایه های Pool ها داشته باشد. برای مثال ممکن است یک Pool با استفاده از هارد دیسک های SAS و SSD برای پاسخگویی به Workload های بحرانی و یا پر نوسان، یک Pool با سه لایه برای مصارف عمومی و یا حتی شاید یک Pool با هارد دیسک هایی از جنس SAS و NL-SAS برای نگهداری و آرشیو داده های کم اهمیت تر. متاسفانه در زمان طراحی، شما باید در خصوص نوع و طراحی Pool ها و ظرفیت مورد نظر خود بسیار وسواس به خرج دهید، زیرا که در حال حاضر تنها راه اصلاح نمودن چیدمان هارد دیسک ها، انتقال داده های کنونی از روی Pool موجود به محل دیگر، از بین بردن Pool و تولید مجدد Pool با ساختار جدید و یا Expand نمودن Pool موجود است. ولیکن در هر حال احتیاج به تولید نسخه پشتیبان از داده ها ضروری است و وقتی از چند ترابایت داده حرف می زنیم این موضوع بسیار چالش انگیز می شود.

نکته اخلاقی که می توان از این داستان دریافت!! اینست که : اجازه بدهید که FAST VP کارش را انجام دهد! هر چقدر که شما LUN های بیشتری را به سریعترین لایه Pin نمایید، فضای پر سرعت کمتری را برای FAST VP باقی می گذارید تا FAST VP بتواند Hot Slice های خود را بروی آنها جای دهد. بدین شیوه در واقع شما به FAST VP می گویید: ” من بهتر از تو می فهم!”. همانگونه که از تصویر بالا  درمی یابید، عموما اینگونه نیست و عملکرد FAST VP بسیار بهتر و صحیح تر از انتخاب های ماست.

تضاد مابین یک طراحی با تعداد بالای LUN های Pin شده به سریعترین لایه را با طراحی با تعداد کمتر LUN های Pin شده را در تصویر زیر ببینید.

 

تقریبا هیچ Slice قرمز و یا نارنجی بروی لایه Capacity وجود ندارد و تنها یک بخش بسیار کوچک از Slice های سبز بروی لایه Performance موجود است. همچنین با مشاهده این تصویر می توان بسرعت در خصوص هارد دیسک های NL-SAS دریافت که : این هارد دیسک ها IOPS نسبتا کمی را جذب نموده اند و هنوز امکان جذب IOPS بیشتری را دارند.

بسیار خوب، نظر شما درباره FAST VP و Storage Pool ها در رده VNX چیست؟ چگونه آنها را طراحی می نمایید؟ آیا LUN های زیادی را به سریعترین لایه Pin می نمایید؟ یا اجازه می دهید که FAST VP کار خودش را انجام دهد؟ لطفا در این خصوص نظرات خود را با دوستان به اشترک گذارید.

بررسی Hot Spare و MCx Drive Mobility در VNX2

یک تغییر بزرگ در رده VNX2 نسبت به نسل پیشین خود یعنی VNX، جایگزینی Hto Spare Policy بجای انتخاب دائمی هارد دیسک Hot Spare است. در حالیکه در مدلهای پیشین می بایستی هارد دیسک های Hot Spare اختصاصی و از پیش تنظیم شده ای می داشتند که تنها در هنگام بروز خظا در یک هارد دیسک، مورد استفاده قرار می گرفتند، در رده VNX2 از هر هارد دیسک واجد الشرایط، استفاده نشده می توان بعنوان Spare بهره برد. در این آموزش سعی دارم تا مواردی را نظیر یافتن درایو جایگزین شده، یافتن درایو معیوب، عودت داده ها از درایو Hot Spare به درایو اصلی و .. را، ارائه نمایم.

  • یافتن دیسک اصلی و Hot Spare

برای مثال این سیستم را که دارای یک Pool شامل ۵۰ عدد هارد دیسک ۶۰۰ GB ، با سایز فیزیکی “۲.۵ و ۲ عدد هارد دیسک Unbound به عنوان Hot Spare است را در نظر بگیرید. در ابتدا هارد دیسک شماره ۱_۰_۱۹ دچار خظا های Soft-Media می شود و در نهایت از بین می رود. فرآیند Rebuild هارد دیسک شماره ۱_۰_۲۴ را انتخاب می نماید و شروع به بازسازی داده های می نماید. دو روز بعد هارد دیسک ۱_۰_۲۴ نیز خطاهایی را نشان می دهد تا در نهایت این هارد دیسک نیز از بین می رود. آنگاه VNX2 هارد دیسک ۰_۰_۴ را برای بازسازی داده ها در نظر می گیرد. داده هایی که اکنون بروی هارد دیسک ۰_۰_۴ هستند، دیگر بروی هارد دیسک جایگزین شده ۱_۰_۱۹ بر نمی گردند! این شیوه عملکرد Hot Spare در محصولات رده VNX2 است.پس شما چگونه می توانید دریابید که MCx داده های شما را به کدام دیسک جابجا کرده است؟ الان وقت آن است که به بررسی SP Event Log ها بپردازیم.

در Unisphere به آدرس زیر بروید :

System > Monitoring and Alerts > SP Event Logs

هر دوی SP Event Log ها را باز کنید. در مورد بررسی شده توسط بنده، Hot Spare Alert ها در SP B می باشد. شما می توانید زمان و تاریخ خرابی هارد دیسک را برا اساس زمان Alert بیابید. تا یافتن چیزی شبیه تصویر زیر به جستجو ادامه دهید.

 

همانگونه که ملاحظه می فرمایید هار دیسک ۱_۰_۱۹ تولید Alert کرده ( تا خظ شماره ۷۶۰ ) و آنگاه دیسک ۱_۰_۲۴ جایگزین آن شده است. ما می توانیم به همین شیوه نیز جیگزینی هارد دیسک دوم را نیز رصد کنیم.

خط ۳۱۷ در بالا نشان می دهد که در حال بازسازی داده های هارد دیسک ۱_۰_۲۴ بروی هارد دیسک ۰_۰_۴ می باشد. اگر شما می خواهید که تنها Event های مربوط به فرآیند Rebuild را مشاهده نمایید، می تواند در لیست Event ها، کد 0x7168 را Filter نمایید. حتی بدین گونه می توانید دریابید که آیا فرآیند Proactive Drive Replacement  نیز آغاز شده است و یا خیر؟.  برای نمونه در خطای اولیه دیسک، دیسک ۱_۰_۱۹ تنها دچار خطا شده در حالیکه در خطای دوم فرآیند Proactive Copy  آغاز شده است. ( و تا کنون نیز به اتمام نرسیده است. )

 

در بیشتر موارد، شما تنها دیسک معیوب را با دیسک جایگزین تعویض نموده و سیستم به فعالیت خود بدون هیچگونه مشکای ادامه می دهد. اما اگر به هر دلیلی نیاز داشتید داده ها را بروی دیسک ۱_۰_۱۹ باز گردانید، آنوقت چکار باید کرد؟

  • قابلیت MCx Drive Mobility

برای بازگرداندن داده ها به دیسک اصلی دو راهکار وجود دارد. اول اینکه شما می توانید با استفاده از دستور Copytodisk بدون نیاز به ترک صندلی تان (  خوشبختانه )، داده ها را به هارد دیسک اصلی بر گردانید. اما بیاد داشته باشید که این فرآیند بار زیادی را به تجهیز تحمیل می دارد، پس در این خصوص دقت لازم را بعمل آورید. راهکار دیگر استفاده از قابلیت MCx Drive Mobility است. بدین گونه که یک هارد دیسک را بمدت کمتراز ۵ دقیقه از تجهیز خارج نموده و مجددا آن را به تجهیز متصل نمایید تا تجهیز شما مجددا آنرا شناسایی نماید. بدون فرآیند Rebuild، سریع و ساده! . قابلیت MCx Drive Mobility با استفاده از شماره سریال هارد دیسک ها اعضای موجود در یک Pool را شناسایی می نماید و بر خلاف نسل پیشین خود VNX با جانمایی و محل فیزیکی قرار گیری هارد دیسک ها هیچ کاری ندارد. پس با خیال راحت می توانید هارد دیسک ها را در VNX 2 به لحاظ جانمایی به سادگی و حتی مابین DAE ها مختلف و بدون ریسک از دست رفتن داده ای موجود بروی آنها، جابجا نمایید. تنها این نکته را رعایت نمایید ” قبل از ۵ دقیقه دیسک را مجددا به تجهیز متصل نمایید “. و همینطور قبل از انجام هر کاری مطمئن شوید که فرآیندهای Rebuild به اتمام رسیده باشند و مطمئن شوید که هیچگاه دیسکی را که در حال Rebuild است، را از تجهیز خارج نکنید. می توانید با استفاده از دستور زیر

naviseccli -h getdisk -rb

به عنوان نمونه

getdisk 0_0_4 –rb

از وضعیت و نحوه پیشرفت فرآیند Rebuild مطلع گردید. آنگاه، جای هارد دیسک ها را با یکدیگر جابجا نمایید و آنگاه Log نشیر تصویر ذیل خواهید دید.

 

به نظر بنده، قابلیت MCx Drive Mobility یک قابلیت شگفت آور است ولیکن قطعا بنده به هیچ کس توصیه نمی کنم که در محیطهای عملیاتی هارد دیسکهای خود را جابجا نماید. به خصوص DAE های ۲.۵ اینچی با ۲۵ عدد هارد دیسک کوچک، که بدلبل اندازه فیزیکی کوچک و تعداد بالا احتمال اشتباه را بیشتر می کند. همچنین این نکته را بیاد داشته باشید که چون شما در حال جابجا نمودن هارد دیسک های سالم هستید، دیگر LED با رنگ نارنجی نیز به عنوان راهنمای شما وجود ندارد. هر کس که کم و بیش با VNX کار کرده باشد می داند که شروع اعداد از صفر است، حال فرض کنید که شخصی به اشتباه از ۱ شروع به شمارش نماید و اشتباهاتی از این دست. پس مجددا توصیه می کنم : تا هنگامی که به کاری که انجام می دهید اشراف کامل ندارید و یا توجه کامل را ندارید، از دستور copytodiskاستفاده نمایید.