سه شنبه 3 اسفند 1395 - 24 جمادي الاول 1438 - 21 فوريه 2017
گوگل در راستای ارتقاء موتور محسابه خود (Google Compute Engine) اقدام به کار گیری بیش از 700,000 هسته پردازش کننده (معادل حدود 90,000 ماشین مجازی) نموده است. این پردازش گرها در نقاط مختلفی از جهان مستقر و در حال آزمایش و به کار گیری هستند
عکس نویسنده
عکس نویسنده
نویسنده : آزاده مرنی
بازدید :
زمان تقریبی مطالعه :

گوگل مالک اینترنت می‌شود!


گوگل در راستای ارتقاء موتور محسابه خود (Google Compute Engine) اقدام به کار گیری بیش از 700,000 هسته پردازش کننده (معادل حدود 90,000 ماشین مجازی) نموده است. این پردازش گرها در نقاط مختلفی از جهان مستقر و در حال آزمایش و به کار گیری هستند.

گوگل

امروزه تاکید و توجه گوگل برای سرمایه گذاری روی سرویس‌های اجتماعی خود و همچنین سرویس هایی که امکان جاسوسی بیشتر گوگل را فراهم می کند، قابل تامل است، در این راستا، اخیرا شرکت گوگل در کنفرانس سالانه ورودی – خروجی گوگل (Google I/O) ، از جدیدترین ماشین عملیاتی خود پرده برداری کرد. ماشین جدید با استفاده از فناوری ماشین های مجازی اقدام به اتصال سلولی تعداد زیادی ماشین به یکدیگر می کند که سبب تولید یک ابر رایانه عملیاتی با قدرت پردازش بسیار بالا می گردد.

در واقع گوگل در راستای ارتقاء موتور محسابه خود (Google Compute Engine) اقدام به کار گیری بیش از 700,000 هسته پردازش کننده (معادل حدود 90,000 ماشین مجازی) نموده است. این پردازش گرها در نقاط مختلفی از جهان مستقر و در حال آزمایش و به کار گیری هستند. گوگل به عنوان اولین مانور عملیاتی ماشین محاسبه اش اقدام به پیاده سازی پروژه موسسه زیست شناسی ساختارها (ISB – Institute for Systems Biology) بر روی 10,000 هسته پردازش دهنده نمود. در مرحله بعدی این تعداد به 600,000 هسته افزایش یافت که یک آزمایش تمام عیار از توانایی های این سیستم محاسبه گر بود: "آنها از نمونه سرویس جدید در راستای تحقیقات درباره ژنی بهره گرفتند كه محققان را برای یافتن راههای احتمالی درمان سرطان یاری می‌رساند. شركت گوگل با اشاره به معیارهای محاسبات كنونی خاطرنشان ساخت كه تحقیقات درباره برنامه كاربردی جستجوگر ژن حدوداً 10 دقیقه به طول می‌انجامد تا جفت قرینه را پیدا كند. در هنگام رونمایی از این سرویس جدید، مدیران شركت همان برنامه كاربردی را به نمایش گذاشتند كه بوسیله 10000 هسته پردازش موتور جستجوگر گوگل به اجرا در می‌آید. این سرویس امكان ساخت جفت قرینه را ظرف چند ثانیه فراهم می‌سازد.

شبکه اینترنت از اتصال مجموعه ای از جزایر شبکه ای (اینترانت) به یکدیگر با محوریت مرکز خدمات رایانه ای وزارت دفاع امریکا (آرپا) در سراسر جهان ریشه دوانیده است

این موتور پتانسیل محاسبات پیچیده در پروژه‌های تحقیقاتی را نیز به رخ می‌كشد. اگرچه جستجوی جفت قرینه در یك ثانیه برای گوگل كاملاً خوب نبود اما آنها دستگاهی را در معرض دید عموم قرار دادند كه نشان می‌داد بیش از 700000 هسته پردازش در موتور محاسبات وجود دارد. ضمن اینكه، آنها 600000 هسته پردازش را به همان برنامه كاربردی جستجوگر ژن اختصاص دادند. این موتور با كمك این هسته‌های پردازش می‌توانست به طور ثابت چندین جفت قرینه را پیدا كند. موتور محاسبات پتانسیل اجرای همین بازی را در محاسبات پیچیده و سنگین نیز دارد. در حال حاضر،‌ از این موتور فقط برای كاربردهای شخصی یا تجاری محدود استفاده می‌شود. با استفاده از این سرویس جدید می‌توان از محاسبات گسترده در انجام تحقیقات و سایر پرژوه‌های بزرگ فراتر از محدودیت‌های قبلی استفاده نمود.

گوگل

همچنین سایت خبری توسعه دهندگان گوگل با توضیحاتی بیشتر در مورد نحوه عمل این سیستم به نقاط قوت و ضعف این سیستم اشاره کوتاهی می نماید. به عنوان مثال برای انجام این محاسبات تعداد زیادی محاسبه بدون رابطه با یکدیگر انجام پذیرفت که این اثر فاصله فیزیکی هسته ها و نقش سرعت دسترسی شبکه را کاهش می دهد. اما توانایی محاسبه حدود 30,000 هدف با حدود 20 انتخاب در هریک کاری است که برای مۆسسه زیست شناسی ساختارها با ابرپردازنده ای دارای 1,000هسته بیش از 15 ساعت به طول می انجامد. کاری که گوگل با به کار گیری 600,000 هسته توانست در چند ثانیه به انجام رساند. موتور جستجوگر گوگل در کنار سایر اعضای خانواده گوگل همانندGmail, Youtube, Translate, Maps, Document و اخیرا GooglePlus در راستای زیر نظر گرفتن تمامی اعمال کاربران بر روی اینترنت تلاش می کنند. در کنار اینها نرم افزار مخفی از نظر گوگل آنالیتیکس به صورت مخفیانه از بازدیدهای افراد از سایت های مختلف روی اینترنت گزارش های مفصلی تهیه نموده وبه مرکز جمع آوری داده گوگل ارسال می نماید.

چندی پیش خبر شکستن قفل شبکه های بیسیم خانگی توسط ماشین های نقشه برداری گوگل (Google Earth) منتشر شد. شبکه اینترنت از اتصال مجموعه ای از جزایر شبکه ای (اینترانت) به یکدیگر با محوریت مرکز خدمات رایانه ای وزارت دفاع امریکا (آرپا) در سراسر جهان ریشه دوانیده است. از آنجا که شبکه اینترنت به صورت یک پهنه ارتباطی دیجیتال به سهولت قابل نفوذ می باشد، نگهداری و انتقال داده برای ماشین های متصل به این شبکه نیازمند استفاده از روش های مختلف رمزگذاری و حفاظتی است. این روش ها معمولا به دو صورت پارازیت (Hashing) و مخفی سازی (Encryption) صورت می پذیرد. برای این منظور الگوریتم های مختلف رمز گذاری با بالابردن تعداد انتخاب های لازم برای پیدا کردن مطلب پنهان شده از عدم توانایی دیگران برای به انجام رسانیدن تعداد لازم محاسبه برای بررسی کلیه انتخاب ها بهره می برند.

لذا اگر زمانی گوگل بخواهد از این تعداد هسته (چند صد هزار) برای شکستن رمزهای اینترنت استفاده کند حد اقل نیاز به یافتن یک الگوریتم ویژه شکستن و مدیریت داده به صورت هوش مصنوعی است که در حال حاضر به صورت کامل وجود ندارد

اخیرا و پس از تولید استاندارد CUDA توسط شرکت NVIDA امکان آن پیدا شده است که با استفاده از تعدادی پردازشگر گرافیکی ابر رایانه های خانگی با قدرت های معادل ده ها ترا فلاپ ( هر ترا فلاپ معادل 1,000,000,000,000 محاسبه عددی در دقیقه است) با قیمت ارزانی فراهم شود. این ماشین ها هم اکنون بر روی اینترنت هم قابل دسترسی بوده و با هزینه چند هزار دلار امریکا یک نفر می تواند چنین ماشینی را برای چند هفته در اختیار گرفته و در عرض یک ثانیه بیش از 700,000,000 انتخاب رمز را بررسی نماید.

لذا متخصصین به روش هایی جدید تر روی آورده اند که با بالا بردن تعداد بیت های استفاده شده و متغیر های تصادفی حتی المقدور زمان شکسته شدن رمز خود را از چند ثانیه به چند سال ترقی دهند. کاری که روز به روز سخت تر می شود. از این دست الگوریتم ها می توان به bcrypt و scrypt اشاره کرد که در ماه های اخیر توجه زیادی به آنها صورت پذیرفته است. همچنین برای مخفی سازی از استاندارد هایی مانند RSA, RSA2 بهره گیری می شد که در حال حاضر کلیه ارتباطات معمول بر روی وب که هدف امن سازی دارند با استفاده از پروتوکل HTTPS و SSL که از RSA2 بهره می برند صورت می گیرد. حداکثر مقدار انتخاب استفاده شده در حال حاضر در این مسیر 1024 بیت می باشد ولی معمولا بر روی سایت ها از مقادیری کمتر مانند 256 بیت استفاده می شود.

جای پای خود را از گوگل پاک کنید

از نظر ساختاری هرچند به صورت نظری افزایش تعداد ماشین های مجازی در کنار یکدیگر ممکن است اما اجرای آن نیازمند زیرساخت های به خصوصی است. در این رابطه مهمترین مسأله بعد از فاصله فیزیکی آنها، مسأله پهنای باند و سرعت انتقال داده بر روی شبکه متصل کننده ماشین های فیزیکی است که این ماشین های مجازی را میزبانی می نمایند. شبکه های رایانه ای امروزه با سرعت حد اکثری 4 گیگابیت بر ثانیه به عنوان اولین گلوگاه حساس ارتباطی مابین ماشین های فیزیکی خودنمایی می نمایند. سخت افزار و خود طول مسیر ارتباطی ما بین ماشین ها هم خود تأثیر تأخیر آمیز در ارتباط دارد. به عنوان مثال تأخیری در حدود حتی چند میلی ثانیه برای یک سیستم به معنای پایین آوردن تعداد پردازش های مبتنی بر آن به چند صد پردازش در ثانیه است.

هر چه پهنه و گستره ماشین های فیزیکی بیشتر شود مدیریت پهنای باند سخت تر شده و ترافیک داده بالا رفته و همچنین ارتباطات بین هسته ها محدود تر می گردد. لذا همانگونه که متخصصین خود گوگل اشاره نمودند موفقیت آنها در آزمایششان بر روی ژنوم سرطان وابسته به حد اقل رسانی نیاز به ارتباط بین هسته ها در حین اجرای عملیات های موازی بود. لذا اگر زمانی گوگل بخواهد از این تعداد هسته (چند صد هزار) برای شکستن رمزهای اینترنت استفاده کند حد اقل نیاز به یافتن یک الگوریتم ویژه شکستن و مدیریت داده به صورت هوش مصنوعی است که در حال حاضر به صورت کامل وجود ندارد. اما به صورت کمتر و در تعداد کمتر (چند ده هزار) می توان پیش بینی کرد که این ماشین بتواند از توانایی هسته های خود برای شکستن بخش قابل توجهی از رمزها، ارتباطات و رمز عبورهای کاربران استفاده نماید.

فرآوری : آزاده مرنی

بخش ارتباطات تبیان


منابع: مشرق / ایسنا

تلفن : 81200000
پست الکترونیک : public@tebyan.com
آدرس : بلوارکشاورز ، خیابان نادری ، نبش حجت دوست ، پلاک 12

ارتباط با ما

روابط عمومی

درباره ما

نقشه سایت

تعدادبازدیدکنندگان
افراد آنلاین