SLinCA@Home

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до: навігація, пошук
SLinCA@Home
SLinCA screenshot.jpg
Розробник(и) ІМФ НАНУ
Перший випуск 14 вересня 2010
Операційна система Linux, Windows
Платформа BOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid
Стан розробки Альфа
Тип Грід, розподілені обчислення, волонтерські обчислення
Сайт dg.imp.kiev.ua

SLinCA@Home (Scaling Laws in Cluster Aggregation - Масштабно-інваріантні закономірності в агрегації кластерів) — це науково-дослідний проект, який використовує комп'ютери, з'єднані глобальною мережею Інтернет, для досліджень в галузі матеріалознавства.

Вступ[ред.ред. код]

SLinCA@Home заснований групою наукових співробітників з Інститута металофізики ім. Г.В. Курдюмова (ІМФ) Національної академії наук України (НАНУ), Київ, Україна. Цей проект використовує програмне забезпечення Berkeley Open Infrastructure for Network Computing (BOINC), платформу SZTAKI Desktop Grid, та API для розподілених обчислень (DC-API) від SZTAKI. SLinCA@Home включає декілька наукових програм присвячених пошуку масштабно-інваріантних закономірностей в експериментальних даних і результатах комп'ютерного моделювання.

Історія[ред.ред. код]

Проект SLinCA@Home раніше був запущений в січні 2009 р. як частина проекту EDGeS Сьомої Рамкової Програми (Seventh Framework Programme - FP7) Європейського Союзу (ЄС) для фінансування наукових досліджень і технологічного розвитку в Європі. У 2009-2010 він використовував потужності локального "Настільного Гріда" (НГ) ІМФ, але із грудня 2010 року використовує інфраструктуру розподілених обчислень, яка надається волонтерами для вирішення складних обчислювальних завдань, пов'язаних з пошуком масштабно-інваріантних закономірностей в експериментально отриманих та модельованих наукових даних. Зараз проект управляється групою вчених з ІМФ НАНУ у тісній співпраці з партнерами з IDGF та Distributed Computing team 'Ukraine'. З червня 2010 SLinCA@Home працює в рамках проекту DEGISCO FP7 ЄС.

Поточний статус[ред.ред. код]

SLinCA@Home - продуктивність за 4 тижні, станом на 16 березня 2011.

Зараз SLinCA@Home має статус альфа-версії, що пов'язано з поступовою модернізацією серверної і клієнтської частин.

За неофіційною статистикою BOINCstats (станом на 16 березня 2011) більш ніж 2000 волонтерів з 39 країн взяли участь у проекті, зробивши його другим за популярністю BOINC проектом в Україні (після проекту Magnetism@Home, який зараз не активний).[1] Близько 700 активних користувачів забезпечують приблизно 0.5-1.5 TFLOPS[2] обчислювальної потужності, яка дозволила б SLinCA@Home потрапити в найкращу 20-ку списку TOP500 суперкомп'ютерів ... станом на червень 2005 року.[3] :)

Зараз, одну програму (SLinCA) запущено на відкритій глобальної інфраструктурі розподілених обчислень (SLinCA@Home), а три інших (MultiScaleIVideoP, CPDynSG, LAMMPS через ІРО) перебувають в стадії тестування на закритому локальному Настільному Гріді (НГ) ІМФ.

Програми[ред.ред. код]

Проект SLinCA@Home був створений для пошуку невідомих раніше масштабно-інваріантних закономірностей за результатами експериментів і моделювання в наступних наукових програмах

Scaling Laws in Cluster Aggregation (SLinCA)[ред.ред. код]

SLinCA
Розробник(и) ІМФ НАНУ
Перший випуск 24 липня 2007
Написано на C, C++
Операційна система Linux (32-bit), Windows (32-bit)
Платформа BOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid
Стан розробки Активний
Тип Грід, розподілені обчислення, волонтерські обчислення

SLinCA (Scaling Laws in Cluster Aggregation) є першою програмою портованою на DG інфраструктуру лабораторією фізики деформаційних процесів ІМФ НАНУ. Її метою є знайти закони масштабної інваріантності в кінетичному сценарії агрегації мономеру в кластерах різних видів і в різних наукових областях.

Процеси агрегації кластерів досліджуються в багатьох галузях науки: агрегації дефектів в матеріалознавстві, динаміці популяцій в біології, рості і розвитку міст в соціології, і т.д.Існуючі експериментальні дані свідчать про наявність ієрархічної структури на багатьох масштабних рівнях. Наявні теорії пропонують безліч сценаріїв агрегації кластерів, формування ієрархічних структур, і пояснення їх масштабно-інваріантних властивостей. Для їх перевірки необхідно використовувати потужні обчислювальні ресурси для обробки величезних баз даних експериментальних результатів. Звичайне моделювання одного процесу агрегації кластерів з 106 мономерами займає приблизно 1-7 днів на одному сучасному процесорі, в залежності від кількості кроків у методі Монте-Карло. Виконання SLinCA в Гріді в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для моделювання безлічі сценаріїв за набагато більш короткі терміни.

Типові технічні параметри для запуску ІРО-версії програми SLinCA в глобальній відкритій інфраструктурі розподілених обчислень (ІРО) (SLinCA@Home):

  • Поточні умови для 1 завдання на 1 ядро ЦПУ (2.4 GHz): час виконання ~2-4 години; RAM<60 Мб; НЖМД<40 Мб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: нелінійний.
Наукові результати[ред.ред. код]

Попередні результати програми SLinCA були отримані на EGEE обчислювальних ресурсах тестових інфраструктур CETA-CIEMAT та XtremWeb-HEP LAL; опубліковані в 2009 в стендовій доповіді 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нідерланди (29-30 Березня, 2009).[4]

Плани на майбутнє[ред.ред. код]

Поточна версія програми SLinCA буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200% швидше). Додаткова мета - це міграція на платформу OurGrid для тестування і демонстрації потенційних механізмів взаємодії між світовими спільнотами з різними парадигмами розподілених обчислень. SLinCA планується портувати на платформу OurGrid, орієнтовану на підтримку пірінгових настільних грідів, які, за своєю природою, дуже відрізняються від волонтерських розподілених обчислень на базі "Настільного Гріда" (НГ), як SZTAKI Desktop Grid.

Multiscale Image and Video Processing (MultiScaleIVideoP)[ред.ред. код]

MultiScaleIVideoP
Розробник(и) ИМФ НАНУ (оболонка для середовища РО), Mathworks (бібліотеки MATLAB)
Перший випуск 11 січня 2008
Написано на C, C++, MATLAB
Операційна система Linux (32-bit), Windows (32-bit)
Платформа MATLAB, BOINC, SZTAKI Desktop Grid, XtremWeb-HEP
Стан розробки Альфа
Тип Грід, розподілені обчислення, волонтерські обчислення

Оптична мікроскопія зазвичай використовується для аналізу структурних характеристик матеріалів у вузьких діапазонах збільшення, невеликої досліджуваної області, і в статичному режимі. Однак безліч критичних процесів, пов'язаних з початком і динамічним поширенням руйнування спостерігаються в широкому часовому діапазоні від 10 −3с до 10 3с і на багатьох масштабних рівнях від 10 −6м (одиночні дефекти) до 10 −2м (пов'язані мережі дефектів). Програма Multiscale Image and Video Processing (MultiscaleIVideoP) призначена для обробки записаної еволюції матеріалів під час механічної деформації на випробувальній машині. Розрахунки включають в себе безліч параметрів фізичного процесу (швидкість, зусилля, збільшення, умови освітлення, апаратні фільтри, і т.д.) і параметрів обробки зображення (розподіл за розмірами, анізотропія, локалізація, параметри масштабування і т.д.). Тому розрахунки дуже трудомісткі і виконуються дуже повільно. Ось чому з'явилася крайня необхідність використання потужніших обчислювальних ресурсів. Виконання цієї програми в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для обробки зображень і відео в більш широкому діапазоні масштабів і за набагато більш короткі терміни.

Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) ІМФ :

  • Поточні умови для 1 завдання на 1 ядро ЦПУ (2.4 GHz): час виконання ~ 20-30 хв; RAM<200 Мб; НЖМД<500 Мб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати[ред.ред. код]

Попередні результати програми MultiScaleIVideoP були отримані на EGEE обчислювальних ресурсах тестових інфраструктур CETA-CIEMAT і XtremWeb-HEP LAL; опубліковані в 2009 в стендовій доповіді 4th EDGeS training event and 3rd AlmereGrid Workshop, Алмере, Нідерланди (29-30 березня, 2009).[5]

У січні, 2011 були отримані і опубліковані подальші результати обробки даних відеоспостереження в ході експериментів з циклічним обмеженим навантаженням алюмінієвої фольги.[6]

Плани на майбутнє[ред.ред. код]

Поточна версія програми MultiScaleIVideoP буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 600% швидше).

City Population Dynamics and Sustainable Growth (CPDynSG)[ред.ред. код]

CPDynSG
Розробник(и) ИМФ НАНУ
Перший випуск 14 квітня 2010
Написано на C, C++
Операційна система Linux (32-bit), Windows (32-bit)
Платформа BOINC, SZTAKI Desktop Grid
Стан розробки Альфа
Тип Грід, розподілені обчислення, волонтерські обчислення

Відомо, що зростання міст (муніципалітетів, округів тощо) пояснюється міграцією, злиттям, зростанням населення і т.д. Відмічено, що розподіл міст за їх розмірами в багатьох країнах підпорядковується статичному закону. Ця залежність підтверджується даними для популяцій в різних містах в період їх початкової історії. Населення у всіх великих містах зростає набагато швидше, ніж країна в цілому за значний діапазон часу. Однак, як і в містах, які досягли зрілості, їх зростання може сповільнитися або кількість населення може навіть знизитися з причин, не пов'язаних з міграцією в ще більші міста. Різні теорії дають темпи зростання, асимптотики, і розподілу таких груп населення. Важливою особливістю програми є порівняння наявних теорій з даними спостережень та прогнозування сценаріїв динаміки стійкого зростання населення для різних національних і міжнародних регіонів. Програма City Population Dynamics and Sustainable Growth (CPDynSG) дозволяє дослідити зв'язок між величезним обсягом експериментальних даних і знайти якісну відповідність між передбаченнями різних моделей і наявними історичними даними.

Типові технічні параметри для запуску ІРО-версії програми CPDynSG на закритому локальному Настільному Гріді (НГ) ІМФ :

  • Поточні умови для 1 завдання на 1 ядро ЦПУ (2.4 GHz): час виконання ~ 20-30 хв; RAM<20 Мб; НЖМД<50 Мб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати[ред.ред. код]

У червні-вересні 2010 року були отримані результати щодо концепції, результатів портування ІРО-версії програми CPDynSG на базі платформи Berkeley Open Infrastructure for Network Computing (BOINC), платформу SZTAKI Desktop Grid, і API для розподілених обчислень (DC-API) від SZTAKI, а також попередні результати для розподілу розмірів міст в кількох країнах Центральної та Східної Європи. Відзначена характерна ізоляція розподілу розмірів міст в Угорщині, а також виявлена дуже схожа еволюція розподілу за розмірами міст в Україні та Польщі. Ці результати були представлені на Cracow Grid Workshop'10 (11-13 жовтня, 2010) в усній і стендовій [7] доповідях. Представлений стенд був відзначений нагородою "За найкращу стендову доповідь Cracow Grid Workshop'09".

Плани на майбутнє[ред.ред. код]

Поточна версія програми CPDynSG буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200% швидше).

Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS) в інфраструктурі розподілених обчислень (ІРО)[ред.ред. код]

LAMMPS в ІРО
Розробник(и) ІМФ НАНУ (оболонка для середовища РО), Sandia National Laboratories (LAMMPS itself)
Перший випуск 4 серпня 2010
Написано на C, C++
Операційна система Linux (32-bit), Windows (32-bit)
Платформа BOINC, SZTAKI Desktop Grid
Стан розробки Альфа
Тип Грід, розподілені обчислення, волонтерські обчислення

Пошук нових нанорозмірних функціональних пристроїв став справжнім "Ельдорадо" сучасної науки і він стимулює "Золоту лихоманку" в сучасному матеріалознавстві. Але контрольоване виробництво нанорозмірних функціональних пристроїв вимагає ретельного вибору і настройки критичних параметрів (елементів, потенціалів взаємодії, режимів зовнішнього впливу, температури тощо) атомної самоорганізації в розроблюваних моделях і структурах для наномасштабних функціональних пристроїв. Ось чому молекулярно-динамічне моделювання процесів нановиробництва з декомпозицією фізичних параметрів і перебором параметрів методом "грубої сили" є досить перспективним. Для цієї мети був вибраний дуже популярний некомерційний пакет з відкритим кодом LAMMPS "Large-scale Atomic / Molecular Massively Parallel Simulator" (LAMMPS) від Sandia National Laboratories як кандидат для портування в інфраструктуру розподілених обчислень (ІРО) на основі платформи Berkeley Open Infrastructure for Network Computing (BOINC), SZTAKI Desktop Grid, і API для розподілених обчислень (DC-API) від SZTAKI. Як правило, для такого моделювання нанооб'єктів з багатьма параметрами потрібно надзвичайно багато обчислювальних ресурсів. Типове моделювання досліджуваних наноструктур для однієї конфігурації фізичних параметрів - наприклад, для моделювання фізичних процесів протягом 1-10 пікосекунд металевих монокристалів (Al, Cu, Mo, ітд.) З 10 7 атомів - потрібно приблизно 1 - 7 днів на одному сучасному ЦПУ. Виконання LAMMPS в Гріді в інфраструктурі розподілених обчислень (ІРО) дозволяє використовувати сотні машин одночасно і отримумати величезну кількість обчислювальних ресурсів для проведення моделювання в широкому діапазоні фізичних параметрів (конфігурацій) і в набагато більш короткі терміни .

Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) ІМФ :

  • Поточні умови для 1 завдання на 1 ядро ЦПУ (2.4 GHz): час виконання ~ 2-48 годин; RAM<500 Мб; НЖМД<1 Гб.
  • Чекпойнтінг: н/д (в процесі тестування).
  • Хронометраж виконання завдань: лінійний.
Наукові результати[ред.ред. код]

У вересні-жовтні 2010 отримані попередні результати були представлені в усній презентації на Міжнародній Конференції "Наноструктурні матеріали-2010", Київ, Україна [8]

Плани на майбутнє[ред.ред. код]

Поточна версія LAMMPS із застосуванням програми ІРО буде оновлена ​​для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 500% швидше).

Партнери[ред.ред. код]

SLinCA@Home співпрацює з

Нагороди[ред.ред. код]

Партнер IDGF Юрій Гордієнко з дипломом за найкращий постер на CGW'10.

Див. також[ред.ред. код]

Примітки[ред.ред. код]

  1. BOINCstats project statistics, http://boincstats.com/stats/project_graph.php?pr=SLinCA, процитовано March 16, 2011 
  2. SLinCA@Home Server Status
  3. Comparison with TOP500 supercomputers, June, 2005, http://www.top500.org/list/2005/06/500, процитовано March 16, 2011 
  4. O. Gatsenko; O. Baskova, and Y. Gordienko (March, 2009). «Kinetics of Defect Aggregation in Materials Science Simulated in Desktop Grid Computing Environment Installed in Ordinary Material Science Lab». Proceedings of 3rd AlmereGrid Workshop. Процитовано March 16, 2011. 
  5. O. Baskova; O. Gatsenko, and Y. Gordienko (March, 2009). «Porting Multiparametric MATLAB Application for Image and Video Processing to Desktop Grid for High-Performance Distributed Computing». Proceedings of 3rd AlmereGrid Workshop. Процитовано March 16, 2011. 
  6. O. Baskova; O. Gatsenko, O. Lodygensky, G. Fedak, and Y. Gordienko (January, 2011). «Statistical Properties of Deformed Single-Crystal Surface under Real-Time Video Monitoring and Processing in the Desktop Grid Distributed Computing Environment» 465. Key Engineering Materials. с. 306–309. Архів оригіналу за 2012-07-26. Процитовано 2011-03-16. 
  7. а б O. Gatsenko; O. Baskova, and Y. Gordienko (February, 2011). «Simulation of City Population Dynamics and Sustainable Growth in Desktop Grid Distributed Computing Infrastructure». Proceedings of Cracow Grid Workshop'10. Процитовано March 16, 2011. 
  8. O. Baskova; O. Gatsenko, O. Gontareva, E. Zasimchuk, and Y. Gordienko (19-22 October, 2011). «Scale-Invariant Aggregation Kinetics of Nanoscale Defects of Crystalline Structure (Масштабно-інваріантна кінетика агрегації нанорозмірних дефектів кристалічної будови)». Online Proceedings of “Nanostructured materials-2010”. Архів оригіналу за 2012-07-26. Процитовано 2011-03-16. 
  9. O. Baskova; O. Gatsenko, and Y. Gordienko (February, 2010). «Scaling-up MATLAB Application in Desktop Grid for High-Performance Distributed Computing - Example of Image and Video Processing». Proceedings of Cracow Grid Workshop'09. с. 255–263. ISBN 9788361433019. Архів оригіналу за 2012-07-26. Процитовано 2011-03-16. 

Посилання[ред.ред. код]