rss Twitter Добавить виджет на Яндекс
Реклама:
     
 
 
 
     
     
 
 
 
     
     
 

Сделано в IBM Labs: Исследователи IBM разработали энергетически эффективный и рекордный по быстродействию метод анализа качества данных

IBM Research, исследовательская организация корпорации IBM сегодня сообщила о разработке революционного метода, основанного на математическом алгоритме, который уменьшает на два порядка вычислительную сложность, расходы и потребление электроэнергии при анализе качества больших объемов данных. Новый метод очень поможет предприятиям быстрее и эффективнее извлекать и использовать данные для создания более точных и лучше прогнозирующих моделей.

В этом эксперименте, бьющем предыдущие рекорды, исследователи IBM использовали суперкомпьютер, занимающий четвертую позицию в рейтинге самых мощных вычислительных систем в мире – Blue Gene/P, развернутый в научно-исследовательском центре города Юлих, Германия (Forschungszentrum Julich) – для проверки достоверности девяти терабайт данных (или девяти с двенадцатью нулями байт данных). Этот суперкомпьютер справился с этой задачей менее чем за 20 минут, причем без ущерба качеству. Для сравнения: на решение подобной задачи при использовании существующей типовой методики на этой же системе уйдет более одного дня. Кроме того, в рекордном эксперименте расход электроэнергии составил всего один процент от обычного уровня энергопотребления этого вычислительного процесса

Новое революционное достижение ученых IBM было представлено  на конференции Общества промышленной и прикладной математики (Society for Industrial and Applied Mathematics, SIAM), проходящей в Сиэтле, штат Вашингтон.

«В мире, где на каждого человека приходится один миллиард транзисторов, и цифра эта продолжает увеличиваться с каждым днем, объемы данных растут беспрецедентными темпами, — отметил доктор Алессандро Куриони (Alessandro Curioni), руководитель группы вычислительных систем исследовательской лаборатории IBM в Цюрихе (IBM Research – Zurich). — Анализ таких громадных массивов постоянно накапливающихся данных является сложнейшей задачей, которую приходится решать в целом ряде прикладных областей науки, техники и бизнеса. Это выдающееся достижение значительно расширяет способность анализировать качество крупных массивов данных с высокими скоростями».

Одним из наиболее критичных и требующих большого объема вычислений факторов в аналитике считается измерение качества данных, показывающее, насколько надежными (или достоверными) являются данные, которые используются при анализе и, также, генерируются аналитической моделью. Во многих прикладных областях, от организации дорожного движения и ведения финансовых операций до управления водными ресурсами, новый метод, разработанный учеными IBM, может проложить путь к созданию более мощных, комплексных и точных моделей с расширенными возможностями прогнозирования.

Так, например:

  • Службы, ответственные за управление водными ресурсами, смогут анализировать поступающую в реальном времени картографическую информацию и обработанные геофизические данные для разработки прогнозирующих моделей, которые предсказывают потенциальные проблемы прежде, чем они могут возникнуть. Модели учитывают состояние всех компонентов постоянно расширяющейся инфраструктуры «водного хозяйства» – водопроводных труб, клапанов, вентилей и другой гидротехнической арматуры, пожарных гидрантов, водосборников, счетчиков расхода воды и т.д. Подобное прогнозирование требует анализа огромных объемов данных и выявления закономерностей, связанных с погодными условиями, потреблением воды и сотнями других переменных параметров.
  • Цепочки поставок сталкиваются с множеством проблем, связанных с логистикой, таких как высокая интенсивность движения и пробки на дорогах, дорожные работы и неблагоприятные дорожные условия. Эти проблемы часто приводят к срывам сроков поставки товаров. Многообразие поставщиков и конечных получателей товара, наряду с разнообразными транспортными схемами и способами перевозок, и самыми разными сроками поставок, делают число проблем и переменных факторов практически бесконечным. Используя данные глобальной системы навигации (GPS) и дорожных датчиков, информацию из баз данных поставщиков и прогнозы потребительского спроса, аналитика может помочь в принятии более взвешенных оперативных решений в случаях, когда возникают непредвиденные затруднения.  

Объемы цифровых данных увеличиваются в гигантских размерах – вследствие, в числе прочего, огромного количества используемых датчиков, этикеток радиочастотной идентификации (RFID-меток), управляющих механизмов и GPS-устройств. Эти миниатюрные компьютеры фиксируют, оценивают, сравнивают и подсчитывают всё – от степени загрязнения морской воды до схем движения транспорта и цепочек поставок продуктов питания.

Со всеми этими данными приходят и новые проблемы, поскольку организации сегодня стремятся не только извлекать из данных ценную для себя информацию, но также быть всегда уверенными в достоверности данных, которыми они оперируют. Ученые IBM продолжают свои передовые исследования в этой области и активно включаются в проекты клиентов, чтобы помочь в расширении способности аналитики прогнозировать результаты и содействовать повышению оперативности и качества принимаемых бизнес-решений.

«Определение, насколько типичными или статистически релевантными являются данные, помогает нам оценивать общее качество анализа и указывает на недостатки аналитической модели или скрытые взаимосвязи в данных, — пояснил доктор Костас Бекас (Costas Bekas) из IBM Research – Zurich. — Эффективный анализ огромных массивов данных требует разработки нового поколения математических методик, которые направлены на уменьшение вычислительной сложности и, в то же время, могут быть развернуты на современных высокопроизводительных вычислительных платформах с массовым параллелизмом».

Новый метод, продемонстрированный учеными IBM, уменьшает вычислительную сложность и обладает очень хорошими характеристиками масштабируемости, которые позволяет использовать его «на полную мощность» суперкомпьютера JuGene в научно-исследовательском центре города Юлих (Forschungszentrum Julich), с его 72 аппаратными стойками системы IBM Blue Gene/P, 294912 процессорами и пиковой производительностью в один петафлоп.

«В ближайшие годы вычисления на суперкомпьютерах будут снабжать нас уникальными знаниями и предоставлять дополнительные преимущества вместе с новыми технологиями, — подчеркнул профессор, доктор Томас Липперт (Thomas Lippert), руководитель центра высокопроизводительных вычислений в Юлихе (Julich Supercomputing Centre), —  Краеугольным камнем будущего станут инновационные инструменты и алгоритмы, помогающие нам анализировать громадные объемы данных, которые получены в результате моделирования различных прикладных процессов на самых мощных компьютерах».

IBM намерена сделать эти возможности доступными для клиентов.

Суперкомпьютер JuGene, развернутый в научно-исследовательском центре города Юлих, Германия (Forschungszentrum Julich), потребляет 52800 КВт/ч электроэнергии при работе в режиме полной мощности. Демонстрация нового метода IBM потребовала, как и ожидалось, 700 КВт/ч.

О научно-исследовательском центре Forschungszentrum Julich

Центр Forschungszentrum Julich, расположенный в городе Юлих, Германия, осуществляет передовые междисциплинарные исследования, направленные на решение важнейших проблем, с которыми сталкивается общество в сферах здравоохранения, энергетики и экологии, а также информационных технологий. Сочетая высокую компетентность в таких двух ключевых областях как физика и высокопроизводительная вычислительная техника, специалисты исследовательского центра в Юлихе вносят весомый вклад в долгосрочное развитие многих фундаментальных научных дисциплин и технологий, а также в разработку специализированных технологических приложений. Forschungszentrum Julich, штат которого насчитывает около 4400 человек, входит в ассоциацию имени Гельмгольца (Helmholtz Association), объединяющую национальные научные организации Германии, и является одним из крупнейших исследовательских центров Европы. Центр высокопроизводительных вычислений в Юлихе (Julich Supercomputing Centre) является постоянной площадкой для крупнейших в мире суперкомпьютеров и поддерживает пользовательское сообщество из более 200 научных и исследовательских групп, разрабатывая алгоритмы, модели, инструменты и методы для различных направлений вычислительной науки и техники.

Редактор раздела: Юрий Мальцев (maltsev@mskit.ru)

Рубрики: Оборудование

Ключевые слова: IBM

наверх
 
 
     

А знаете ли Вы что?

     
 

MSKIT.RU: последние новости Москвы и Центра

26.12.2024 Безопасность российского ПО и технологий искусственного интеллекта. Обсудили на Открытой конференции ИСП РАН 2024

26.12.2024 Эксперты выявили цифровые точки роста российского рынка HR Tech

26.12.2024 В России может появиться общероссийский атлас киберугроз

NNIT.RU: последние новости Нижнего Новгорода

ITSZ.RU: последние новости Петербурга