Доповідачі конференції "Технології Великих Даних" (ТВД 2016)


Вікторія Федотова, інженер з розробки програмного забезпечення, Intel

Вікторія працює в компанії Intel c 2008 року і останні два роки в якості розробника бібліотеки для аналізу великих даних Intel Data Analytics Acceleration Library. Розробляла статистичні компоненти Intel Math Kernel Library: Summary Statistics, Data Fitting. Вікторія закінчила факультет обчислювальної математики і кібернетики Нижегородського державного університету ім. Лобачевського за фахом "Прикладна математика та інформатика".

Як спростити створення додатків аналізу Великих Даних

Рішення практичних завдань аналізу Великих Даних вимагає застосування різних мов програмування, інструментів і бібліотек - дані надходять з різних джерел і можуть бути значно неоднорідними. На стадії прототипирования використовуються скриптові мови такі як Python, а для оптимізації найбільш критичних частин алгоритму необхідно використовувати Сі / C ++, Fortran або CUDA. Реальні дані зазвичай не вміщаються в пам'ять одного комп'ютера, тому потрібні розподілені системи MPI, Hadoop або Spark. В результаті, процес розробки, тестування, підтримки рішення вимагає знань з різних областей, що значно збільшує тривалість розробки. У доповіді на конкретному прикладі показано як спростити процес створення додатків для аналізу Великих Даних, зробивши його доступним всім розробникам, не втратити при цьому в продуктивності, знизивши вартість розробки і підтримки рішення.

Павло Велихов, директор з науки Toprater.com, Head of Data Science Finstar Labs

Павло - фахівець з СУБД і штучного інтелекту. Працював дизайнером і керівником Російської команди в проекті SciDB, займався розробками в області СУБД в Силіконовій долині (Каліфорнія) і в Росії - в Інституті Системного Програмування РАН. З 2007 року займається технологіями NLP, зокрема, в компанії Toprater керує наукомісткими розробками, включаючи систему розуміння відгуків. Павло закінчив Університет Каліфорнії (Сан Дієго) за фахом Computer Science.

Машинне розуміння текстів для аналізу думок і відгуків в Інтернет

Обробка природної мови з кожним днем ​​стає все більш актуальний, особливо на тлі підвищеного інтересу до аналізу користувальницьких думок в Інтернеті та діалогових системах. У компанії Toprater була побудована система для розуміння відгуків , Здатна виділяти тисячі критеріїв, які допомагають користувачам сервісу вибирати найбільш підходящі їм об'єкти електронної комерції. У доповіді розглянуті найбільш надійні інструменти та підходи для побудови систем аналізу думок і відгуків.

Костянтин Осипов, розробник СУБД "Tarantool", технічний керівник підрозділу систем зберігання даних, Mail.Ru Group

Костянтин - один із засновників і активних учасників Moscow MySQL User Group, з 2003 по 2010 рік був в складі провідних розробників СУБД MySQL і брав участь в створенні версій MySQL 4.1, 5.0, 5.1 і 5.5. Костянтин закінчив Московський державний університет ім. М.В. Ломоносова в 2001 році.

СУБД в оперативній пам'яті: витяг знань з "швидких" даних

Усунути головну проблему корпоративних інформаційних систем - фрагментарність даних, що заважає, зокрема, прийняття рішень в реальному часі - можна, цілком розгорнувши оперативну базу в пам'яті. Однак, для того щоб СУБД в пам'яті на кілька порядків збільшили продуктивність додатків MapReduce, потрібні прості і елегантні рішення, наприклад такі, як реалізовані у вітчизняній системі Tarantool, застосовуваної в проектах Mail.ru.

Олександр Фонарьов, Chief Data Scientist компанії Rubbles (SBDA Group), дослідник і практик в області машинного навчання, викладач Школи Аналізу Даних Яндекса

Data Science для розуміння банківського клієнта

Сьогодні у банків накопичені величезні обсяги даних, що дозволяють детально описати переваги і запити вже наявних і потенційних клієнтів, однак поки ці знання лежать мертвим вантажем. У доповіді викладено досвід застосування сучасних технік машинного навчання і аналізу даних, що дозволяє найбільшим банкам збільшувати прибуток від банківських дистанційних каналів і пропонувати ринку персоналізовані продукти, точно враховують нинішні і майбутні потреби клієнтів.

Максим Савченко, головний аналітик супермассівов, Лабораторія механізмів machine-learning, Центр компетенцій досліджень і розробки моделей, "Сберабанк-Технології"

Максим отримав ступінь магістра в МФТІ, працював в Дослідницькому центрі ім. М.В. Келдиша, Лабораторії квантової хімії AlgoDign і в Інституті теоретичної та прикладної електродинаміки РАН. З середини 2000-х років займається прикладною аналітикою, а з 2009 року - ризик-менеджментом: ризик-моделювання, R & D, проектна робота, включаючи питання застосування технологій машинного навчання для вирішення завдань фінансової індустрії.

Машинне навчання та обробка масивів даних різного типу в фінансової організації: наш досвід

Гроші не валяються під ногами - їх або вже підібрали, або ще не знайшли. У венчурному бізнесі - навіть при грамотному відборі проектів для інвестування - прибуток приносять лише два-три проекти з десяти. Аналогічна ситуація і в будь-якої великої фінансової організації - навіть при розумному відборі ідей для перевірки (пілотів), лише кілька принесуть адекватні гроші. У доповіді розбирається досвід вирішення завдання боротьби з кредитним фродом з використанням таких методів як: обробка транзакцій, біометрія, аналіз тексту анкет, аналіз пошукових запитів і аналіз даних соціальних мереж.

Іван Фролков, Постгресс професійний

Іван має великий досвід роботи з різними СУБД, а в останні роки займається PostgreSQL.

Секціонування і оптимізація SQL-запитів в PostgreSQL при роботі з Великими Даними

З кожним роком даних стає все більше, що неминуче позначається на організації структур таблиць роботи з ними. У доповіді розглядаються існуючі і нові розробляються способи, що дозволяють, зокрема, в СУБД PostgreSQL впоратися з лавиноподібним зростанням обсягів даних.

Костянтин Селезньов, РЕЛЕКС

Костянтин працює програмістом Науково-виробничого підприємства РЕЛЕКС, 17 років займається створенням спеціалізованих систем і розробкою методів обробки даних, а також їх інтеграцією в СУБД Линтер.

Перспективи інтеграції технологій індексації та просторового пошуку даних в СУБД Линтер

Доповідь присвячена обговоренню нових способів індексації і пошуку в довільному просторі даних, в якому задана функція відстані. Розглянуто весь спектр проблем забезпечення такого пошуку: структура індексу, організація пошуку та використання індексу для виконання запитів, побудова та оптимізація індексу. Особливу увагу приділено можливостям використання запропонованого способу для обробки Великих Даних, що включає оптимізацію введення-виведення, паралельну обробку, масштабування, шардінг, балансування навантаження і т.п.

Дмитро Леньов, Oracle

Дмитро Леньов - розробник MySQL Server, знайомий з кодом даної СУБД з 2003 року. Реалізував підтримку тригерів в MySQL, брав участь в розробці нової підсистеми блокувань для захисту метаданих, входить до групи програмістів, які реалізовують новий словник даних для цієї СУБД. Співробітник компанії Oracle.

СУБД MySQL і Великі Дані

Збір, обробка та використання Великих Даних стали сьогодні актуальні для все більшого числа підприємств. Яку допомогу може тут запропонувати популярна СУБД з відкритим вихідним кодом MySQL? У доповіді буде показано можливості даної СУБД, які можна використовувати для обробки великих масивів різноманітних даних, що надходять в реальному часі? Аналізуються найбільш актуальні підходи для вирішення нагальних прикладних задач.

Юрій Петров, архітектор даних, МТС, Big Big Data Group

Юрій працює з реляційними базами даних з 2001 року, з 2007 року займається архітектурою в проектах побудови і оптимізації високонавантажених реляційних сховищ в великих банках, державних структурах і телекомунікаційних компаніях. З 2012 року євангеліст Big Data, бере участь в проектах побудови інфраструктур Великих Даних і Data Lake. З 2013 року Юрій працює в якості архітектора в проектах міграції традиційних реляційних сховищ і вітрин на Data Lake, а також на документоорієнтовані і графові СУБД NoSQL. З 2015 року працює архітектором даних команди Big Data в компанії МТС.

Графові бази даних для аналізу кола спілкування клієнтів оператора зв'язку

На наших очах відбувся перехід до мультімодельним (Multi-Model) баз даних, що об'єднує кілька підходів до моделювання, наприклад Document- і Graph-oriented. Доповідь присвячена перспективним СУБД нового покоління, одна з яких - OrientDB, поширювана під ліцензією Apache 2 і підтримує розподілену архітектуру, реплікацію Multi Master і автошардірованіе між кластерами. Синергія документоорієнтованих і графових баз надає нові можливості, дозволяючи змоделювати будь-які структури даних і відмовитися від реляційних баз даних, в тому числі і пропрієтарних.

Олександр Прозоров, науковий співробітник лабораторії Спецмедтехніка, МФТІ, генеральний директор, Лабораторія інформаційних систем реального часу, МФТІ

Науковий співробітник МФТІ і ІМБП РАН, веде науково-дослідну роботу в області безконтактних технологій діагностики стану здоров'я пацієнтів і створення компактних енергоефективних бездротових медичних виробів. Має 15-річний досвід розробки високонавантажених, критично важливих гетерогенних систем. Брав безпосередню участь у створенні хмарної платформи для Ростелеком, а також Єдиної державної інформаційної системи охорони здоров'я.

Сергій Царенко, професор кафедри фундаментальної медицини, МГУ, начальник центру реанімації та анестезії, Лікувально-реабілітаційний центр РАМН

Семантична обробка біоданних в задачах діагностики та управління медицини критичних станів

Інтернет речей стосовно медицині критичних станів - це об'єднані в єдиний інформаційний простір різноманітні медичні прилади, що працюють над вирішенням завдання підтримки життя пацієнтів. В силу дорожнечі медичних приладів, таку інфраструктуру можуть дозволити собі поки тільки спеціалізовані медичні підрозділи, такі як служба реанімації та анестезії. У доповіді розбираються технічні питання створення єдиного простору лікувальної інформацією служби реанімації федеральної клініки. Розглядається архітектура побудови системи, орієнтованої на обробку великих потоків даних в реальному масштабі часу, технологічні підходи, що застосовуються для розмітки біоданних, а також технічні рішення, що дозволяють гарантувати збереження інформації і відсутність помилок при візуалізації великих масивів даних. Окремо будуть розглянуті питання забезпечення необхідного рівня інформаційної безпеки в умовах територіально розподіленого програмно-апаратного комплексу.

Василь Суханов, SAP Labs CIS

Василь працює в компанії SAP з 2013 року і займається, зокрема, розробкою алгоритмів для бібліотеки SAP HANA Predictive Analytics, призначеної для аналізу даних. Працюючи в області Data Mining Василь удосконалює наявні алгоритми і підходи для вирішення актуальних завдань роботи з клієнтами компанії SAP, зокрема. займається вдосконаленням розподілених алгоритмів виконання транзакцій в СУБД. Закінчив Московський Державний Технічний Університет ім. Н.е. Баумана в 2005 році.

Технології прогнозної аналітики для задач ритейл-індустрії

В індустрії ритейлу сьогодні надзвичайно важлива обробка і аналіз даних для забезпечення максимально швидкої реакції на зміни ринкової кон'юнктури і оптимального розвитку мережі продажів. Багатьом клієнтам SAP потрібні прості та ефективні інструменти прогнозування, що допомагають у вирішенні завдань залучення нових покупців, здатні сформувати уявлення про динаміку попиту на товари і ефективно управляти процесом продажів. Актуальною є проблема адаптації різних комерційних і Open Source рішень до поточних бізнес-процесів конкретного ритейлера - у доповіді розглянуто один із прикладів аналізу причин відтоку покупців.


Вадим Челишков, експерт за технологічними рішеннями, Microsoft

Вадим з 2011 року займається розробкою для платформи .NET і управлінням ІТ-проектами. Технічний спеціаліст з систем бізнес-аналітики і сервісів платформи Azure. Активно цікавиться веб-дизайном, UX та методологіями розробки ПО.

Сервіси Azure ML і HDInsight для вирішення завдань машинного навчання

В рамках доповіді будуть розглянуті наявні в Azure сервіси, які можуть бути корисні фахівця з Data Science. Особливу увагу в доповіді буде приділено хмарної реалізації Hadoop - HDInsight, сервісу машинного навчання Azure Machine Learning і таким службам як Azure Data Lake, використовуваним для зберігання і подальшої обробки Великих Даних.

Олександр Чистяков, провідний фахівець, СКБ "Контур"

Олександр працює у відділі експлуатації проекту "Контур.НДС +" компанії СКБ "Контур", багато років займається розробкою системного програмного забезпечення і підтримкою великих систем. Має багатий досвід розгортання і експлуатації кластерів на базі Hadoop. Чи не боїться людей і великих аудиторій.

Пристрій і експлуатація сервісу звірення рахунків-фактур для ФНС РФ

Зміни податкового законодавства вимагають звіряти інформацію, надану підприємствами в податкові органи. На перший погляд рішення такого завдання якої складності не представляє - великі масиви даних зберігаються в HBase, невеликі - в PostgreSQL, а в якості пошукового движка застосовується шардірованний і реплицироваться кластер Solr, проте «диявол у деталях». У доповіді розповідається про тонкощі виконання проекту для ФНС Росії по забезпеченню звірки декларацій значної частини товарообігу всередині Росії, без урахування яких розраховувати на успіх не можна: як будувалася система, з якими проблемами довелося зіткнутися, на що слід звернути увагу.

Дмитро Бабаєв, МТС

Дмитро - експерт по наукам про дані в МТС, займається в компанії розвитком напрямку Big Data. Дмитро раніше працював в Tinkoff Bank, Яндекс і більше десяти років спеціалізується в створенні розподілених систем зберігання даних. Має багатий досвід аналізу даних і при застосування методів машинного навчання для сегментації користувальницької аудиторії, організації інтернет-реклами і аналізу соціальних мереж.

Практика Data Science

Як правило, левова частка роботи з аналізу даних - це їх підготовка до вигляду, зручного для обробки алгоритмами машинного навчання і головні проблеми виникають коли даних дуже багато. У доповіді буде розказано про підходи й методи, що дозволяють істотно скоротити час на обробку даних і, тим самим збільшити швидкість як генерації нових бізнес-ідей, так і впровадження нових сервісів і продуктів для клієнтів телекомунікаційної компанії. Крім цього, будуть розглянуті проблеми та труднощі, з якими зазвичай стикаються аналітики і способи їх подолання.

Роман Симаков, директор з розвитку системних продуктів, "Ред Софт"

Роман - фахівець з СУБД, з 2006 року працює над створенням СУБД Ред База Даних, заснованої на OpenSource Firebird, був першим розробником в російській команді проекту SciDB (2009-2013 рр). З 2013 року Роман очолив департамент розвитку системних продуктів компанії "Ред Софт". Доцент кафедри "Інформаційні системи" МІ ВлГУ.

Організація міжвідомчої взаємодії АІС ФССП Росії

Організації міжвідомчої взаємодії в федеральних структурах завжди є складним завданням - постійне навантаження, якої зазвичай піддається система і забезпечення підвищених вимог до надійності вимагають тонкої настройки всього програмно-апаратного комплексу. Процес підтримки обробки потоку транзакцій, характерного для таких систем, часто стримується обмеженнями ядра СУБД, що вимагає відповідного доопрацювання системи управління базою даних. У доповіді буде розглянута структура автоматизованої інформаційної системи на базі відкритої СУБД Ред База Даних, склад компонентів і їх взаємодію, а також розбираються особливості обробки запитів в високонавантаженої транзакционной системі.

Андрій Ніколаєнко, ACM SIGMOD

Андрій працював в якості системного архітектора в компаніях Oracle, IBS, проектуючи і беручи участь у впровадженні великомасштабних інформаційних систем для федеральних структур, підприємств енергетики, ЖКГ та телекомунікацій. Активно працює над проектуванням серійних апаратно-програмних інфраструктурних і платформних комплексів, що пропонуються компанією IBS. Сфера інтересів - функціональне програмування для систем роботи з Великими Даними, систематизація та енціклопедізація знань по кластерним платформ і методам обробки даних.

SQL і NoSQL: на шляху до централізованих платформ управління даними

Пошук компромісів і шляхів взаємодії реляційних СУБД і технологій, зібраних під брендом NoSQL, привів до появи цікавих теоретичних результатів і виникнення суто практичних течій. Завдяки пропагандистського таланту Мартіна Фаулера, особливого звучання набула тема «різноманітної персистентності» (polyglot percistence) - поєднання в одній архітектурі або в рамках однієї програми букета різних технологій зберігання і обробки даних. Вже зараз можна говорити про злиття напрямків і переході управління даними на новий рівень - дані відокремлені від створюють і використовують їх додатків, а доступні за допомогою широкого класу технологій і лінгвістичних засобів. У доповіді наведено огляд найбільш популярних рішень для «різноманітної персистентності» - вбудованих в сучасні реляційні СУБД NoSQL-засобів, резидентних грід даних, мультімодельних СУБД, технологій SQL-доступу до нереляційних джерел, мультіпарадігменних мов доступу до даних і ін.

Олександр Сербул, керівник напрямку контролю якості інтеграції і впроваджень, "1С-Бітрікс"

Олександр з 2011 року займається напрямок контролю якості інтеграції і впроваджень в компанії «1С-Бітрікс», бере участь як архітектор і розробник в проектах компанії, пов'язаних з високим навантаженням і отказоустойчивостью ( «Бітрікс24»), консультує партнерів і клієнтів з питань архітектури високонавантажених рішень, ефективному використанню технологій кластеризації в контексті сучасних хмарних сервісів (Amazon Web Services і ін.). У 1998 році закінчив Донський Державний Технічний Університет за спеціальністю «Приладобудування» кафедри «Автоматизація та інформатика».

Apache Spark Streaming: потоковая обробка і візуалізація клієнтських подій на інтерактивній карті

Даних стає більше, а завдання все цікавіше і сьогодні вже недостатньо знати тільки класичні алгоритми обробки масивів даних і технології машинного навчання - для прийняття бізнес-рішень потрібно в режимі реального часу вміти отримувати і обробляти ключову інформацію з потоку даних. Доповідь присвячена опису проекту проектування і реалізації інтерактивної карти клієнтів засобами Apache Spark Streaming, API Яндекс.Карти і Amazon Kinesis, який використовується в якості буфера подій. Крім цього, в доповіді буде дано огляд сучасних тенденцій в області алгоритмів, технологічних новинок і нових завдань.

Володимир Крилов, керівник лабораторії технологій великих даних НГТУ, професор НДУ ВШЕ

Володимир Крилов в минулому співробітник таких компаній як Intel, Microsoft, займається проблемами, пов'язаними з розподіленою обробкою даних і машинним навчанням. Читається курси для магістрантів і аспірантів «Технології великих даних», «Предиктивне аналітика». Автор понад 200 публікацій і п'яти монографій, в тому числі «Великі Дані та їх застосування в електроенергетиці».

«Візуалізація» запахів на основі deep learning

Володіючи певним інтелектом, людина поступається багатьом представникам тваринного світу у розвитку органів почуттів і в тому числі органів нюху. Нюх є поки малодослідженою областю і незважаючи на те, що в дослідних лабораторіях і промисловості розроблено чимало штучних «носів» (e-nose), завдання, з якими легко справляється собака, ці прилади поки вирішити не дозволяють. У доповіді розглядається рішення задачі перетворення запахових полів в візуальні образи за допомогою апарату самоорганізованих мереж і глибокого навчання. Показано, що поєднання механізмів просторової обробки запахів з алгоритмами нейронних мереж дозволяє перейти до проектування системи e-dog - електронна собака.

Костянтин Кисельов, керівник напрямку машинного навчання і комп'ютерного зору, «Техносерв»

Костянтин керує напрямком машинного навчання і комп'ютерного зору в компанії «Техносерв» з початку 2016 року. В рамках даного напрямку ведуться розробки в області аналізу Великих Даних і розпізнавання об'єктів методами deep learning. Костянтин отримав ступінь магістра фізики в МДУ ім. М. В. Ломоносова в 2011 році. Займався проектуванням і розробкою сховищ даних для компанії «ВимпелКом», керував розробкою на кількох великих проектах в компанії ЛАНІТ, займався дослідженням і розробкою методів комп'ютерного зору для розпізнавання біомаркерів старіння і ряду захворювань. Був спікером на конференції GTC 2016 (Сан Хосе, Каліфорнія), де представляв методи deep learning для розпізнавання ознак старіння і захворювань шкіри. У 2015 році в компанії «Техносерв» займався аналізом даних для телеком операторів.

Масштабування методів deep learning для обробки відеопотоків

У завданнях просунутої відеоаналітікі потрібно детектувати різні об'єкти (людей, тварин, автомобілі та ін.) І розпізнавати їх (обличчя людини, номер / марка машини). Для цього застосовуються методи deep learning - різні архітектури згортальних нейронних мереж. Такі алгоритми часто працюють в десятки разів швидше на GPU. Одна HD-камера генерує близько 4 Мбіт / с, що для 10 тис. Камер дає вже 40 Гбіт / с, причому на кожному кадрі можуть бути цікаві об'єкти і виникати події, на які необхідно реагувати. Як побудувати систему, здатну в реальному часі аналізувати відеопотоки від великого числа камер? Які використовувати методи? У доповіді буде розказано про алгоритми розпізнавання та їх масштабування в кластері.

Ольга Недільченко, Mail.Ru

Ольга - співробітник компанії Mail.Ru Group з 2014 року, де займається вирішенням прикладних і теоретичних завдань в області рекомендаційних систем. Розробляє компоненти, пов'язані з Великими Даними і розподіленими системами Hadoop і Spark. Навчається в магістратурі МГТУ ім. Н. Е. Баумана за напрямом "Обчислювальні машини, комплекси, системи та мережі".

Сергій Папулін, МГТУ ім. Н.е. Баумана

Сергій, к.т.н., викладач МГТУ ім. Н.е. Баумана і ВШЕ, фахівець в області аналізу і обробки Великих Даних, а також машинного навчання.

Рекомендаційні системи і Великі Дані

Попри всю різноманітність підходів і методів, використовуваних при реалізації рекомендаційних систем, реальною проблемою є їх застосування в умовах значних обсягів даних, що накладають додаткові обмеження на способи організації зберігання даних і виконання обчислень. У доповіді наводиться огляд основних підходів до побудови рекомендаційних систем і аналізується можливість їх адаптації до роботи з великими даними. Детально розбираються питання використання найбільш популярних засобів роботи з Великими Даними для розробки рекомендаційних систем.

Дмитро Ігнатов, НДУ ВШЕ

Дмитро - фахівець в області data mining і рекомендаційних систем, автор ряду публікацій в таких профільних журналах як Machine Learning, Expert Systems with Applications і General Systems. Спеціалізується на застосуванні методів алгебраїчного аналізу даних, зокрема, теорії решіток і аналізу формальних понять.

Метрика рекомендаційної системи "Імхонет"

Доповідь присвячена питанню отримання метрики якості рекомендаційної системи, яка враховує суттєві моменти з точки зору застосування системи в бізнес-продукті. Вводиться поняття "задоволеності аудиторії", що враховує традиційні нюанси взаємодії користувача і сервісу, що впливають на якість рекомендаційної система: користувачі оцінюю лише невелику частину елементів, які вони споживають і їм рекомендують; увагу користувачів нерівномірно розподілене по списку рекомендацій; оцінка користувача, як міра його задоволеності, повинна бути органічно вбудована в метрику; популярність різних рекомендованих елементів може відрізнятися на кілька порядків. У доповіді наводиться форма метрики, що враховує всі ці ефекти і дозволяє оптимізувати їх вплив.

Олексій Климентов, НДЦ «Курчатовський інститут», МІФІ

Олексій керує Лабораторією "Технології Великих Даних" НДЦ КІ, групою прикладного програмного забезпечення Брукхевенської Національної Лабораторії і проектом по «машинного навчання», виконуваних в рамках консорціуму WLCG. Сфери інтересів: високошвидкісні і високопродуктивні обчислення, системи управління потоками завдань і даних, використання суперкомп'ютерів в додатках фізики високих енергій, машинне навчання, Великі Дані.

Аналіз великих обсягів даних в гетерогенної комп'ютерної середовищі для наукових експериментів і додатків біоінформатики

Для вирішення багатьох завдань обробка великих масивів даних необхідна інтеграція і федералізація обчислювальних ресурсів, наприклад для обробки даних експерименту ATLAS на Великому адронному колайдері використовуються більше 150 обчислювальних центрів і сховищ загальним обсягом 170 Пбайт. Інший приклад - завдання аналізу даних геномного секвенування, обсяг вхідних дані для яких досягає сотень гігабайт, а виконання самих завдань займає кілька місяців. Використання розподіленої обробки даних істотно скорочує час виконання таких завдань, що і буде показано в доповіді, присвяченій обговоренню особливостей створення повномасштабної системи управління даними і завданнями в гетерогенної комп'ютерної середовищі.

Михайло Захаров, МГТУ ім. Н.е. Баумана

Михайло закінчив факультет «Інформатики та Управління» Московського Державного Університету ім. Н. Е. Баумана, аспірант кафедри «ЕОМ, системи комплекси та мережі». Займається методами оцінки компетенцій учнів.

Оцінка компетенцій учнів на основі аналізу їх поведінки в соціальних мережах

Завдання оцінки компетенцій учнів особливо актуальна в рамках проходження державного освітнього стандарту вищої професійної освіти, де метою навчання ставиться формування компетенцій. Для вирішення цього завдання потрібно комплексний підхід, що включає, зокрема, аналіз методами машинного навчання і засобами СУБД MySQL цифрових слідів, що залишаються студентами в мережах Twitter, Facebook, «ВКонтакте», «Однокласниках» і LinkedIn. На відміну від інших джерел, інформація, витягнута з соціальних мереж, більш об'єктивна, оскільки активність учня в соціальній мережі протікає в комфортних умовах, що не пов'язана зі стресами, зумовленими зовнішнім контролем, який має місце, наприклад, при здачі тестів.

Роман Раєвський, генеральний директор, «Поліматік Рус»

Роман - експерт по системам ERP, CRM, BI і Data Mining, автор циклу лекцій з бізнес-аналітики і Data Mining для НДУ ВШЕ. Має сертифікати Microsoft Certified System Engineer (1997 рік), Professional Diploma in Logistics (1998 рік), а також сертифікат професійного бухгалтера (2001 рік). З 2010 року Роман - головний конструктор системи «Поліматік», а з 2011 року - співзасновник і генеральний директор компанії «Поліматік Рус».

Обмеження бізнес-аналізу Великих Даних і способи їх подолання

Сьогодні користувачі різних аналітичних інструментів змушені миритися з обмеженням свободи своїх дій при роботі з даними. Відсутність таких операцій як: перегляд вихідних даних в потрібному розрізі, можливість «на льоту» формувати структуру з плоского списку, «схлопування» або «розкриття» інформації до будь-якого рівня деталізації різко обмежує простір для роботи бізнес-аналітика і впливає на його результативність. У доповіді розглянуті критичні обмеження існуючих систем бізнес-аналітики (стиснення вихідних даних, недостатня деталізація, моделювання, вибірки, підміна багатовимірних задач одновимірними і візуалізація результатів аналізу) і буде викладено досвід щодо їх подолання при роботі з Великими Даними з використанням звітно-аналітичної платформи « Поліматік ».

Яку допомогу може тут запропонувати популярна СУБД з відкритим вихідним кодом MySQL?
У доповіді буде показано можливості даної СУБД, які можна використовувати для обробки великих масивів різноманітних даних, що надходять в реальному часі?
Як побудувати систему, здатну в реальному часі аналізувати відеопотоки від великого числа камер?
Які використовувати методи?
Новости
Слова жизни
Фотогалерея