Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


ТИПОВАЯ СТРУКТУРА ЭКСПЕРТНОЙ СИСТЕМЫ



Современные экспертные системы включают, как правило, следующие компоненты (рис. 1):

• подсистему приобретения знаний;

• базу знаний;

• машину вывода;

• доску объявлений (рабочую память);

• интерфейс пользователя;

• подсистему объяснения;

• подсистему совершенствования вывода и «очищения» знаний.

Подобная структура обеспечивает пользователю возможность наполнения ЭС необходимыми данными и знаниями и проведение консультаций с системой при решении конкретных задач. При этом среда разработки используется создателем ЭС для введения и представления экспертных знаний, а среда консультации доступна пользователям (неэкспертам) для получения экспертных знаний и советов.

Рис. 1. Типовая структура экспертной системы

Подсистема приобретения знаний.Приобретение знаний – это сбор, передача и преобразование опыта решения проблем из некоторых источников знаний в компьютерные программы при их создании или расширении. Потенциальные источники знаний включают людей-экспертов, учебники, базы данных, исследовательские отчеты, собственный опыт пользователей.

Извлечение знаний из экспертов – сложная задача, представляющая узкое место в создании ЭС. Для построения базы знаний необходим инженер по знаниям, помогающий эксперту структурировать его знания о предметной области, интерпретируя и интегрируя ответы на вопросы, находя аналогии, предлагая контрпримеры и выявляя концептуальные трудности.

База знаний.Информация в базе знаний – это все необходимое для понимания, формирования и решения проблемы. Она содержит два основных элемента: факты (данные) из предметной области и специальные эвристики или правила, которые управляют использованием фактов при решении проблем.

База знаний часто включает метаправила (правила о правилах) для решения проблем и получения выводов. Эвристики выражают формальные суждения о предметной области. Именно знания, а не чистые факты являются первичным материалом для ЭС. Информация базы знаний инкорпорируется в компьютерную программу в процессе представления знаний.

Машина вывода. «Мозгом» ЭС является машина вывода, известная также как управляющая структура или интерпретатор правил (в ЭС, основанных на правилах).

Этот компонент – компьютерная программа, поддерживающая методологию обработки информации из базы знаний, получение и представление заключений и рекомендаций. Машина вывода посредством формирования и организации последовательности шагов, предпринимаемых для решения проблемы (так называемой «повестки» – agenda), управляет использованием системных знаний.

Основными элементами машины вывода являются:

• интерпретатор (интерпретатор правил в большинстве систем), который выполняет выбранную повестку, применяя соответствующие правила из базы знаний;

• планировщик, который управляет процессом выполнения повестки, оценивая эффект применения различных правил с точки зрения приоритетов или других критериев.

Доска объявлений (Blackboard) – область рабочей памяти, выделенной для описания текущей проблемы, специфицированной входными данными; используется также для записи промежуточных результатов. На доску объявлений записываются текущие гипотезы и управляющая информация: план – какая стратегия выбрана для решения проблемы; повестка – потенциальные действия, ожидающие выполнения; решения – гипотезы и альтернативные способы действий, сгенерированные системой.

Интерфейс пользователя.ЭС содержат языковой процессор для дружественного, проблемно-ориентированного общения между пользователем и компьютером. Это общение может быть организовано с помощью естественного языка, сопровождаться графи кой или многооконным меню.

Подсистема объяснения.Возможность проверки соответствия выводов их посылкам имеет важное значение как при передач опыта, так и при решении проблем. Подсистема объяснения может проследить это соответствие и объяснить поведение ЭС, интерактивно отвечая на вопросы типа: «Как было получено некоторое заключение? », «Почему некоторая альтернатива была отвергнута? » «Каков план получения решений? ».

Совершенствование вывода и «очищение» знаний. Люди-эксперты могут анализировать свою собственную работу, опыт, знания и улучшать их. Аналогично такая оценка необходима и для компьютерной системы, чтобы программа была способна анализировать причины своего успеха или неудачи. Это приведет к улучшению представления знаний в базе знаний и совершенствованию логического вывода. Данные компоненты отсутствуют в настоящее время в коммерческих ЭС, однако они активно разрабатываются в рамках исследований по машинному обучению.

В процессе решения задачи ЭС проводит двусторонний диалог с пользователем, запрашивая его о фактах, касающихся конкретного случая. После получения ответов ЭС пытается получить заключение. Эта попытка осуществляется машиной вывода, решающей, какая стратегия эвристического поиска должна быть использована для определения порядка применения к данной проблеме знаний из базы знаний. Пользователь может запросить объяснение поведения ЭС и ее заключений. Качество вывода определяется методом, выбранным для представления знаний, объемом базы знаний и мощностью машины вывода. Приведенная структура ЭС является весьма обобщенной. Большинство ЭС не содержат, например, компоненты совершенствования вывода и «очищения» знаний. Кроме того, в содержании и возможностях каждой из компонент существует большое разнообразие.

5.3. ТЕХНОЛОГИЯ ХРАНИЛИЩ ДАННЫХ DATA WAREHOUSING

Во всем мире организации накапливают или уже накопили в процессе своей деятельности большие объемы данных. Эти коллекции данных хранят в себе большие потенциальные возможности по извлечению новой, аналитической информации, на основе которой можно и необходимо строить стратегию фирмы, выявлять тенденции развития рынка, находить новые решения, обусловливающие успешное развитие в условиях конкурентной борьбы. Для некоторых фирм такой анализ является неотъемлемой частью их повседневной деятельности, но большинство, очевидно, только начинает приступать к нему всерьез.

 

Попытки строить системы принятия решений, которые обращались бы непосредственно к базам данных систем оперативной обработки транзакций (OLTP-систем), оказываются в большинстве случаев неудачными.

 

Для того чтобы обеспечить возможность анализа накопленных данных, организации стали создавать хранилища данных (Data Warehouse - DW), которые представляют собой интегрированные коллекции данных, которые собраны из различных систем оперативного доступа к данным.

 

Концепция DW была предложена и в 1992 г. Биллом Инмоном в его книге " Building the Data Warehouse" и стала одной из доминирующих в разработке информационных технологий обработки данных 90-х годов. Англоязычный термин Data Warehousing, который сложно перевести лаконично на русский язык, означает создание, поддержку, управление и использование хранилища данных, что говорит о том, что речь идет о процессе. Цель этого процесса - непрерывная поставка необходимой информации нужным сотрудникам организации. Этот процесс подразумевает постоянное развитие, совершенствование, решение все новых задач и практически никогда не кончается, поэтому его нельзя уместить в более или менее четкие временные рамки, как это можно сделать для разработки традиционных систем оперативного доступа к данным.

 

Хранилища данных становятся основой для построения систем принятия решений.

 

Основная цель создания DW в том, чтобы сделать все значимые для управления бизнесом данные доступными в стандартизованной форме, пригодными для анализа и получения необходимых отчетов. Чтобы достигнуть этого, необходимо извлечь данные из существующих внутренних и внешних машиночитаемых источников.

 

Несмотря на различия в подходах и реализациях, всем хранилищам данных свойственны следующие общие черты: предметная ориентированность; интегрированность; привязка ко времени; неизменяемость.

 

Предметная ориентированность. Информация в хранилище данных организована в соответствии с основными аспектами деятельности предприятия (заказчики, продажи, склад и т.п.); это отличает хранилище данных от оперативной БД, где данные организованы в соответствии с процессами (выписка счетов, отгрузка товара и т.п.). Предметная организация данных в хранилище способствует как значительному упрощению анализа, так и повышению скорости выполнения аналитических запросов. Выражается она, в частности, в использовании иных, чем в оперативных системах, схемах организации данных. В случае хранения данных в реляционной СУБД применяется схема " звезды" (star) или " снежинки" (snowflake). Кроме того, данные могут храниться в специальной многомерной СУБД в n-мерных кубах.

 

Интегрированность. Исходные данные извлекаются из оперативных БД, проверяются, очищаются, приводятся к единому виду, в нужной степени агрегируются (то есть вычисляются суммарные показатели) и загружаются в хранилище. Такие интегрированные данные намного проще анализировать.

 

Привязка ко времени. Данные в хранилище всегда напрямую связаны с определенным периодом времени. Данные, выбранные из оперативных БД, накапливаются в хранилище в виде " исторических слоев", каждый из которых относится к конкретному периоду времени. Это позволяет анализировать тенденции в развитии бизнеса.

 

Неизменяемость. Попав в определенный " исторический слой" хранилища, данные уже никогда не будут изменены. Это также отличает хранилище от оперативной БД, в которой данные все время меняются, " дышат", и один и тот же запрос, выполненный дважды с интервалом в 10 минут, может дать разные результаты. Стабильность данных также облегчает их анализ.

 

Хранилища и киоски данных. Хранилища данных могут быть разбиты на два типа: корпоративные хранилища данных (enterprise data warehouses) и киоски данных (data marts).

 

Корпоративные хранилища данных содержат информацию, относящуюся ко всей корпорации и собранную из множества оперативных источников для консолидированного анализа. Обычно такие хранилища охватывают целый ряд аспектов деятельности корпорации и используются для принятия как тактических, так и стратегических решений. Корпоративное хранилище содержит детальную и обобщающую информацию; его объем может достигать от 50 Гбайт до одного или нескольких терабайт. Стоимость создания и поддержки корпоративных хранилищ может быть очень высокой. Обычно их созданием занимаются централизованные отделы информационных технологий, причем создаются они сверху вниз, то есть сначала проектируется общая схема, и только затем начинается заполнение данными. Такой процесс может занимать несколько лет.

 

Киоски данных содержат подмножество корпоративных данных и строятся для отделов или подразделений внутри организации. Киоски данных часто строятся силами самого отдела и охватывают конкретный аспект, интересующий сотрудников данного отдела. Киоск данных может получать данные из корпоративного хранилища (зависимый киоск) или, что более распространено, данные могут поступать непосредственно из оперативных источников (независимый киоск).

 

Основные компоненты DW:

 

  • оперативные источники данных;
  • средства проектирования/разработки;
  • средства переноса и трансформации данных;
  • СУБД;
  • средства доступа и анализа данных;
  • средства администрирования.

 

Сферы применения DW:

 

  • Сегментация рынка.
  • Планирование продаж, прогнозирование и управление.
  • Забота о клиенте.
  • Разработка схем лояльности.
  • Проектирование и разработка новых видов продукции.
  • Интеграция цепочки поставок.
  • Интеллектуальные технологии в организации бизнеса.

 

Программное обеспечение технологии DW. Процессы создания, поддержки и использования хранилищ данных традиционно требовали значительных затрат, что в первую очередь было вызвано высокой стоимостью доступных на рынке специализированных инструментов. Эти инструменты практически не интегрировались между собой, так как были основаны не на открытых и стандартных, а на частных и закрытых протоколах, интерфейсах и т.д. Сложность и дороговизна делали практически невозможным построение хранилищ данных в небольших и средних фирмах, в то время как потребность в анализе данных испытывает любая фирма, независимо от масштаба.

 

Корпорация Microsoft создала Microsoft DataWarehousing Framework – спецификацию среды создания и использования хранилищ данных. Данная спецификация определяет развитие не только новой линии продуктов Microsoft (например, Microsoft SQL Server 7.0), но и технологий, обеспечивающих интеграцию продуктов различных производителей. Открытость среды Microsoft Data Warehousing Framework обеспечила ее поддержку многими производителями ПО, что, в свою очередь, дает возможность конечным пользователям выбирать наиболее понравившиеся им инструменты для построения своих решений.

 

Основные поставщики ПО хранилищ данных: Arbor; Hewlett-Packard; IBM; Informix; Microsoft; Oracle; Platinum Technology; SAS Institute; Software AG; Sybase и др.

 

Все эти фирмы имеют страницы в Internet, где приводятся подробные сведения об их продуктах и услугах.

ТЕХНОЛОГИЯ АНАЛИЗА OLAP

После того как данные получены, очищены, приведены к единому виду и помещены в хранилище, их необходимо анализировать. Для этого используется технология OLAP.

Двенадцать определяющих принципов OLAP были сформулированы в 1993 году Е.Ф.Коддом, " изобретателем" реляционных баз данных. OLAP - это OnLine Analytical Processing, то есть оперативный анализ данных. Позже определение Кодда было переработано в так называемый тест FASMI (Fast Analysis of Shared Multidimensional Information - быстрый анализ разделяемой многомерной информации), который требует, чтобы OLAP-приложение предоставляло следующие возможности быстрого анализа разделяемой многомерной информации: высокая скорость; анализ; разделение доступа; многомерность; работа с информацией..

Высокая скорость. Анализ должен производиться одинаково быстро по всем аспектам информации. При этом допустимое время отклика составляет не более 5 секунд.

Анализ. Должна существовать возможность производить основные типы числового и статистического анализа - предопределенного разработчиком приложения или произвольно определяемого пользователем.

Разделение доступа. Доступ к данным должен быть многопользовательским, при этом должен контролироваться доступ к конфиденциальной информации.

Многомерность. Основная, наиболее существенная характеристика OLAP.

Работа с информацией.Приложение должно иметь возможность обращаться к любой нужной информации, независимо от ее объема и места хранения.

Многомерное представление. OLAP предоставляет организациям максимально удобные и быстрые средства доступа, просмотра и анализа деловой информации. Что наиболее важно - OLAP обеспечивает пользователя естественной, интуитивно понятной моделью данных, организуя их в виде многомерных кубов (Cubes). Осями [L1][L2](dimensions) многомерной системы координат служат основные атрибуты анализируемого бизнес-процесса. Например, для процесса продаж это может быть категория товара, регион, тип покупателя. Практически всегда в качестве одного из измерений используется время. Внутри куба находятся данные, количественно характеризующие процесс, - так называемые меры (Measures). Это могут быть объемы продаж в штуках или в денежном выражении, остатки на складе, издержки и т.п. Пользователь, анализирующий информацию, может " нарезать" куб по разным направлениям, получать сводные (например, по годам) или, наоборот, детальные (по неделям) данные и осуществлять прочие операции, которые необходимы ему для анализа.

Хранение данных OLAP. В первую очередь нужно сказать о том, что, поскольку аналитик всегда оперирует некими суммарными (а не детальными) данными, в базах данных OLAP практически всегда хранятся наряду с детальными данными и так называемые агрегаты, то есть заранее вычисленные суммарные показатели. Примерами агрегатов может служить суммарный объем продаж за год или средний остаток товара на складе. Хранение заранее вычисленных агрегатов - это основной способ повышения скорости выполнения OLAP-запросов.

Однако построение агрегатов может привести к значительному увеличению объема базы данных.

Другой проблемой хранения OLAP-данных является разреженность многомерных данных. Например, если в 2000 году продаж в некотором регионе не было, то на пересечении соответствующих измерений куба не будет никакого значения. Если OLAP-сервер будет хранить в таком случае некое отсутствующее значение, то при значительной разреженности данных количество пустых ячеек (требующих, тем не менее, места для хранения) может во много раз превысить количество заполненных, и в результате общий объем неоправданно возрастет. Решения, предлагаемые для этого компанией Microsoft, приводятся ниже.

Разновидности OLAP. Для хранения OLAP-данных могут использоваться:

Специальные многомерные СУБД (OLAP-серверы). В этом случае говорят о MOLAP (Multidimensional OLAP). При выполнении сложных запросов, анализирующих данные в различных измерениях, многомерные СУБД обеспечивают большую производительность, чем реляционные. При этом скорость выполнения запроса не зависит от того, по какому измерению производится «срез» многомерного куба.

Традиционные реляционные СУБД - ROLAP (Relational OLAP). Применение специальных структур данных - схемы «звезды» (star) и «снежинки» (snowflake), а также хранение вычисленных агрегатов делают возможным многомерный анализ реляционных данных. Реляционные СУБД исторически более привычны, и в них сделаны значительные инвестиции, поэтому пока ROLAP более распространен.

Комбинированный вариант - HOLAP (Hybrid OLAP), совмещающий и тот и другой вид СУБД. Одним из вариантов совмещения двух типов СУБД является хранение агрегатов в многомерной СУБД, а детальных данных (имеющих наибольший объем) - в реляционной.

Компания Microsoft предлагает следующие средства OLAP-анализа:

В комплект Microsoft SQL Server 7.0 входит полнофункциональный OLAP-сервер - SQL Server OLAP Services. Сервер, естественно, предназначен для обслуживания запросов клиентов, а для этого требуется некий протокол взаимодействия и язык запросов. Например, для взаимодействия клиента с серверной реляционной СУБД - SQL Server - используются протоколы ODBC или OLE DB и язык запросов SQL. Для доступа к OLAP-серверу компанией Microsoft был разработан протокол OLE DB for OLAP и язык запросов к многомерным данным - MDX (MultiDimensional eXpression). Аналогично тому, как для упрощения и удобства над OLE DB разработан слой объектов ADO (ActiveX Data Objects), над OLE DB for OLAP построен ADO MD (MultiDimensional ADO).

Средства анализа данных в Microsoft Office 2000.Microsoft Excel 2000 содержит новый механизм сводных таблиц - OLAP PivotTable, который заменил собой одноименный механизм предыдущих версий. Наряду с прежними возможностями анализа реляционных данных, механизм PivotTable теперь включает возможности анализа OLAP-данных, то есть выступает в качестве OLAP-клиента. В качестве сервера может использоваться Microsoft SQL Server 7.0, а также любой продукт, поддерживающий интерфейс OLE DB for OLAP. Механизм сводных таблиц Excel в полном объеме поддерживает возможности, предоставляемые описанным выше сервисом PivotTable Services (PTS). Таким образом, анализируемые OLAP-данные могут находиться как в локальных кубах, так и на OLAP-сервере.

Microsoft Office 2000 содержит также набор ActiveX-компонентов, называемых Office 2000 Web Components, которые позволяют организовать анализ OLAP-данных средствами просмотра Web. К ним относятся следующие четыре компонента:

Spreadsheet - реализует ограниченную функциональность листа Excel.

PivotTable - " близнец" сводных таблиц Excel; может работать с данными OLAP Services.

Chart - позволяет строить диаграммы, основанные как на реляционных, так и на OLAP-данных.

Data Source - служебный компонент для привязки остальных компонентов к источнику данных.

При работе с OLAP-данными Web Components обращаются к PivotTable Services.

5.5. ТЕХНОЛОГИЯ АНАЛИЗА «DATA MINING»

Появление технологии Data Mining связано с необходимостью извлекать знания из накопленных информационными системами разнородных данных. Возникло понятие, которое по-русски стали называть «добыча», «извлечение» знаний. За рубежом утвердился термин «Data Mining».

Широко использовавшиеся раньше методы математической статистики оказались полезными главным образом для проверки заранее сформулированных гипотез (verification-driven data mining) и для «грубого» разведочного анализа, составляющего основу оперативной аналитической обработки данных (online analytical processing – OLAP).

Ключевое достоинство «Data Mining» по сравнению с предшествующими методами – возможность автоматического порождения гипотез о взаимосвязи между различными параметрами или компонентами данных. Работа аналитика при работе с традиционным пакетом обработки данных сводится фактически к проверке или уточнению одной-двух порожденных им самим гипотез. В тех случаях, когда начальных предположений нет, а объем данных значителен, существующие системы теряют работоспособность и превращаются в пожирателей времени аналитика.

Еще одна важная особенность систем Data Mining возможность обработки многомерных запросов и поиска многомерных зависимостей. Уникальна также способность систем data mining автоматически обнаруживать исключительные ситуации – т.е. элементы данных, " выпадающие" из общих закономерностей.

Выделяют пять стандартных типов закономерностей, которые позволяют выявлять методы Data Mining

  • ассоциация
  • последовательность
  • классификация
  • кластеризация
  • прогнозирование

Поиск шаблонов производится методами, не ограниченными рамками априорных предположений о структуре выборки и виде распределений значений анализируемых показателей. Примеры заданий на такой поиск при использовании Data Mining приведены в таблице 1.

 

Таблица 1 – Сравнение формулировок задач при использовании методов OLAP и Data Mining

OLAP Data Mining
Каковы средние показатели травматизма для курящих и некурящих? Встречаются ли точные шаблоны в описаниях людей, подверженных повышенному травматизму?
Каковы средние размеры телефонных счетов существующих клиентов в сравнении со счетами бывших клиентов (отказавшихся от услуг телефонной компании)? Имеются ли характерные портреты клиентов, которые, по всей вероятности, собираются отказаться от услуг телефонной компании?
Какова средняя величина ежедневных покупок по украденной и не украденной кредитной карточке? Существуют ли стереотипные схемы покупок для случаев мошенничества с кредитными карточками?

 

Data Mining является мультидисциплинарной областью, возникшей и развивающейся на базе достижений прикладной статистики, распознавания образов, методов искусственного интеллекта, теории баз данных и др. (см. рис. 2).

Рис.2. Data Mining как мультидисциплинарная система

Системы Data Mining интегрируют в себе сразу несколько подходов, но, как правило, с преобладанием какого-то одного компонента.

Приведем примеры некоторых возможных бизнес-приложений Data Mining.

Предприятия розничной торговли сегодня собирают подробную информацию о каждой отдельной покупке, используя кредитные карточки с маркой магазина и компьютеризованные системы контроля. Типичные задачи, которые можно решать с помощью DataMining в сфере розничной торговли, это анализ покупательской корзины, исследование временных шаблонов, создание прогнозирующих моделей.

Анализ покупательской корзины (анализ сходства) предназначен для выявления товаров, которые покупатели стремятся приобретать вместе. Знание покупательской корзины необходимо для улучшения рекламы, выработки стратегии создания запасов товаров и способов их раскладки в торговых залах.

Исследование временных шаблонов помогает торговым предприятиям принимать решения о создании товарных запасов. Оно дает ответы на вопросы типа: «Если сегодня покупатель приобрел видеокамеру, то через какое время он вероятнее всего купит новые батарейки и пленку? ».

Создание прогнозирующих моделей дает возможность торговым предприятиям узнавать характер потребностей различных категорий клиентов с определенным поведением, например, покупающих товары известных дизайнеров или посещающих распродажи. Эти знания нужны для разработки точно направленных, экономичных мероприятий по продвижению товаров.

Достижения технологии Data Mining используются в банковском деле для решения следующих распространенных задач:

Выявление мошенничества с кредитными карточками. Путем анализа прошлых транзакций, которые впоследствии оказались мошенническими, банк выявляет некоторые стереотипы такого мошенничества.

Сегментация клиентов. Разбивая клиентов на различные категории, банки делают свою маркетинговую политику более целенаправленной и результативной, предлагая различные виды услуг разным группам клиентов.

Прогнозирование изменений клиентуры.Data Mining помогает банкам строить прогнозные модели ценности своих клиентов и соответствующим образом обслуживать каждую категорию.

Страховые компании в течение ряда лет накапливают большие объемы данных. Здесь также можно использовать методы Data Mining: для выявления мошенничества и анализа риска.

Выявление мошенничества. Страховые компании могут снизить уровень мошенничества, отыскивая определенные стереотипы в заявлениях о выплате страхового возмещения, характеризующих взаимоотношения между юристами, врачами и заявителями.

Анализ риска.Путем выявления сочетаний факторов, связанных с оплаченными заявлениями, страховщики могут уменьшить свои потери по обязательствам. Известен случай, когда в США крупная страховая компания обнаружила, что суммы, выплаченные по заявлениям людей, состоящих в браке, вдвое превышают суммы по заявлениям одиноких людей. Компания отреагировала на это новое знание пересмотром своей общей политики предоставления скидок семейным клиентам.

В настоящее время для решения задач DM используются нейросетевые технологии, статистические пакеты SAS, SPSS, STATISTICA, STATGRAPHICS и др. Исследование данных (Data Mining – DM) – одно из самых ценных новшеств SQL Server 2000.

В версии SQL Server 7.0 специалисты Microsoft впервые реализовали аналитическую службу OLAP, предоставляющую возможности составления нерегламентированных (гибких) запросов и анализа данных. В процессе работы с нерегламентированными запросами аналитик точно знает, на какие вопросы клиент хотел бы получить ответы, и просто извлекает нужную информацию из куба OLAP. Например, управляющий заведением типа Fast-food мог бы спросить: " Какова тенденция роста доходов и прибыли от продажи гамбургеров за последние четыре квартала? "

При проведении специального анализа данных аналитик имеет представление о том, что интересует его клиента, но перечня точно сформулированных вопросов у него нет. Например, в компании известно, что некоторые принадлежащие ей магазины розничной торговли не приносят дохода, но никто не понимает, чем это вызвано. Аналитик начинает навигацию по кубу данных OLAP, следуя за предположением, которое кажется ему наиболее верным. При этом он то углубляется в детали, то вращает размерности многомерного куба данных.

Исследование данных средствами DM отличается и от работы с нерегламентированными запросами, и от специального анализа данных. При проведении исследования данных службы Analysis Services путешествуют по информационным измерениям самостоятельно, отыскивают данные, которые относятся к делу, и представляют эти данные пользователю.

SQL Server 2000 применяет для предоставления возможностей DM новый интерфейс приложений (API), называемый OLE DB for Data Mining (OLE DB for DM).

В состав SQL Server 2000 вошли два алгоритма DM, так называемые деревья принятия решений и алгоритм кластеризации.

 


Поделиться:



Популярное:

Последнее изменение этой страницы: 2016-04-09; Просмотров: 999; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.057 с.)
Главная | Случайная страница | Обратная связь