что такое онтологическое неравенство

Онтологии в информационной безопасности

Как онтологии могут помочь быстрее и лучше защищать мир от угроз — и не только.

что такое онтологическое неравенство. Смотреть фото что такое онтологическое неравенство. Смотреть картинку что такое онтологическое неравенство. Картинка про что такое онтологическое неравенство. Фото что такое онтологическое неравенство

что такое онтологическое неравенство. Смотреть фото что такое онтологическое неравенство. Смотреть картинку что такое онтологическое неравенство. Картинка про что такое онтологическое неравенство. Фото что такое онтологическое неравенство

В «Лаборатории Касперского» мы регулярно анализируем новые технологии и ищем им применение в сфере кибербезопасности. В этом посте я хочу рассказать о том, как для нужд безопасности можно использовать онтологии — и что это вообще такое. Пусть этот подход пока не очень популярен (это лишь вопрос времени), однако он способен существенно упростить и ускорить многие процессы.

Что такое онтология — с точки зрения информационных систем

Чем могут быть полезны онтологии в информационных системах? Тем, что, используя специальный язык (например, OWL, Web Ontology Language), можно разработать инструменты описания и анализа онтологий для выявления скрытых связей, недостающих деталей или других неочевидных вещей. Если вернуться к примеру с комиксами: с помощью анализа онтологии вселенной «Марвел» мы сможем найти наилучшую команду из супергероев и одержать победу над врагом с минимальными усилиями.

Например, для этого нам подошла бы платформа Protégé, разработанная в Стэнфордском университете. Изначально она предназначалась для анализа биомедицинских данных, а в настоящее время это бесплатный проект с открытым исходным кодом для создания онтологий любых областей знаний.

В чем разница между онтологиями и машинным обучением?

Вам может показаться, что у инструментов для работы с онтологиями много общего с алгоритмами машинного обучения, но есть существенное различие. Модели машинного обучения анализируют большой массив данных — и на его основе делают прогноз относительно новых объектов. Например, модель просматривает 100 вредоносных писем и выделяет в них конкретные параметры. Когда модель видит новое электронное письмо с некоторыми из этих параметров, она делает вывод, что оно тоже вредоносное.

Онтология тоже анализирует данные, но вместо прогнозов она указывает на информацию, которая логически вытекает из заданных параметров. Она не учится и не использует предыдущий опыт для анализа информации. Если мы укажем в онтологии, что письмо А — фишинговое и что все фишинговые письма вредоносные, а затем заявим, что письмо В — фишинговое, то онтология предложит единственный логический вывод: письмо В — вредоносное. Если мы предложим проанализировать письмо С, но не дадим никаких характеристик, результат будет нулевым.

Онтологии и машинное обучение могут отлично дополнять друг друга: например, онтологии позволяют оптимизировать и ускорять модели машинного обучения. Благодаря имитации логических рассуждений и способности автоматически классифицировать и связывать информацию они значительно упрощают процесс обучения моделей. А использование онтологических аксиом — правил, описывающих взаимоотношение понятий, — помогает сузить область поиска решения, тем самым сэкономив время.

Как еще можно использовать онтологии в кибербезопасности?

В кибербезопасности онтологии также используются для выявления скрытых возможностей или слабых сторон. При помощи онтологий можно проанализировать инфраструктуру компании с точки зрения защищенности от конкретной киберугрозы, например программ-вымогателей. Для этого на платформе создаем онтологию (подробное описание) мер защиты от вымогателей и синхронизируем со списком действующих защитных мер организации.

Точно таким же образом, как и в примере с анализом героев «Марвел», онтология покажет, достаточно ли защищена инфраструктура и требуются ли доработки. Аналогично можно протестировать, отвечает ли система ИТ-безопасности стандартам IEC, NIST или другим. Это же можно делать и вручную, но такая проверка будет гораздо дольше и затратнее.

Также онтологии упрощают жизнь специалистов по информационной безопасности еще и в том плане, что они позволяют им говорить друг с другом на одном языке. Онтология кибербезопасности поможет узнать о проблемах и атаках, с которыми сталкивались другие специалисты, и грамотно внедрить защитные меры. Кроме того, онтологии полезны при создании архитектуры информационной безопасности с нуля — имея систематизированное представление обо всех уязвимостях, атаках и их связях, эксперты могут эффективней выстраивать защиту.

Может показаться, что онтологии — это что-то далекое и сложное, но поверьте, вы сталкиваетесь с ними почти каждый день. Например, когда ищете что-то в Интернете. Именно онтологии лежат в основе семантического поиска. Проще говоря, они позволяют обрабатывать запрос целиком, а не через значение отдельных слов, что значительно улучшает качество поисковой выдачи. Аналогичные технологии использует Pinterest — социальная сеть для обмена изображениями. Она анализирует действия и реакции своих пользователей, а затем использует эти данные для совершенствования рекомендаций и таргетированной рекламы.

Это далеко не все примеры использования онтологий — они могут применяться в самых разных областях. Мы в «Лаборатории Касперского» заинтересованы не только перспективой развития онтологий в кибербезопасности, но и за ее пределами — это огромные возможности для бизнеса.

Источник

Текст книги «Четвертая промышленная революция»

что такое онтологическое неравенство. Смотреть фото что такое онтологическое неравенство. Смотреть картинку что такое онтологическое неравенство. Картинка про что такое онтологическое неравенство. Фото что такое онтологическое неравенство

Автор книги: Клаус Шваб

Жанр: Экономика, Бизнес-Книги

Текущая страница: 9 (всего у книги 14 страниц) [доступный отрывок для чтения: 5 страниц]

С широкой социальной точки зрения одним из наиболее значительных (и наиболее заметных) эффектов перехода к цифровым технологиям стало появление общества, сконцентрированного на себе, основанного на индивидуализации и появлении новых форм сопричастности и сосуществования сообществ. В отличие от того, как это было в прошлом, представления о принадлежности к сообществу сегодня более определяются личными проектами и индивидуальными ценностями и интересами, а не пространственными соображениями (сообщество в определенной местности), работой и семейными отношениями.

Новые формы цифровых медиа, которые формируют основной компонент четвертой промышленной революции, все больше и больше определяют наши индивидуальные и коллективные представления об обществе и сообществе. Как рассматривает форум в своем отчете «Цифровые медиа и общество», цифровые медиа совершенно новыми путями выстраивают связи «человек-человек» и «человек-социум», что позволяет пользователям поддерживать дружеские отношения, невзирая на разделяющие их время и расстояние, создавая новые группы по интересам и позволяя тем, кто социально или физически изолирован, наладить связь с единомышленниками. Высокая доступность, низкая стоимость и географически нейтральный характер цифровых медиа также делают возможным более тесное взаимодействие, которому не препятствуют социальные, экономические, культурные, политические, религиозные и идеологические границы.

ОДНИМ ИЗ НАИБОЛЕЕ ЗНАЧИТЕЛЬНЫХ (И НАИБОЛЕЕ ЗАМЕТНЫХ) ЭФФЕКТОВ ПЕРЕХОДА К ЦИФРОВЫМ ТЕХНОЛОГИЯМ СТАЛО ПОЯВЛЕНИЕ ОБЩЕСТВА, СКОНЦЕНТРИРОВАННОГО НА СЕБЕ.

Доступ к цифровым медиа в сети Интернет многим приносит огромную пользу. Помимо его роли в предоставлении информации (например, сирийские беженцы используют Google-карты и группы Facebook не только для планирования маршрута, по которому им предстоит отправиться, но также и для того, чтобы избежать встречи с теми, кто может схватить их и продать в рабство[59] 59
Элеанор Голдберг, «Facebook и Google спасают беженцев и мигрантов от торговцев людьми», Huffington Post, 10 сентября 2015 г. http://www.huffngtonpost.com/entry/facebook-google-maps-refugeesmigr ants_55f1aca8e4b03784e2783ea4

[Закрыть] ), он также дает людям возможность высказать свое мнение и участвовать в гражданских дебатах и в принятии решений.

К сожалению, хотя четвертая промышленная революция и расширяет возможности граждан, ее собственные возможности могут быть использованы и против их интересов. В Отчете ВЭФ по Глобальным рискам 2016 года описывается феномен «гражданина, наделенного возможностями / лишенного возможностей», в результате которого отдельные лица и общины одновременно наделены полномочиями и отстранены от использования новых технологий правительствами, компаниями и заинтересованными группами (см. врезку G).

Демократический потенциал цифровых средств массовой информации означает, что их также могут использовать негосударственные организации, в частности, сообщества, имеющие вредоносные намерения по распространению пропаганды и вербовке сторонников в поддержку экстремистских миссий. В последнее время мы наблюдаем это на примере развития ДАИШ и других террористических организаций, умело использующих социальные медиа.

Существует опасность, что динамика распространения мнений, характерная для социальных медиа, может нарушить процесс принятия решений и создаст угрозу для гражданского общества. В противоположность тому, что мы могли бы интуитивно предположить, существование такого большого числа средств массовой информации, доступных по цифровым каналам, может привести к сужению и поляризации личных источников новостей. Клинический психолог Шерри Теркл из Массачусетского технологического института, профессор социальных исследований в области науки и технологий, называет это «спиралью тишины». Это важно, поскольку то, что мы читаем, чем делимся с другими и что видим в контексте социальных медиа, определяет наши политические и гражданские решения.

Врезка G. Гражданин, наделенный возможностями / лишенный возможностей

Термин «гражданин, наделенный возможностями / лишенный возможностей» отражает ситуацию, возникающую в результате взаимодействия двух тенденций: предоставления возможностей (полномочий) и лишения их. Люди чувствуют, что обрели новые возможности благодаря изменениям технологии, которые упрощают сбор информации, ее передачу и организацию; они также используют новые способы участия в общественной жизни. В то же время отдельные лица, группы гражданского общества, общественные движения и местные общины ощущают, что их все больше и больше отстраняют от значимого участия в традиционных процессах принятия решений, в том числе от голосования и выборов, и они оказываются бесправными с точки зрения возможностей оказать влияние и быть услышанными влиятельными учреждениями и источниками власти в рамках национального и регионального управления.

В случае крайнего проявления этого процесса существует весьма реальная опасность того, что правительства будут использовать сочетания технологий для подавления или притеснения деятельности тех организаций гражданского общества и групп лиц, которые стремятся добиться прозрачности в отношении правительств и предприятий и способствовать изменениям. Во многих странах по всему миру можно наблюдать признаки того, что пространство для гражданского общества сужается из-за введения правительствами законодательства и других стратегий, которые ограничивают независимость групп гражданского общества и их деятельность. Инструменты, появившиеся в эпоху четвертой промышленной революции, сделали возможными новые формы слежения и другие средства контроля, не сочетающиеся с природой здорового и открытого общества.

Источник: Отчет о глобальных рисках 2016 года, Всемирный экономический форум.

В качестве примера можно привести исследование о воздействии опубликованного в Facebook призыва прийти на выборы: он «непосредственно увеличил явку примерно на 60 тыс. избирателей, а косвенно, за счет вирусного распространения обращения в социальных сетях, – еще на 280 тыс. избирателей, что в общей сложности дало 340 тыс. дополнительных голосов»[60] 60
Роберт М. Бонд, Кристофер Дж. Фэрисс, Джейсон Дж. Джонс, Адам Д. И. Крамер, Кэмерон Марлоу, Джейми Э. Ситтл и Джеймс Г. Фаулер, «Эксперимент по социальному влиянию и политической мобилизации с участием 61 млн человек», Nature, 2 сентября 2012 г. (онлайн). http://www.nature.com/nature/journal/v489/n7415/full/nature11421.html

Как и в случае почти всех направлений влияния, рассмотренных в этом разделе, очевидно, что четвертая промышленная революция несет с собой большие возможности, но в то же время порождает существенные риски. Одна из ключевых задач, вставших перед всем миром в связи с началом этой революции, состоит в том, чтобы собрать больше данных, и данных более высокого качества, касающихся преимуществ сплоченности сообществ и тех трудностей, которые могут возникнуть.

Глава 9. Отдельная личность

Четвертая промышленная революция изменяет не только то, что мы делаем, но и то, кем мы являемся. На нас, индивидуумов, это окажет многоплановое влияние, скажется на нашей идентичности и различных гранях ее проявления: на наши представления о неприкосновенности частной жизни, о собственности, характер потребительского поведения, то, сколько времени мы посвящаем работе и отдыху, как мы развиваем свою карьеру и совершенствуем наши навыки. Это повлияет на то, как мы заводим знакомства и развиваем отношения, на иерархии, от которых мы зависим, на наше здоровье. И, возможно, что быстрее, чем мы можем предположить, это может привести к таким формам увеличения человеческих возможностей, которые заставят нас поставить под вопрос саму природу человеческого существования. Такие изменения вызывают у нас радостное волнение и одновременно страх, потому что мы мчимся с беспрецедентной скоростью.

До настоящего времени технологии в первую очередь позволяли нам делать все с меньшими усилиями, быстрее и эффективнее. Они также давали нам возможности личного развития. Но мы начинаем видеть, что потенциальные возможности их использования, как и потенциальные риски, еще более масштабны. В силу всех тех причин, которые уже были названы, мы стоим на пороге радикального системного изменения, к которому людям придется непрерывно приспосабливаться. В результате мы можем стать свидетелями нарастающей поляризации в мире, которая разделит тех, кто принимает происходящие изменения, и тех, кто им сопротивляется.

Это приводит к неравенству, которое выходит за рамки неравенства социального, описанного выше. Это онтологическое неравенство разделит тех, кто приспособился, и тех, кто сопротивляется переменам, превратив их, по сути, в победителей и неудачников. Победители могут даже получить выгоду от некоторых проявлений радикального улучшения человека, возникших в результате деятельности определенных секторов четвертой промышленной революции (например, генной инженерии), тогда как неудачники таких возможностей будут лишены. Существует риск, что в результате этого возникнут классовые конфликты и другие столкновения интересов, не похожие ни на что из виденного раньше. Эти потенциальное разделение и напряженность, которую оно порождает, будут усугубляться границей, пролегающей между поколением, которое выросло в цифровом мире и знало только его, и поколением, которое родилось раньше и должно приспосабливаться к новым условиям. Это также порождает много проблем этического характера. Будучи инженером, я с большим энтузиазмом встречаю новые технологии и в числе первых начинаю их использовать. Тем не менее мне, так же как и многим психологам и социологам, интересно, как неумолимо интеграция технологий в нашу жизнь будет воздействовать на наше представление об идентичности и приведет ли она к снижению некоторых из наиболее существенных способностей человека, таких как самоанализ, эмпатия и сострадание.

Идентичность, мораль и этика

Ошеломляющие инновации, возникшие в ходе четвертой промышленной революции (от биотехнологий и до искусственного интеллекта), по-новому определяют то содержание, которое вкладывается в понятие «быть личностью». Они расширяют существовавшие до сих пор границы продолжительности жизни, здоровья, познавательных способностей и других возможностей человека способами, которые ранее были прерогативой научной фантастики. Поскольку знания в этих областях развиваются, поскольку совершаются новые открытия, для нас крайне важно внимательно и ответственно отнестись к продолжающемуся обсуждению связанных с этим моральных и этических вопросов. Как люди и как социальные животные, мы должны задуматься, каждый в отдельности и все вместе, как нам реагировать на такие явления, как увеличение продолжительности жизни, создание «дизайнерских младенцев», извлечение информации из человеческой памяти, а также на многое другое.

В то же время мы должны понимать и то, что эти невероятные открытия можно направить на службу интересам конкретных групп, не всегда совпадающим с нуждами общества в целом. Стивен Хокинг, физик-теоретик и автор книг, а также его коллеги-ученые Стюарт Рассел, Макс Тегмарк и Фрэнк Вильчек, написали в своей статье в газете The Independent, посвященной последствиям внедрения искусственного интеллекта: «Если краткосрочное воздействие искусственного интеллекта зависит от того, кто его контролирует, то долгосрочное – от того, будет ли вообще возможен такой контроль… Все мы должны задать себе вопрос о том, что мы можем сделать сейчас, чтобы повысить шансы на извлечение выгоды и при этом избежать рисков»[61] 61
Стивен Хокинг, Стюарт Расселл, Макс Тегмарк, Френк Вилчек, «Стивен Хокинг: «Превосходство» рассматривает последствия искусственного интеллекта – но достаточно ли серьезно мы воспринимаем искусственный интеллект?», The Independent, 2 мая 2014 г. http://www.independent.co.uk/news/science/stephen-hawking– transcendence-looks-at-the-implications-of-artifcial-intelligence-but-are-we – taking-9313474.html

Одним из интересных проектов в этой области является OpenAI – некоммерческая компания по исследованиям искусственного интеллекта, которая была создана, как об этом объявили, в декабре 2015 года, с целью «развития цифрового интеллекта в тех направлениях, которые с наибольшей вероятностью будут служить во благо человечеству в целом, без ограничений, которые накладывала бы необходимость генерировать прибыль»[62] 62
Грег Брокман, Илья Суцкевер и группа OpenAI, «Представляем OpenAI», 11 декабря 2015 г. https://openai.com/blog/introducing-openai/

Специалисты и ученые отлично осознают и активно обсуждают воздействие на человека определенных технологий, таких как Интернет или смартфоны. Другие последствия рассмотреть и понять гораздо сложнее. Так обстоит дело с искусственным интеллектом или с биологическим синтезом. В ближайшем будущем могут появиться младенцы, созданные по замыслу разработчиков, а также может быть внесен целый ряд других поправок в характеристики человека – от искоренения генетических заболеваний до усиления познавательных способностей. В результате этого перед нами встанут некоторые из самых масштабных нравственных и духовных вопросов, с которыми мы, люди, должны разобраться (см. врезку H).

Врезка H. На грани этически допустимого

Технологические достижения подвели нас к новым этическим границам. Должны ли мы использовать ошеломляющие достижения в области биологии только для лечения болезней и устранения последствий травм, или нам стоит также заняться усовершенствованием человека?

Если мы примем второй вариант, то рискуем превратить родительство в еще одно проявление общества потребления, и в этом случае наши дети могут превратиться в товар, сделанный на заказ по нашим пожеланиям. А что значит «быть лучше»? Быть свободным от болезней? Жить дольше? Быть умнее? Бегать быстрее? Иметь определенную внешность?

Такие же сложные, подводящие нас к границам допустимого вопросы встают перед нами в отношении искусственного интеллекта. Задумайтесь о возможности того, что машины будут думать быстрее нас или даже успешнее нас. У Amazon и Netfix уже есть алгоритмы, позволяющие предсказывать, какие фильмы и книги мы можем захотеть посмотреть и почитать. Сайты знакомств и сайты для поиска работы предлагают нам возможных партнеров или рабочие места в нашем районе или в любых регионах мира, которые с точки зрения этих систем будут наиболее для нас подходящими. Что же делаем мы? Станем ли мы доверять рекомендациям, которые даст нам некий алгоритм, или советам членов нашей семьи, друзей или коллег? Будем ли мы обращаться за помощью к доктору-роботу, снабженному искусственным интеллектом, чьи диагнозы отличает идеальная или почти идеальная точность, или продолжим приходить к врачу-человеку, умеющему своим поведением успокоить пациента, врачу, который знает нас уже много лет?

Когда мы рассматриваем эти примеры и их последствия для человека, то вступаем на неизведанную территорию, наблюдаем зарю преобразования человека, которое не похоже ни на что из того, что человечество переживало прежде.

Другой важнейшей проблемой является потенциал предсказания будущего, которым обладает искусственный интеллект и устройства, снабженные функциями самообучения. Если наше собственное поведение в любой ситуации становится предсказуемым, то сколько личной свободы у нас останется, и не будем ли мы чувствовать, что должны действовать так, чтобы прогноз не оправдался? Может ли такой процесс развития привести к ситуации, когда сами люди начнут действовать, как роботы? Это также подводит нас к более философскому вопросу: как нам сохранить свою индивидуальность, на основе которой становятся возможными демократия и разнообразие людей, в цифровую эпоху?

Как становится ясно из рассмотрения этических проблем, описанных выше, чем больше мир базируется на цифровых и передовых технологиях, тем больше растет потребность ощущать участие человека, поддержку, которую дают нам близкие отношения и социальные связи. Все чаще высказываются опасения, что по мере того, как четвертая промышленная революция будет углублять наши личные и коллективные отношения с технологией, будут ухудшаться наши социальные навыки и способность к эмпатии. Мы видим, что это уже происходит. Проведенное в 2010 году научной группой в Университете штата Мичиган исследование показало снижение показателя эмпатии среди сегодняшних студентов колледжей на 40 % (по сравнению со студентами, учившимися два или три десятка лет назад), причем значительная часть этого спада пришлась на период после 2000 года[64] 64
Сара Конрат, Эдвард О’Брайан и Кортни Хсинг, «Изменения в диспозициональной эмпатии у студентов американских колледжей во времени: мета-анализ». Personality and Social Psychology Review (2010).

По данным Шерри Теркл из Массачусетского технологического института, 44 % подростков никогда не отключаются от Интернета, даже во время занятий спортом или за едой с семьей или друзьями. Беседу лицом к лицу вытесняет общение в режиме онлайн, и есть опасения, что целое поколение молодых людей, увлеченных социальными медиа, будет с большим трудом слушать собеседника, поддерживать с ним контакт глазами или понимать язык жестов и поз[65] 65
Цитата по: Саймон Купер, «Отключайте, выключайте, присоединяйтесь», FT Magazine, 2 октября 2015 г. http://www.ft.com/intl/cms/s/0/fc76fce2–67b3–11e5–97d0–1456a776a4f5.html

Примером этого могут служить наши отношения с мобильными технологиями. Тот факт, что мы всегда подключены к сети, лишает нас, возможно, одной из наших самых важных ценностей: времени, которое мы могли бы посвятить тому, чтобы остановиться, задуматься и душевно поговорить без применения технологий и социальных медиа. Теркл ссылается на исследования, показывающие, что во время беседы двух человек само присутствие телефона на столе между ними или в поле их периферийного зрения меняет и то, что они говорят, и степень их включенности в разговор[66] 66
Шерри Теркл, «Возвращение к беседе: сила общения в цифровую эпоху», изд-во Penguin, 2015.

Другие специалисты выражают обеспокоенность в отношении сходных проблем. Николас Кар, автор работ, посвященных технологии и культуре, утверждает, что, чем больше времени мы проводим, погрузившись в воды цифрового пространства, тем больше снижаются наши познавательные способности по причине того, что мы прекращаем контролировать наше внимание: «Интернет по самому своему устройству является системой, где происходит вмешательство; машиной, ориентированной на то, чтобы отвлекать внимание. Когда нас часто отвлекают, наши мысли рассеиваются, наша память ослабевает, и мы испытываем напряжение и тревогу. Чем сложнее ход мысли, в который мы погружены, тем больший ущерб может быть причинен, если нас что-либо отвлечет»[67] 67
Николас Карр, «Мелководье: как Интернет меняет образ нашего мышления, чтения и памяти», изд-во Atlantic Books, 2010.

Еще в 1971 году Герберт Саймон, который получил Нобелевскую премию в области экономики в 1978 году, предупреждал: «Богатство информации приведет к убогости внимания». Сегодня ситуация стала намного хуже, особенно для лиц, принимающих решения. Они, как правило, перегружены слишком большим объемом «материала», из-за чего не могут сосредоточиться и работают «на повышенной передаче», в состоянии постоянного стресса. «В эпоху ускорения ничто не может вызывать большей радости, чем медленное движение, – пишет Пико Айер, эссеист и автор путевых заметок. – Во времена, когда кругом столько всего отвлекает наше внимание, ничто не сравнится с роскошью сосредоточиться на чем-то одном. В эпоху безостановочного движения ничто не требуется нам так остро, как остановиться и спокойно посидеть на одном месте»[68] 68
Пико Айер, «Искусство неподвижности: приключения на ровном месте», изд-во Simon and Schuster, 2014.

Существует риск, что наш мозг, уделяющий внимание всем цифровым приборам, которые обеспечивают нам круглосуточное подключение к сетям, превратится в вечный двигатель, постоянно пребывающий в состоянии лихорадочного возбуждения. Мне часто случается общаться с руководителями, которые рассказывают мне, что у них больше не находится времени на то, чтобы сделать паузу и задуматься, не говоря уже о такой «роскоши», как прочесть от начала до конца даже короткую статью. Во всех странах мира создается впечатление, что лица, принимающие решения, все более измотаны. Они настолько перегружены многочисленными конкурирующими друг с другом требованиями, что их сначала охватывает фрустрация, потом у них опускаются руки, а иногда они испытывают отчаяние. В нашу новую цифровую эпоху действительно сложно сделать шаг назад, хотя это и не совсем невозможно.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *