Генеративный ИИ — «действительно амбициозный стажер» этого директора по информационной безопасности

Генеративный ИИ — «действительно амбициозный стажер» этого директора по информационной безопасности



Генеративный ИИ — «действительно амбициозный стажер» этого директора по информационной безопасности

Примечание редактора: Это вторая часть двухчастного интервью об ИИ и кибербезопасности с Дэвидом Хини из Mass General Brigham. Чтобы прочитать первую часть, нажмите здесь.

В первой части этого глубокого интервью главный офицер информационной безопасности Mass General Brigham Дэвид Хини объяснил оборонительное и наступательное использование искусственного интеллекта в здравоохранении. Он сказал, что понимание среды, знание того, где развернуты ваши элементы управления, и превосходство в основах гораздо более важны, когда задействован ИИ.

Сегодня Хини излагает передовые методы, которые руководители служб информационной безопасности и ИТ-директора в здравоохранении могут применять для обеспечения безопасности использования ИИ, рассказывает о том, как его команда использует их, как он знакомит свою команду с вопросами обеспечения безопасности с помощью ИИ и против него, о человеческом факторе ИИ и кибербезопасности, а также о типах ИИ, которые он использует для борьбы с кибератаками.

В. Какие передовые практики могут использовать руководители служб информационной безопасности и ИТ-директора здравоохранения для обеспечения безопасности использования ИИ? И как вы и ваша команда используете их в Mass General Brigham?

А. Важно начать с формулировки вопроса, то есть с понимания того, что возможности ИИ приведут к поразительным изменениям в том, как мы заботимся о пациентах, как мы открываем новые подходы и многое другое в нашей отрасли.

На самом деле, это то, как мы поддерживаем это и как мы помогаем это обеспечить. Как я уже упоминал в первой части, очень важно убедиться, что мы правильно понимаем основы. Поэтому, если есть служба на основе ИИ, которая использует наши данные или работает в нашей среде, у нас есть те же требования для оценки рисков, для соглашений о деловом партнерстве, для любых других юридических соглашений, которые у нас были бы с не-ИИ-сервисами.

Потому что на каком-то уровне мы говорим о другом приложении, и его нужно контролировать так же, как и любые другие приложения в среде, включая ограничения на использование несанкционированных приложений. И все это не означает, что нет никаких специфических соображений, связанных с ИИ, которые мы хотели бы рассмотреть, и есть несколько, которые приходят на ум. Помимо стандартных юридических соглашений, которые я только что упомянул, безусловно, есть дополнительные соображения по использованию данных.

Например, хотите ли вы, чтобы данные вашей организации использовались для обучения моделей ИИ вашего поставщика в нисходящем направлении? Безопасность самой модели ИИ важна. Организациям необходимо рассмотреть варианты непрерывной проверки модели, чтобы гарантировать, что она предоставляет точные результаты во всех сценариях, и это может быть частью управления ИИ, о котором я упоминал в первой части.

Также есть состязательное тестирование моделей. Если мы вводим плохие входные данные, меняет ли это то, как получается выход? И затем одна из областей основ, которые я на самом деле видел немного меняющимися с точки зрения их важности в этой среде, касается простоты принятия многих из этих инструментов.

Вот пример: Посмотрите на сервисы для записи встреч, такие как Otter AI или Read AI, и есть много других. Но эти сервисы, они мотивированы сделать принятие простым и беспроблемным, и они проделали большую работу в этом направлении.

Хотя опасения по поводу использования этих сервисов, данных, к которым они могут получить доступ, и тому подобного не меняются, сочетание простоты внедрения нашими конечными пользователями и, честно говоря, простого фактора привлекательности этого и некоторых других приложений действительно делает важным сосредоточиться на том, как вы внедряете различные приложения, особенно приложения на основе ИИ.

В. Как вы повышаете свою команду в плане обеспечения безопасности с помощью и против ИИ? В чем здесь человеческий фактор?

А. Это огромно. И одна из моих главных ценностей для моей команды по безопасности — это любопытство. Я бы сказал, что это единственный навык, стоящий за всем, что мы делаем в кибербезопасности. Это то, что вы видите что-то немного забавное и говорите: «Интересно, почему это произошло?» И вы начинаете копать.

Это начало практически каждого улучшения, которое мы делаем в отрасли. Поэтому, в этом смысле, огромная часть ответа заключается в том, чтобы иметь любопытных членов команды, которые воодушевлены этим и хотят узнать об этом самостоятельно. И они просто выходят и играют с некоторыми из этих инструментов.

Я пытаюсь подать пример в этой области, рассказывая о том, как я использовал различные инструменты, чтобы облегчить себе работу. Но ничто не заменит это любопытство. В MGB, в нашей цифровой команде, мы стараемся посвящать один день в месяц обучению и предоставляем доступ к различным обучающим сервисам с соответствующим контентом в этой области. Но проблема в том, что технологии меняются быстрее, чем обучение успевает за ними.

Так что на самом деле ничто не заменит просто выйти и поиграть с технологиями. Но также, возможно, с небольшой долей иронии, одно из моих любимых Использование генеративного ИИ — для обучения. И одна из вещей, которые я делаю, — я использую подсказку, в которой говорится что-то вроде: «Создайте оглавление для книги под названием X, где X — это любая тема, которую я хочу изучить». И я также обычно немного уточняю, кто такой автор и какова цель книги.

Это создает отличный план того, как изучать эту тему. А затем вы можете либо спросить своего друга-ИИ: «Эй, можешь подробнее рассказать о первой главе? И что это значит?» Или потенциально перейти к другим источникам или другим форумам, чтобы найти там соответствующий контент.

В. Какие типы ИИ вы используете, не раскрывая, конечно, никаких секретов, для борьбы с кибератаками? Возможно, вы могли бы объяснить в общих чертах, как должны работать эти типы ИИ и почему они вам нравятся?

А. Наша общая цифровая стратегия в MGB действительно сосредоточена на использовании платформ от наших поставщиков технологий. Продолжая немного вопрос о поставщиках из первой части, мы фокусируемся на работе с этими компаниями для разработки наиболее ценных возможностей, многие из которых будут основаны на ИИ.

И просто чтобы дать представление о том, как это выглядит, по крайней мере в общих чертах, чтобы не выдать курицу, несущую золотые яйца, так сказать, наши инструменты защиты конечных точек используют различные алгоритмы ИИ для выявления потенциально вредоносного поведения. Затем они все отправляют журналы со всех этих конечных точек в центральную точку сбора, где есть комбинация как основанного на правилах, так и основанного на ИИ анализа, которая ищет более широкие тенденции.

То есть не только в одной системе, но и во всей среде. Есть ли тенденции, указывающие на, возможно, некоторый повышенный риск? У нас есть Identity Governance Suite, и это инструментарий, который используется для предоставления доступа, предоставления и удаления доступа в среде. И этот набор инструментов имеет различные встроенные возможности для выявления потенциального риска и просмотра комбинаций доступа, которые могут уже быть на месте, или даже для просмотра запросов на доступ по мере их поступления, чтобы не дать нам предоставить этот доступ в первую очередь.

Итак, это мир самих платформ и встроенных в них технологий. Но, помимо этого, возвращаясь к тому, как мы можем использовать генеративный ИИ в некоторых из этих областей, мы используем его для ускорения всех видов задач, которые раньше выполняли вручную.

Команда получила, я не могу назвать цифру, но я бы сказал, что это огромная экономия времени. использование генеративного ИИ для написания пользовательских сценариев для сортировки, для судебной экспертизы, для восстановления систем. Это не идеально. ИИ дает нам, я не знаю, 80% завершения, но наши аналитики затем завершают сценарий и делают это гораздо быстрее, чем если бы они запускали его или создавали его с самого начала.

Аналогично, мы используем некоторые из этих инструментов ИИ для создания запросов, которые идут в наши другие инструменты. Мы вводим наших младших аналитиков в курс дела гораздо быстрее, предоставляя им доступ к этим инструментам, чтобы помочь им более эффективно использовать различные другие технологии, которые у нас есть.

Наши старшие аналитики просто более эффективны. Они уже знают, как делать многое из этого, но всегда лучше начинать с 80%, чем с нуля.

В целом, я описываю его как своего очень ревностного стажера. Я могу попросить его сделать что угодно, и он вернет что-то между действительно хорошей отправной точкой и потенциально отличным и полным ответом. Но я бы определенно не пошел и не использовал этот ответ, не проверив его самостоятельно и не закончив его сначала.

НАЖМИТЕ ЗДЕСЬ, чтобы посмотреть видеозапись этого интервью, содержащую БОНУСНЫЙ КОНТЕНТ, которого нет в этой статье.

Примечание редактора: Это десятый и последний из серии статей о ведущих голосах в сфере ИТ в здравоохранении, обсуждающих использование искусственного интеллекта. Читайте другие выпуски:

Следите за новостями Билла о HIT на LinkedIn: Билл Сивицки
Напишите ему: bsiwicki@himss.org
Healthcare IT News — издание HIMSS Media.



Новости Blue 789

Leave a Reply

Your email address will not be published. Required fields are marked *