Искусственный интеллект в строительстве: как избежать «восстания машин»
Искусственный интеллект меняет мир, в том числе строительство. Но чем больше используются нейросети и чем «умнее» они становятся, тем острее встает вопрос безопасности используемых ими данных. Андрей Тян, генеральный директор «Аметист Кэпитал», рассказывает, как найти баланс.
ИИ применяется в строительной отрасли все чаще: разгружает сотрудников от рутинных механических задач, обрабатывает большие объемы информации и формирует аналитику. Кроме того, ИИ повышает безопасность на стройке: «умные» камеры контролируют работу строителей и оборудования, а датчики при необходимости быстро отключают технику. Все это ускоряет процессы, делает строительство более эффективным и экономичным. Но контроль безопасности данных, с которыми взаимодействуют и которые генерируют нейросети, — один из самых больных вопросов для бизнеса во всем мире.
Кибератаки: нейросети работают с закрытыми документами и персональной информацией пользователей, и эти данные могут представлять интерес для хакеров. Получив несанкционированный доступ к такой информации, «цифровые преступники» используют ее в любых противозаконных целях.
Использование big data злоумышленниками: даже если данные хорошо защищены от хакеров, это не исключает их неправомерного использования самими разработчиками. Кроме того, конфиденциальная информация может попасть в руки третьих лиц, которые далее будут продавать их в даркнете лицам четвертым.
Отсутствие нормативной базы: законодательство и национальные стандарты для искусственного интеллекта еще очень несовершенны, они только разрабатываются. Из-за этого возникает путаница с правами, качеством данных и их эксплуатацией.
«Отравление» данных возникает, когда в модель машинного обучения попадает ложная информация, и в результате нейросеть начинает генерировать неправильные и даже опасные решения.
Человеческий фактор: ИИ по-прежнему работает в одной команде с человеком, и это правильный подход. Но он может приводить к ошибкам, если за дело берутся некомпетентные или недобросовестные сотрудники.
Шифрование: данные, полученные с помощью ИИ, важно качественно шифровать, чтобы защитить их от несанкционированного доступа.
Предотвращение потери данных (DLP) — специальное программное обеспечение, которое защищает данные от утечки. DLP классифицирует информацию, мониторит и контролирует действия пользователя, применяя соответствующие политики защиты, — например, блокировку сотрудника от изменения данных искусственного интеллекта. Если данные передаются без разрешения, DLP-система тоже мгновенно блокирует эту операцию и посылает оповещение в службу информационной безопасности. DLP особенно полезна для «облачных» систем, куда имеют доступ много пользователей.
Токенизация заменяет конфиденциальную информацию токенами, которые не могут использовать неавторизованные лица. Метод защищает персональные данные и не дает злоумышленникам проникнуть в «сердце» информации, полученной нейросетью.
Маскировка данных — метод похож на токенизацию. Важную информацию система заменяет ложными или произвольными данными, которые не имеют смысла и ценности для потенциальных хакеров. Однако данные сохраняют ценную для ИИ логику и статистические характеристики.
Регулярная оценка рисков безопасности конкретно вашей организации поможет вам точно и эффективно реагировать на угрозы и внедрять соответствующие технологии.
Согласие пользователей и прозрачность: создавайте доверие среди пользователей, предоставляя четкую, доступную информацию о своей политике в отношении их персональных данных. Сообщите им, как вы планируете использовать и защищать эти данные, и предложите выбор отказаться там, где это уместно.
Минимизация данных — практика, в рамках которой нейросети предоставляется только информация, необходимая для конкретной задачи. Такой подход помогает уменьшить число данных, которые нужно защищать и контролировать.
Экспертный контроль человека по-прежнему необходим для ИИ и решений на его основе. Например, можно создать этический комитет, который будет следить за тем, чтобы ИИ принимал беспристрастные и корректные решения.
Самый оптимальный вариант — комплексная технология, которая сочетала бы различные инструменты для защиты данных и безопасного использования ИИ. Хорошая новость в том, что такие решения уже разрабатываются и скоро появятся на рынке.
Этот материал опубликован на платформе бизнес-сообщества Forbes Экспертиза
ИИ применяется в строительной отрасли все чаще: разгружает сотрудников от рутинных механических задач, обрабатывает большие объемы информации и формирует аналитику. Кроме того, ИИ повышает безопасность на стройке: «умные» камеры контролируют работу строителей и оборудования, а датчики при необходимости быстро отключают технику. Все это ускоряет процессы, делает строительство более эффективным и экономичным. Но контроль безопасности данных, с которыми взаимодействуют и которые генерируют нейросети, — один из самых больных вопросов для бизнеса во всем мире.
Какие проблемы ИИ особенно актуальны
Кибератаки: нейросети работают с закрытыми документами и персональной информацией пользователей, и эти данные могут представлять интерес для хакеров. Получив несанкционированный доступ к такой информации, «цифровые преступники» используют ее в любых противозаконных целях.
Использование big data злоумышленниками: даже если данные хорошо защищены от хакеров, это не исключает их неправомерного использования самими разработчиками. Кроме того, конфиденциальная информация может попасть в руки третьих лиц, которые далее будут продавать их в даркнете лицам четвертым.
Отсутствие нормативной базы: законодательство и национальные стандарты для искусственного интеллекта еще очень несовершенны, они только разрабатываются. Из-за этого возникает путаница с правами, качеством данных и их эксплуатацией.
«Отравление» данных возникает, когда в модель машинного обучения попадает ложная информация, и в результате нейросеть начинает генерировать неправильные и даже опасные решения.
Человеческий фактор: ИИ по-прежнему работает в одной команде с человеком, и это правильный подход. Но он может приводить к ошибкам, если за дело берутся некомпетентные или недобросовестные сотрудники.
Методы более безопасной работы нейросетей
Шифрование: данные, полученные с помощью ИИ, важно качественно шифровать, чтобы защитить их от несанкционированного доступа.
Предотвращение потери данных (DLP) — специальное программное обеспечение, которое защищает данные от утечки. DLP классифицирует информацию, мониторит и контролирует действия пользователя, применяя соответствующие политики защиты, — например, блокировку сотрудника от изменения данных искусственного интеллекта. Если данные передаются без разрешения, DLP-система тоже мгновенно блокирует эту операцию и посылает оповещение в службу информационной безопасности. DLP особенно полезна для «облачных» систем, куда имеют доступ много пользователей.
Токенизация заменяет конфиденциальную информацию токенами, которые не могут использовать неавторизованные лица. Метод защищает персональные данные и не дает злоумышленникам проникнуть в «сердце» информации, полученной нейросетью.
Маскировка данных — метод похож на токенизацию. Важную информацию система заменяет ложными или произвольными данными, которые не имеют смысла и ценности для потенциальных хакеров. Однако данные сохраняют ценную для ИИ логику и статистические характеристики.
Регулярная оценка рисков безопасности конкретно вашей организации поможет вам точно и эффективно реагировать на угрозы и внедрять соответствующие технологии.
Согласие пользователей и прозрачность: создавайте доверие среди пользователей, предоставляя четкую, доступную информацию о своей политике в отношении их персональных данных. Сообщите им, как вы планируете использовать и защищать эти данные, и предложите выбор отказаться там, где это уместно.
Минимизация данных — практика, в рамках которой нейросети предоставляется только информация, необходимая для конкретной задачи. Такой подход помогает уменьшить число данных, которые нужно защищать и контролировать.
Экспертный контроль человека по-прежнему необходим для ИИ и решений на его основе. Например, можно создать этический комитет, который будет следить за тем, чтобы ИИ принимал беспристрастные и корректные решения.
Самый оптимальный вариант — комплексная технология, которая сочетала бы различные инструменты для защиты данных и безопасного использования ИИ. Хорошая новость в том, что такие решения уже разрабатываются и скоро появятся на рынке.