Forbes Council Андрей Тян
17090
0

Искусственный интеллект в строительстве: как избежать «восстания машин»

Искусственный интеллект в строительстве: как избежать «восстания машин»
Искусственный интеллект меняет мир, в том числе строительство. Но чем больше используются нейросети и чем «умнее» они становятся, тем острее встает вопрос безопасности используемых ими данных. Андрей Тян, генеральный директор «Аметист Кэпитал», рассказывает, как найти баланс.

ИИ применяется в строительной отрасли все чаще: разгружает сотрудников от рутинных механических задач, обрабатывает большие объемы информации и формирует аналитику. Кроме того, ИИ повышает безопасность на стройке: «умные» камеры контролируют работу строителей и оборудования, а датчики при необходимости быстро отключают технику. Все это ускоряет процессы, делает строительство более эффективным и экономичным. Но контроль безопасности данных, с которыми взаимодействуют и которые генерируют нейросети, — один из самых больных вопросов для бизнеса во всем мире.

 

Какие проблемы ИИ особенно актуальны


Кибератаки: нейросети работают с закрытыми документами и персональной информацией пользователей, и эти данные могут представлять интерес для хакеров. Получив несанкционированный доступ к такой информации, «цифровые преступники» используют ее в любых противозаконных целях.

Использование big data злоумышленниками: даже если данные хорошо защищены от хакеров, это не исключает их неправомерного использования самими разработчиками. Кроме того, конфиденциальная информация может попасть в руки третьих лиц, которые далее будут продавать их в даркнете лицам четвертым.

Отсутствие нормативной базы: законодательство и национальные стандарты для искусственного интеллекта еще очень несовершенны, они только разрабатываются. Из-за этого возникает путаница с правами, качеством данных и их эксплуатацией.

«Отравление» данных возникает, когда в модель машинного обучения попадает ложная информация, и в результате нейросеть начинает генерировать неправильные и даже опасные решения.

Человеческий фактор: ИИ по-прежнему работает в одной команде с человеком, и это правильный подход. Но он может приводить к ошибкам, если за дело берутся некомпетентные или недобросовестные сотрудники.

 

Методы более безопасной работы нейросетей


Шифрование: данные, полученные с помощью ИИ, важно качественно шифровать, чтобы защитить их от несанкционированного доступа.

Предотвращение потери данных (DLP) — специальное программное обеспечение, которое защищает данные от утечки. DLP классифицирует информацию, мониторит и контролирует действия пользователя, применяя соответствующие политики защиты, — например, блокировку сотрудника от изменения данных искусственного интеллекта. Если данные передаются без разрешения, DLP-система тоже мгновенно блокирует эту операцию и посылает оповещение в службу информационной безопасности. DLP особенно полезна для «облачных» систем, куда имеют доступ много пользователей.

Токенизация заменяет конфиденциальную информацию токенами, которые не могут использовать неавторизованные лица. Метод защищает персональные данные и не дает злоумышленникам проникнуть в «сердце» информации, полученной нейросетью.

Маскировка данных — метод похож на токенизацию. Важную информацию система заменяет ложными или произвольными данными, которые не имеют смысла и ценности для потенциальных хакеров. Однако данные сохраняют ценную для ИИ логику и статистические характеристики.

Регулярная оценка рисков безопасности конкретно вашей организации поможет вам точно и эффективно реагировать на угрозы и внедрять соответствующие технологии.

Согласие пользователей и прозрачность: создавайте доверие среди пользователей, предоставляя четкую, доступную информацию о своей политике в отношении их персональных данных. Сообщите им, как вы планируете использовать и защищать эти данные, и предложите выбор отказаться там, где это уместно.

Минимизация данных — практика, в рамках которой нейросети предоставляется только информация, необходимая для конкретной задачи. Такой подход помогает уменьшить число данных, которые нужно защищать и контролировать.

Экспертный контроль человека по-прежнему необходим для ИИ и решений на его основе. Например, можно создать этический комитет, который будет следить за тем, чтобы ИИ принимал беспристрастные и корректные решения.

Самый оптимальный вариант — комплексная технология, которая сочетала бы различные инструменты для защиты данных и безопасного использования ИИ. Хорошая новость в том, что такие решения уже разрабатываются и скоро появятся на рынке.

 
Этот материал опубликован на платформе бизнес-сообщества Forbes Экспертиза