Искусственный интеллект, общественная безопасность и юриспруденция: есть ли точки соприкосновения

Всеобщая цифровизация стремительно набирает обороты. Она помогает экономить колоссальные суммы, оптимизировать расходы ресурсов при выполнении рутинных задач. В том числе облегчает работу многим юристам, сотрудникам корпораций, представителям правоохранительных и контрольно-надзорных органов. Но технологии в принципе не бывают нейтральными — они усиливают те функции, что заложены в них людьми. Соответственно, результаты и последствия их использования зависят от людей. У новомодного искусственного интеллекта есть оборотная сторона. И даже не одна.
Инструмент противоположного применения
В юридической и правоохранительной сфере ИИ уже находят активное применение. Искусственный интеллект при сопряжении с камерами видеонаблюдения, расположенными в местах массового скопления людей, подъездными камерами, автомобильными камерами и прочим может стать незаменимым помощником правоохранительных органов в разрешении возложенных на них задач по охране общественного порядка и безопасности. Он способен не только мгновенно распознавать лица преступников и лиц, находящихся в розыске, но и анализировать подозрительное поведение (например, агрессивные жесты, оставленные без присмотра предметы), тем самым предотвращать теракты или массовые инциденты.
Обучение алгоритмов искусственного интеллекта помогает устанавливать наличие либо отсутствие тех или иных обстоятельств, событий, происшествий, что может служить инструментом также для защиты граждан в случае их обвинения в совершении преступлений. Анализ собранных данных о месте, времени поможет подтвердить алиби, опровергнуть ложные обвинения, например в случаях уличных конфликтов. Однако такой подход требует усиления городской инфраструктуры HD-камерами.
Если говорить о бизнесе, то искусственный интеллект помогает исследовать риски в цепочках взаимоотношений по НДС и устанавливать потенциальных выгодоприобретателей по сомнительным сделкам. Но поскольку ИИ уже затрагивает практически все сферы жизнедеятельности, то он проявил себя и с деструктивной стороны как инструмент, используемый злоумышленниками.
Технологии искусственного интеллекта в деструктивном проявляются в подмене голоса и изображения, различить которую непрофессиональным взглядом бывает практически невозможно. Это уловка злоумышленников при таких преступлениях, как мошенничество, вымогательство (шантаж). ИИ также могут использовать для дезинформации граждан о тех или иных фактах, событиях, имеющих значение при принятии в том числе стратегических решений в различных экономических и политических сферах деятельности.
Указанные проблемы требуют объединения усилий специализированных и неспециализированных субъектов в борьбе с преступностью. Со стороны гражданских организаций — это добросовестное исполнение своих обязанностей, работа с уязвимыми слоями населения. Со стороны правоохранителей — наращивание сил и средств в борьбе с киберпреступлениями, совершаемыми с использованием технологий ИИ.
Качество услуг и доступ к правосудию
Оборотная сторона ежедневного наращивания мощностей искусственного интеллекта — вероятное вытеснение людей из профессий, связанных с юриспруденцией (составление исков, жалоб, заявлений и др.), бухгалтерией (подготовка и подача налоговых деклараций) и иной деятельностью, так или иначе связанной с использованием вычислительных мощностей. Сильное упрощение рутинных задач само по себе снизит компетентность и экспертность тех лиц, которые вместо нарабатывания опыта прибегнут к автоматизированным процессам.
Однако внедрение технологий ИИ в систему оказания бесплатной юридической помощи может стать прорывом в обеспечении правовой поддержки для миллионов граждан России, разрешая ключевые проблемы правовой системы: территориальную неравномерность распределения юристов, длительные сроки обработки запросов и низкую осведомленность населения о своих правах. Одним из перспективных направлений является интеграция ИИ-сервисов в государственные платформы, такие как «Госуслуги» или региональные порталы МФЦ. Например, чат-боты на базе NLP (обработки естественного языка) могут анализировать запросы пользователей, формулируемые простым языком («Как восстановить трудовые права?», «Куда пожаловаться на управляющую компанию?»), и мгновенно генерировать пошаговые инструкции, шаблоны исковых заявлений или жалоб. Подобные технологии уже доказали эффективность за рубежом: британский сервис DoNotPay помог оспорить более 1,6 млн штрафов.
При этом для граждан, сталкивающихся с бюрократическими сложностями, ИИ может стать «цифровым помощником», проверяющим документы на соответствие нормам ГПК РФ. Алгоритмы способны выявлять ошибки в исках, например отсутствие обязательных реквизитов или нарушение подсудности, и автоматически корректировать их. Кроме того, предиктивные системы, анализирующие судебную практику (аналоги канадской платформы ROSS Intelligence), позволят гражданам оценить шансы на успех дела до подачи иска, опираясь на статистику решений российских судов за последние годы. Это особенно важно для малоимущих и социально уязвимых групп, которые не могут позволить себе платного юриста.
Работа на перспективу
На мой взгляд, критически важна синхронизация ИИ-платформ с существующей инфраструктурой. Например, интеграция с ГАС «Правосудие» позволит автоматически подавать подготовленные документы в электронные системы судов, а уведомления о датах заседаний — рассылаться через SMS или e-mail. Для защиты персональных данных такие системы должны размещаться на защищенных серверах («Гособлако») с использованием ЕСИА для аутентификации пользователей.
Однако внедрение ИИ требует обновления правовой базы. Представляется необходимым закрепить статус ИИ-сервисов в действующем Федеральном законе № 324 «О бесплатной юридической помощи», предусмотреть ответственность за ошибки алгоритмов и запретить коммерческое использование персональных данных. Для предотвращения «дегуманизации» права ключевым принципом должен оставаться человеческий контроль: даже самые совершенные алгоритмы обязаны проверяться юристами.
Грамотное внедрение ИИ в систему правовой поддержки способно увеличить охват граждан бесплатной помощью в 3–5 раз, сократить время обработки запросов до 24 часов и снизить нагрузку на юристов на 40%. Главное — сохранить баланс между инновациями и гарантией прав человека, чтобы ИИ стал не заменой, а надежным инструментом в руках общества.
Учитывая вышеизложенное, становится понятно, что искусственный интеллект в сфере общественной безопасности и юриспруденции — это сложный баланс между прогрессом и рисками. Его нельзя однозначно оценить как за или против, но можно проанализировать ключевые возможности и угрозы, а также условия, при которых он станет инструментом защиты и помощи населению, а не угрозы.
Технологии усилят любое общество, если будут работать для людей, а не вместо них или против них. Как писал профессор права Лоуренс Лессиг: «Код — это закон». От того, какой код мы создадим, зависит, станет ли ИИ защитником справедливости или орудием злоумышленников. И, конечно же, несмотря на все его мощности и возможности, финальное решение должно оставаться за человеком.
Этот материал опубликован на платформе бизнес-сообщества Forbes Экспертиза
Инструмент противоположного применения
В юридической и правоохранительной сфере ИИ уже находят активное применение. Искусственный интеллект при сопряжении с камерами видеонаблюдения, расположенными в местах массового скопления людей, подъездными камерами, автомобильными камерами и прочим может стать незаменимым помощником правоохранительных органов в разрешении возложенных на них задач по охране общественного порядка и безопасности. Он способен не только мгновенно распознавать лица преступников и лиц, находящихся в розыске, но и анализировать подозрительное поведение (например, агрессивные жесты, оставленные без присмотра предметы), тем самым предотвращать теракты или массовые инциденты.
Обучение алгоритмов искусственного интеллекта помогает устанавливать наличие либо отсутствие тех или иных обстоятельств, событий, происшествий, что может служить инструментом также для защиты граждан в случае их обвинения в совершении преступлений. Анализ собранных данных о месте, времени поможет подтвердить алиби, опровергнуть ложные обвинения, например в случаях уличных конфликтов. Однако такой подход требует усиления городской инфраструктуры HD-камерами.
Если говорить о бизнесе, то искусственный интеллект помогает исследовать риски в цепочках взаимоотношений по НДС и устанавливать потенциальных выгодоприобретателей по сомнительным сделкам. Но поскольку ИИ уже затрагивает практически все сферы жизнедеятельности, то он проявил себя и с деструктивной стороны как инструмент, используемый злоумышленниками.
Технологии искусственного интеллекта в деструктивном проявляются в подмене голоса и изображения, различить которую непрофессиональным взглядом бывает практически невозможно. Это уловка злоумышленников при таких преступлениях, как мошенничество, вымогательство (шантаж). ИИ также могут использовать для дезинформации граждан о тех или иных фактах, событиях, имеющих значение при принятии в том числе стратегических решений в различных экономических и политических сферах деятельности.
Указанные проблемы требуют объединения усилий специализированных и неспециализированных субъектов в борьбе с преступностью. Со стороны гражданских организаций — это добросовестное исполнение своих обязанностей, работа с уязвимыми слоями населения. Со стороны правоохранителей — наращивание сил и средств в борьбе с киберпреступлениями, совершаемыми с использованием технологий ИИ.
Качество услуг и доступ к правосудию
Оборотная сторона ежедневного наращивания мощностей искусственного интеллекта — вероятное вытеснение людей из профессий, связанных с юриспруденцией (составление исков, жалоб, заявлений и др.), бухгалтерией (подготовка и подача налоговых деклараций) и иной деятельностью, так или иначе связанной с использованием вычислительных мощностей. Сильное упрощение рутинных задач само по себе снизит компетентность и экспертность тех лиц, которые вместо нарабатывания опыта прибегнут к автоматизированным процессам.
Однако внедрение технологий ИИ в систему оказания бесплатной юридической помощи может стать прорывом в обеспечении правовой поддержки для миллионов граждан России, разрешая ключевые проблемы правовой системы: территориальную неравномерность распределения юристов, длительные сроки обработки запросов и низкую осведомленность населения о своих правах. Одним из перспективных направлений является интеграция ИИ-сервисов в государственные платформы, такие как «Госуслуги» или региональные порталы МФЦ. Например, чат-боты на базе NLP (обработки естественного языка) могут анализировать запросы пользователей, формулируемые простым языком («Как восстановить трудовые права?», «Куда пожаловаться на управляющую компанию?»), и мгновенно генерировать пошаговые инструкции, шаблоны исковых заявлений или жалоб. Подобные технологии уже доказали эффективность за рубежом: британский сервис DoNotPay помог оспорить более 1,6 млн штрафов.
При этом для граждан, сталкивающихся с бюрократическими сложностями, ИИ может стать «цифровым помощником», проверяющим документы на соответствие нормам ГПК РФ. Алгоритмы способны выявлять ошибки в исках, например отсутствие обязательных реквизитов или нарушение подсудности, и автоматически корректировать их. Кроме того, предиктивные системы, анализирующие судебную практику (аналоги канадской платформы ROSS Intelligence), позволят гражданам оценить шансы на успех дела до подачи иска, опираясь на статистику решений российских судов за последние годы. Это особенно важно для малоимущих и социально уязвимых групп, которые не могут позволить себе платного юриста.
Работа на перспективу
На мой взгляд, критически важна синхронизация ИИ-платформ с существующей инфраструктурой. Например, интеграция с ГАС «Правосудие» позволит автоматически подавать подготовленные документы в электронные системы судов, а уведомления о датах заседаний — рассылаться через SMS или e-mail. Для защиты персональных данных такие системы должны размещаться на защищенных серверах («Гособлако») с использованием ЕСИА для аутентификации пользователей.
Однако внедрение ИИ требует обновления правовой базы. Представляется необходимым закрепить статус ИИ-сервисов в действующем Федеральном законе № 324 «О бесплатной юридической помощи», предусмотреть ответственность за ошибки алгоритмов и запретить коммерческое использование персональных данных. Для предотвращения «дегуманизации» права ключевым принципом должен оставаться человеческий контроль: даже самые совершенные алгоритмы обязаны проверяться юристами.
Грамотное внедрение ИИ в систему правовой поддержки способно увеличить охват граждан бесплатной помощью в 3–5 раз, сократить время обработки запросов до 24 часов и снизить нагрузку на юристов на 40%. Главное — сохранить баланс между инновациями и гарантией прав человека, чтобы ИИ стал не заменой, а надежным инструментом в руках общества.
Учитывая вышеизложенное, становится понятно, что искусственный интеллект в сфере общественной безопасности и юриспруденции — это сложный баланс между прогрессом и рисками. Его нельзя однозначно оценить как за или против, но можно проанализировать ключевые возможности и угрозы, а также условия, при которых он станет инструментом защиты и помощи населению, а не угрозы.
Технологии усилят любое общество, если будут работать для людей, а не вместо них или против них. Как писал профессор права Лоуренс Лессиг: «Код — это закон». От того, какой код мы создадим, зависит, станет ли ИИ защитником справедливости или орудием злоумышленников. И, конечно же, несмотря на все его мощности и возможности, финальное решение должно оставаться за человеком.