От права на алгоритм — к праву на качественный алгоритм
В Московской области запущены новые цифровые сервисы в сфере здравоохранения: врачи получили доступ к ИИ-ассистенту AIDA, а пациенты — возможность расшифровывать результаты анализов через приложение «Добродел Здоровье». Проект реализован при участии Сбер, технологической основой выступает GigaChat. Система способна интерпретировать данные исследований, объяснять их понятным языком и в отдельных случаях рекомендовать обращение за медицинской помощью.
Сам по себе этот шаг выглядит логичным. Цифровая медицина давно развивается в сторону автоматизации и поддержки врача, а пациенты всё чаще ожидают быстрых и понятных объяснений своих медицинских показателей. Новые сервисы отвечают на этот запрос: они сокращают дистанцию между результатом анализа и его пониманием, снимают часть нагрузки с врача и делают систему более доступной.
Но именно в таких точках — где технология выходит на уровень интерпретации и рекомендаций — меняется сам характер её применения. Если раньше ИИ работал как вспомогательный инструмент, то теперь он начинает участвовать в процессе принятия решений, пусть и косвенно. И это уже требует другой логики оценки.
Современные языковые модели, включая решения вроде GigaChat или голосовых ассистентов, по своей природе остаются вероятностными системами. Они способны давать точные и полезные ответы, но их работа не гарантирует полной стабильности. Результат может зависеть от формулировки запроса, модель может допускать ошибки без явных признаков и не всегда может прозрачно объяснить, как именно был получен вывод. В повседневных сценариях это не критично. В медицине — становится принципиальным.
Здесь возникает тот самый сдвиг, который мы уже обсуждали в материале о «праве на алгоритм». Тогда речь шла о доступе: о том, что человек не должен быть ограничен в использовании эффективных цифровых инструментов. Но по мере того как алгоритмы начинают работать с чувствительными сферами — медициной, правом, образованием — сам критерий доступа перестаёт быть достаточным.
Вопрос меняется. Речь идёт уже не о том, можно ли пользоваться алгоритмом, а о том, каким алгоритмом можно пользоваться.
Мировая практика постепенно фиксирует этот переход. В Европейский союз через AI Act системы, работающие с медицинскими данными, относятся к категории высокого риска. Это означает необходимость строгих требований к прозрачности, качеству и ответственности. В США аналогичные вопросы рассматриваются через регуляторов и судебные процессы. UNESCO в своих рекомендациях также подчёркивает необходимость контроля и объяснимости ИИ в чувствительных областях.
Общий принцип, который складывается в разных юрисдикциях, достаточно простой: чем выше цена ошибки, тем выше должен быть стандарт технологии.
Именно здесь возникает напряжение, которое пока не проговаривается напрямую. Внедрение ИИ происходит быстрее, чем формируется система его оценки. Технологические решения масштабируются, потому что это возможно — инфраструктурно и экономически. Но критерии их допустимости остаются размытыми.
В результате появляется ситуация, в которой сервис уже встроен в повседневную практику, а вопрос о его качестве и границах ответственности остаётся открытым.
Если смотреть на происходящее не через призму отдельной новости, а как на более широкий процесс, становится видно, что мы находимся в точке смены самого смысла цифровых прав.
Ещё недавно ключевой задачей было расширение доступа. Дать человеку возможность пользоваться инструментами, которые раньше были ограничены — по цене, по инфраструктуре или по профессиональному барьеру. Это была логика демократизации технологий, и она до сих пор остаётся важной.
Но как только технология начинает работать не с текстами или изображениями, а с решениями, которые затрагивают здоровье, безопасность или правовой статус человека, доступ перестаёт быть достаточным условием. Он становится только первым уровнем.
Дальше неизбежно возникает вопрос качества. И не в бытовом смысле «удобно или неудобно», а в гораздо более строгом — насколько система соответствует той области, в которую она встроена.
Проблема в том, что технология развивается по своей логике — через ускорение, масштабирование и расширение применения. А области, в которые она приходит, живут по другой логике — через ответственность, проверяемость и последствия. И эти две скорости сегодня не совпадают.
Поэтому возникает парадоксальная ситуация. Мы уже можем внедрить ИИ почти в любую сферу, но ещё не до конца понимаем, какие требования к нему должны предъявляться в каждой из них. В результате решение начинает использоваться раньше, чем становится ясно, как его оценивать.
Именно здесь и появляется новый уровень права. Не запретительный, не ограничительный, а структурный. Право не на отказ от технологии, а на её соответствие.
В этом смысле право на алгоритм — это уже пройденный этап. Он был про доступ.
Следующий этап — это право на качественный алгоритм.
И это право не формулируется в виде лозунга. Оно возникает как необходимость. Потому что в противном случае ответственность остаётся у человека, а влияние — у системы, которая не обязана объяснять, как она работает.
И, возможно, именно здесь проходит граница зрелости. Не между странами или технологиями, а между подходами. Между ситуацией, когда технология внедряется потому, что это возможно, и ситуацией, когда она внедряется потому, что она соответствует уровню задачи.
В медицине это различие становится особенно очевидным. Потому что здесь ошибка перестаёт быть статистикой и становится событием.
И в этот момент вопрос уже не в том, есть ли у нас ИИ.