Парадокс доверия к искусственному интеллекту и его обоснование
DOI:
https://doi.org/10.21146/2413-9084-2023-28-1-34-47Ключевые слова:
искусственный интеллект, прокси-культура, доверие, алгоритмическая ответственность, непрозрачность алгоритмовАннотация
Статья посвящена анализу доверия к цифровым интеллектуальным системам, которые, активно участвуя в трансформации социальных практик и процессах принятия решений, становятся «новыми» посредниками нашего существования. Однако, поскольку технологии искусственного интеллекта (ИИ) могут столкнуться с неполадками, основная проблема связана с анализом парадокса доверия к ИИ, включающего в себя как позицию доверительного отношения к онлайновым системам, серверам и программному обеспечению, так и факты сбоев, демонстрируемых искусственным интеллектом. Целью статьи является изучение парадокса доверия к системе ИИ с учетом сопоставления аргументов «pro & contra». Это предполагает, во-первых, выявление сути и специфики прокси-культуры как культуры доверия. Во-вторых, рассмотрение непрозрачности ИИ, усиливающей потребность в алгоритмической ответственности. В качестве теоретической основы выступают работы отечественных и зарубежных исследователей. Методологическая стратегия опирается на компаративистский анализ и сопоставление социально-гуманитарного понимания доверия и специфики доверия к ИИ. В основе выводов лежит заключение, что существование парадокса сопровождается малопонятным компромиссом, суть которого в игнорировании всей полноты рисков в пользу удобства пользования быстрыми интеллектуальными системами. Алгоритмическая ответственность, направленная на сокращение ненадежности и угроз в использовании ИИ, вступает в противоречие с обязательностью, обеспеченной запрограммированным кодом. Приоритеты технологического развития состоят в выработке стандартов алгоритмической прозрачности, обеспечивающих раскрытие информации, относящейся к последствиям принятых алгоритмических решений.