Искусственному интеллекту предложили привить сомнения

Технологии искусственного интеллекта сейчас переживают бурное развитие, по мнению специалистов, к 2053 году такие системы смогут самостоятельно выполнять хирургические операции. В связи с этим возникает вопрос о безопасности, так как мнение оператора и мнение искусственного интеллекта о решении проблемы может расходиться.

Коллектив специалистов из компании OpenAI, Международного института компьютерных наук и Калифорнийского университета Беркли доказал, что эффективность искусственного интеллекта при решении различных задач возрастает, если предусмотреть в искусственном интеллекте способность сомневаться в выбранном решении. 

Основой построения такого искусственного интеллекта должен стать компромисс между машиной и человеком: вмешательство человека в выполнение алгоритма должно приниматься машиной во внимание, причем следующие действия искусственного интеллекта будут зависеть от реакции на них оператора.

Пример использования такого алгоритма можно рассмотреть на беспилотном авто: наиболее эффективным решением для машины будет игнорирование реакции пассажира, однако если в качестве пассажира выступает маленький ребенок, то такой алгоритм оказывается неприемлемым. Пока только сформулированы основные принципы такого искусственного интеллекта, но до построения готового решения еще далеко.