В Google DeepMind создали группу для обучения ИИ этике

Инженеры Google уже не первый год ведут разработку собственной системы искусственного интеллекта, которая носит название DeepMind. По данным некоторых сетевых источников, специалисты компании сформировали особую группу, деятельность которой будет направлена на изучение моральных вопросов развития ИИ.

Исследователи будут рассматривать вопросы того, как ИИ-системы способны изменить мир, сможет ли человек оставить искусственный разум под своим контролем и др. Специалисты, занимающиеся решением такого рода вопросов, в компании уже были, но теперь их количество расширено с 8 до 25 человек. Этим экспертам и предстоит дать ответы на вопросы, связанные с воздействием искусственного интеллекта на частную жизнь людей, объективностью ИИ-систем при принятии каких-либо решений, воздействием на мировую экономическую ситуацию и др.

Главной задачей группы специалистов будет разработка особых алгоритмов, на основе которых ИИ мог бы получить определенные этические понятия. Кроме того, такой алгоритм сможет стать основой для осуществления процесса передачи накопленного опыта ИИ-системам будущего, где найдут свое место понятия того, что хорошо, а что нет. Организация подобных исследований говорит о том, что крупные мировые компании очень серьезно относятся к вопросам, касающимся искусственного интеллекта. Однако, человеку будет не просто принять, что в будущем от решений, которые принимаются искусственными системами, будут зависеть многие аспекты жизни.