Исследование показало, что системы ИИ не имеют подготовки в области сочувствия и этики, предлагая новый метод приведения ИИ в соответствие с общественными ценностями.
Исследователи из Purdue University обнаружили, что системы ИИ обучаются главным образом информационным и коммунальным ценностям, часто игнорируя общественные ценности, благосостояние и гражданские ценности. В ходе исследования были изучены три набора данных, используемых крупными компаниями ИИ, и было выявлено отсутствие подготовки по вопросам сочувствия, справедливости и прав человека. Команда представила метод под названием "учебное подкрепление" из человеческой обратной связи, чтобы помочь системам ИИ соответствовать общественным ценностям, используя курируемые наборы данных для обеспечения этического поведения и лучшего обслуживания ценностей сообщества.
Дополнительное чтение
Последняя бесплатная статья в этом месяце. Подпишитесь сейчас для неограниченного доступа!