Реклама
Home Softnews Пострадало решение, принятое плохо обученным ИИ? «Вы должны иметь возможность предъявить...

Пострадало решение, принятое плохо обученным ИИ? «Вы должны иметь возможность предъявить иск о возмещении ущерба», — говорит проф. • The Register

Реклама


По мнению профессора права, компании, развертывающие системы машинного обучения, обученные на некачественных наборах данных, должны быть по закону обязаны возмещать ущерб жертвам, пострадавшим от технологии в соответствии с деликтным законом.

Реклама

В виртуальная лекция организованный Калифорнийским университетом в Ирвине, профессор Фрэнк Паскуале из Бруклинской школы права описал, как законы Америки должны быть расширены для привлечения к ответственности компаний, занимающихся машинным обучением. Разговор был основан на статье [PDF] опубликовано в Columbia Law Review.

«Данные могут иметь серьезные неблагоприятные последствия, и поэтому я думаю, что действительно должна существовать деликтная ответственность для многих видов использования, где были неточные или несоответствующие данные», — сказал профессор Паскуале. Но для того, чтобы жертвы могли начать дело против поставщиков, которые безрассудно обучали системы ИИ, должен быть какой-то способ получить и исследовать данные обучения.

врач

Хотите дать возможность врачу с искусственным интеллектом заботиться о пациентах? — Попробуйте наклеить на него наклейку, похожую на пищевую этикетку, — говорит дядя Сэм.

ПРОЧИТАЙТЕ БОЛЬШЕ

Например, по его словам, первые результаты исследований в области машинного обучения показывают, что эта технология является многообещающей в здравоохранении, и есть многочисленные исследования, утверждающие, что машины так же хороши, если не лучше, чем профессионалы в диагностике или прогнозировании возникновения целого ряда заболеваний. болезней.

Тем не менее, по мнению профессора Паскуале, данные, используемые для обучения таких систем, часто ошибочны. Наборы данных могут быть, например, несбалансированными, когда выборки недостаточно разнообразны, чтобы представлять людей разных национальностей и полов. Ошибки в наборах данных переносятся на производительность этих моделей; они часто менее точны и менее эффективны, например, для женщин или людей с более темной кожей. В худшем случае пациенты могут быть ошибочно диагностированы или упущены из виду.

Читайте также:
AWS создает «новую систему дизайна с открытым исходным кодом» с помощью React °

Он заявил, что на уровне штата или на федеральном уровне должны быть приняты новые законы, чтобы заставить компании быть прозрачными в отношении того, какие данные были обучены их системам и как эти данные были собраны. Затем федеральные организации, такие как Управление по санитарному надзору за качеством пищевых продуктов и медикаментов, Национальный институт стандартов и технологий, Департамент здравоохранения и социальных служб или Управление по гражданским правам, должны предпринять усилия по аудиту наборов данных для анализа их потенциальных предубеждений и последствий.

«Такие правила не только служат руководством для отрасли, помогая ей избежать предотвратимых несчастных случаев и других правонарушений. Он также помогает судьям оценивать стандарты оказания помощи при внедрении новых технологий », — написал Паскуале в вышеупомянутой статье. Он сказал, что регулирование не должно препятствовать прогрессу и инновациям в области здравоохранения с искусственным интеллектом.

«Развитие действительно захватывающее, и в этих областях следует приветствовать, я не хочу терять лидерство, но [the technology] будет справедливым и справедливым только при наличии деликтного закона », — заключил он. ®

Реклама

NO COMMENTS