
Демпинговая цена бензина в ЯНАО ниже 27 руб/л за литр, розничная цена ниже оптовой и даже ниже нефти

Ставки на ЧМ-2022 в Катаре: как начать делать ставки на главное футбольное событие года

Какие лампы используются в солярии?

Taimaut - отзывы о каппере

Сколько можно заработать на Zineera?

Играем в новый игровой автомат Sweet bonanza

Профессиональная поддержка нарколога: пару слов об особенностях
Беспилотный транспорт научат нравственности

Немецкие ученые убеждены: беспилотный транспорт способен принимать решения, основываясь на нравственном выборе. Иными словами, есть возможность смоделировать человеческую мораль и привить ее машине.
Исследователи Института когнитивных наук при Оснабрюкском университете провели эксперимент, в ходе которого участникам было предложено вести машину по туманным улицам виртуальной реальности. Неожиданно водитель попадал в ситуацию, когда следовало быстро принять решение – свернуть в сторону людей, животных либо направить транспорт на неодушевленный объект.
Обработка статистики показала, что решения водителей легко поддаются объяснению, их можно превратить в модель. Ранее считалось, что нравственный выбор зависим от контекста, поэтому якобы нереально прописать для него алгоритмы. Однако ученые обнаружили обратное: жизненные ценности в затруднительной ситуации умещаются в довольно простую модель. Такой же выбор по силам делать и транспорту.
По мнению исследователей, теперь необходимо на общественном уровне обсудить вопрос, касающийся наделения автономных систем моральными суждениями людей, определить - какие именно этические теории следует закладывать в программу. И главный вопрос – если что-то пойдет не так, кто будет нести ответственность?
К примеру, как система будет квалифицировать выбежавшего на дорогу ребенка, создающего опасность для пассажиров? Будет ли он приоритетней, чем стоящий на тротуаре взрослый? Любые системы искусственного интеллекта (ИИ) нуждаются в четко прописанных правилах. В противном случае они способны изобрести собственные, без участия человека.
Специалисты все чаще задумываются о проблемах этики в связи с развитием ИИ. В конце минувшего года институтом IEEE обнародованы результаты дискуссий сотни экспертов, обсуждавших вопросы обучения машинного интеллекта нравственным постулатам. В январе 2017-го группа филантропов в тандеме со специалистами ИТ-сферы создали специальный фонд, который призван внести в процесс разработки ИИ тему общечеловеческих ценностей и морали.
Рекомендуем по теме:
https://a1tv.ru/uslugi/3654-mnogolineynye-igrovye-avtomaty-vse-osobennosti-i-preimuschestva.html
https://a1tv.ru/zakonodatelstvo/3441-igry-dlya-pk-v-zhanre-strategiya-top-5-luchshih.html
https://a1tv.ru/ekonomika/3699-pochemu-v-internet-kazino-igrat-bolee-vygodno-chem-v-obychnom.html
https://a1tv.ru/techno/2934-novye-interesnye-igry-2019-na-pc.html
https://a1tv.ru/zakonodatelstvo/2829-chestnoe-onlayn-kazino-kak-vybrat-igrovoy-portal.html