На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 592 подписчика

Свежие комментарии

  • Андрей Зарубкин
    За последние лет 15-ть убили более 70-ти лучших российских ученых ядерщиков, микробиологов, оружейников, психологов, ...Иранского ученого...
  • Анастасия Гончарова
    Молодцы узбеки!!!!👍👍👍👍👍Узбекистан завоев...
  • Maxim
    Эвакуация ООН - в Берн, как - пастор Шлаг..Словакия осудила ...

Будущее ИИ за «обучением с учителем». Мнение

Максимально свой потенциал ИИ раскроют, только после широкого распространения «обучения с учителем», заявил Эндрю Ын — сооснователь проекта в сфере массового онлайн-образования Coursera и основатель проекта Google Brain 22 февраля в интервью для VentureBeat. Большие языковые модели, такие как Bing компании Microsoft и ChatGPT компании OpenAI, переполнили новостные заголовки в феврале 2023 года.

Эти системы относятся к так называемому генеративному самообучающемуся искусственному интеллекту. Однако один из ведущих специалистов в области ИИ Эндрю Ын считает, что будущее больших языковых моделей за контролируемым обучением. В данный момент его научная группа заниемается разработкой инструментов, которые должны упростить отбор данных и обучение моделей другим разработчикам ИИ. Ученый объясняет: «Правильная маркировка данных очень ценна. Растущее внимание к отбору данных говорит мне о том, что в ближайшие пару лет контролируемое обучение принесет больше пользы, чем генеративный ИИ», «Рассматривая историю усилий множества организаций по созданию этих систем с большими языковыми моделями, я замечаю, что методы очистки данных были сложными и многогранными», — отметил Эндрю Ын. Ученый считает, что даже единичная фактологическая ошибка или токсичное высказывание не приемлемо для языковой модели, поэтому маркировка данных начинает играть важную роль в создании ИИ. Правильная выборка при обучении позволяет получать более качественные и непротиворечивые ответы от обученной модели. Также он отмечает, что языковые модели сейчас часто обучаются на больших массивах данных, которые не отображают все разнообразие человеческого опыта.
«Проблема предвзятых данных, приводящих к предвзятым алгоритмам, сейчас широко обсуждается и осмысливается в сообществе разработчиков ИИ. Таким образом, из каждой исследовательской работы (…) ясно, что различные группы, создающие эти системы, очень серьезно относятся к репрезентативности и чистоте данных и знают, что модели далеки от совершенства». Таким образом, ученый считает источником ошибок и токсичных высказываний ИИ плохую выборку данных для обучения. Читайте также: Чат-бот Bing AI часто ошибается в вопросах о новостях — профессор

 

Ссылка на первоисточник
наверх