Рубрики
Без рубрики

Когда еда встречает Ай: Умный проект рецепта

Часть 2. Нир для всех вкусов: извлечение информации от рецептов приготовления В предыдущем … Помечено машинным обучением, искусственным интеллектом, питоном, рецептами.

Часть 2. Нир для всех вкусов: Извлечение информации от рецептов приготовления

В предыдущих статьях мы построили две наборы наборов на этикетке для подготовки моделей обучения машин и разрабатывают системы, способные интерпретировать рецепты приготовления.

Этот пост погружает в систему экстрактор, система, способная извлечь ингредиенты, количества, время приготовления и другой полезной информации от рецептов. Разработать сервис, мы попробовали разные подходы к именованным именованным признаниям (NER).

Подожди! Что такое NER?

ER – это двухэтапный процесс, состоящий из а) идентифицирующихся объектов (токен или группу токенов) в документах и б) классифицирует их в некоторые заранее определенные категории, такие как человек, город, компания … Для задачи мы создали наши собственные категории, которые являются ингредиентом, квантификатором и единицей.

NER является очень полезным приложением NLP для группы и классифицирует большое количество данных, которые обмениваются сходствами и актуальностью. Для этого его можно применять к многим делам бизнеса, таких как Человеческие ресурсы , Поддержка клиентов , Двигатели поиска и рекомендации , Классификация контента И гораздо больше.

Нер для интеллектуального проекта рецепта

Для проекта Smart Recipe мы обучали четыре модели: модель CRF, модель BILSTM, комбинацию предыдущих двух (BILSTM-CRF) и модели NLP NER Flair.

CRF-модель

Линейная цепочка условные случайные поля – ( https://medium.com/ml2vec/overview-of-fonditional-random-fields-68A2A20FA541))))))))))))))))))) – очень популярный способ контролировать прогноз последовательности. CRFS – это Дискриминационные модели в состоянии решить некоторые недостатки генеративный коллеги. Действительно, в то время как выход HHM моделируется на Совместная вероятность Распределение, вывод CRF рассчитывается на Условная вероятность распределение.

В бедных словах, в то время как генеративный классификатор пытается узнать, как были созданы данные, дискриминационная попытается моделировать, просто наблюдая за данными

В дополнение к этому, CRFS учитывает особенности текущих и предыдущих этикеток в последовательности. Это увеличивает объем информации, которую модель может положиться, чтобы сделать хороший прогноз.

Рис.1 CRF сети

Для задачи мы использовали Стэнфорд Нер алгоритм Это реализация классификатора CRF. Эта модель превосходит другие модели в точности, хотя она не может понять контекст прямых ярлыков (ключевая функция для последовательных задач, таких как NER), и требует дополнительной функции.

Bilstm с символами вложений

Идти нейроны … Мы обучали Длинная краткосрочная память (LSTM) модель. NSTM Networks – это тип рекуррентных нейронных сетей (RNNS), за исключением того, что обновления скрытого слоя заменяются наравненными элементами встроенные ячейки памяти. В результате они находят и используют лучшие дальние зависимости в данных.

Чтобы извлечь выгоду из прошедшего и будущего контекста, мы использовали двунаправленную модель LSHM (BILSTM), которая обрабатывает текст в двух направлениях: как вперед (слева направо) и назад (справа налево). Это позволяет модели раскрыть больше шаблонов, поскольку количество входной информации увеличивается.

Рис.2 Билстм Архитектура

Более того, мы включили представление слова на основе персонажей в качестве ввода модели. Представление уровня персонажа использует явную информацию о уровне слов, инфицирует функции невидимых слов и акций информации о закономерностях уровня морфема.

NER FLAIR NLP.

Эта модель принадлежит к ( https://github.com/flairnlp/flair) [Flair NLP Библиотека] Разработана и открыта ( https://research.zalando.com/) [Zalando Исследование]. Сила модели лежит в а) использование современного характера, слона слов и контекста (например, ( https://nlp.stanford.edu/projects/glove/) [перчатка] , ( https://arxiv.org/abs/1810.04805)] , ( https://arxiv.org/pdf/1802.05365.pdf)) .. ,), б) Возможность легче объединить эти вложения.

В частности, ( https://www.aclweb.org/anthology/c18-1139/)[contextual Встраивание строки] помогает контекстуализировать слова, создавающие различные вложения для полисмутных слов (одними однородными словами с разными значениями):

Рис.3 Сетевое встраивание строки контекста

Bilstm-CRF

Последнее, но не менее важное, мы попробовали гибридный подход. Мы добавили слой CRF в модель BILSTM. Преимущества (хорошо объясненные здесь ) такого комбо состоит в том, что эта модель может эффективно использовать как 1) прошедшие и будущие функции ввода, благодаря двунаправленному компоненту LSHM, и 2) Информация о тегах уровня предложения, благодаря Слой CRF. Роль последнего слоя заключается в том, чтобы наложить некоторые другие ограничения на окончательный результат.

Инжир. 4 BILSTM-CRF: общая архитектура

А как насчет производительности?

( https://medium.com/@condenastitalyy/when-ood-meets-ai-the-smart-recipe-project-8dd1f5e727b5 gollead Полная статья на Medium], обнаружить это и более об этом этапе интеллектуального проекта рецепта.

Когда еда встречает AI: интеллектуальный проект рецепта Серия из 6 удивительных статей

Стол содержания

Часть 1: Очистка и манипулирование данных продуктов питания Часть 1: Смарт-метод для метки ваших наборов данных Часть 2: NER Для всех вкусов: Извлечение информации от приготовления рецептов Часть 2: Ни рыба, ни птица? Классифицируйте его с помощью Smart Ingredient Classifier Part 3: FoodGraph: база данных графов для подключения рецептов и деталей продуктов питания. Foodgraph: Загрузка данных и запрос графика с помощью SPARQL

Оригинал: “https://dev.to/condenastitaly/when-food-meets-ai-the-smart-recipe-project-2d6e”