Рубрики
Без рубрики

Сегментация изображения: Советы и трюки от 39 соревнований Kaggle

Эта статья была первоначально опубликована Derrick Mwiti в блоге Нептуна, где вы можете найти больше в De … Tagged с машинным обучением, Python, наукой данных.

Эта статья была первоначально опубликована Деррик Мвити на Нептун блог Где вы можете найти более глубокие статьи для машинного обучения практикующих.

Представьте, что если бы вы могли получить все советы и трюки, вам нужно забить конкурс Kaggle. Я прошел более 39 конкурсов Kaggle, включая

– И извлечь это знание для вас. Копать.

  • Внешние данные
  • Предварительная обработка
  • Увеличение данных
  • Моделирование
  • Аппаратные настройки
  • Функции потери
  • Учебные советы
  • Оценка и перекрестная проверка
  • Методы ансаммов
  • Постобработка
  • Коэффициент кости потому что он хорошо работает с несбалансированными данными
  • Взвешенные потери границы чья цель состоит в том, чтобы уменьшить расстояние между прогнозируемой сегментацией и наземная правда
  • MultiLabelsoftMarginloss Это создает критерий, который оптимизирует многоквартирный потерю Multi-Label, на основе максимальной энтропии, между входом и целью
  • Сбалансированная крестическая энтропия (BCE) [с потерей логита] (что включает в себя взвешивание положительных и отрицательных примеров определенным коэффициентом
  • Ловас который выполняет прямую оптимизацию средней потери перекресткования в нейронных сетях на основе выпуклого расширения подмодулярных потерь Ловас
  • FOCALOSS + LOVASZ Получено путем суммирования очаговых и ловащих потерь
  • Потеря дуговой маржи который включает в себя поле, чтобы максимизировать разделимость классов лица
  • Потеря NPARS Это вычисляет потерю нормы между y_true и y_pred.
  • Комбинация BCE и DICE потери функции
  • LSEP – Паркий рейтинг, который является гладким везде, и, таким образом, легче оптимизировать
  • Центральная потеря Это одновременно изучает центр глубоких особенностей каждого класса и наказывает расстояния между глубокими особенностями и их соответствующими классовыми центрами
  • Потеря кольца которые дополняют функции стандартных потерь, такие как Softmax
  • Твердый убыток триплета Это поедет сеть в встраивание особенностей того же класса одновременно максимизировать расстояние встраивания в различных классах
  • 1 + BCE – Dice который включает в себя вычитание потери на доску и кости, затем добавляя 1
  • Двоичная кросс-энтропия – Журнал (Dice), это двоичная кросс-энтропия минус журнал потери кости
  • Комбинации до н.э., кости и фокус
  • Ловаш потери Эта потеря выполняет прямую оптимизацию средней перекрестной прополей.
  • BCE + Dice Потеря – потери получают путем расчета гладких коэффициентов коэффициента кости
  • Фокусные потери с гамма 2 Это улучшение к стандартному критерию энтропии
  • BCE + Dice + Focal – Это в основном суммация трехсторонних функций
  • Активные контурные потери который включает в себя информацию о площади и размере и интегрирует информацию в плотной модели глубокой обучения
  • 1024 * BCE (результаты, маски) + BCE (CLS, CLS_TARGET)
  • Фокус + каппа – Kappa – это функция потери для многоклассной классификации порядковых данных в глубоком обучении. В этом случае мы суммируем это и очаговые потери
  • ArcFaceloss – Аддитивная угловая потери поля для распознавания глубокого лица
  • Мягкие кубики, обучаемые только на позитивах – мягкие кости используют прогнозируемые вероятности
  • 2.7 * BCE (pred_mask, gt_mask) + 0,9 * dice (pred_mask, gt_mask) + 0,1 * bce (pred_empty, gt_empty) какая нестандартная потеря, используемая Каггелером
  • посадка Sweart1Loss () Это создает критерий, который использует квадратный термин, если абсолютный элемент-мудрый погрешность падает ниже 1 и срок L1
  • Использование Средняя ошибка в квадрате Объективная функция в сценариях, где кажется, что работает лучше, чем Двоинально-крестная энтропия объективная функция.

Надеюсь, эта статья дала вам немного фона в подсказки и трюки и трюки и трюки изображений и дала вам некоторые инструменты и рамки, которые вы можете использовать, чтобы начать конкурировать.

Мы покрыты советы по:

  • архитектура
  • Учебные трюки,
  • убытки,
  • Предварительная обработка,
  • Постобработка
  • ансамбл
  • Инструменты и рамки. Если вы хотите глубже пойти по глубине кролика, просто следуйте ссылкам и посмотрите, как создаются лучшие модели сегментации изображений.

Счастливый сегментность!

Оригинал: “https://dev.to/jakubczakon/image-segmentation-tips-and-tricks-from-39-kaggle-competitions-l97”