Краткое пояснение:
Для задач многоклассовой классификации финальный слой нейронной сети обычно использует функцию активации Softmax. Эта функция преобразует выходные данные нейронной сети в вероятностное распределение по всем классам, позволяя выбрать наиболее вероятный класс.
Решение:
- Понимание задачи: Вопрос касается выбора правильной функции активации для последнего слоя нейронной сети при решении задачи многоклассовой классификации.
- Анализ вариантов:
- ReLU (Rectified Linear Unit) — популярная функция активации для скрытых слоев, но не подходит для выходного слоя многоклассовой классификации, так как она не обеспечивает вероятностное распределение.
- Sigmoid — используется для бинарной классификации (два класса), преобразуя выход в вероятность от 0 до 1.
- Hyperbolic tangent (tanh) — похожа на сигмоиду, но выход находится в диапазоне от -1 до 1. Также не подходит для многоклассовой классификации.
- Softmax — специально разработана для многоклассовой классификации. Она принимает на вход вектор вещественных чисел и преобразует его в вектор вероятностей, сумма которых равна 1.
- Выбор правильного ответа: Исходя из анализа, Softmax является стандартной и наиболее подходящей функцией активации для финального слоя нейронной сети в задачах многоклассовой классификации.
Ответ: d. Softmax