O que significa "Entropia cruzada"?
Índice
A entropia cruzada é um método usado em aprendizado de máquina pra medir quão bem as previsões de um modelo batem com os resultados reais. Pense nisso como uma forma de comparar o que o modelo chuta com a verdade. Quanto menor o valor da entropia cruzada, melhor o modelo é em fazer previsões certas.
Quando um modelo faz uma previsão, ele solta um conjunto de probabilidades pra cada possível resultado. A entropia cruzada calcula a diferença entre essas probabilidades previstas e os resultados verdadeiros. Se o modelo tá bem certo da resposta dele, a pontuação de entropia cruzada vai ser baixa. Se ele tá em dúvida ou tá errado, a pontuação vai ser alta.
Esse método é usado com frequência pra tarefas como classificar imagens ou entender textos. Ajuda a guiar o processo de aprendizado, permitindo que os modelos melhorem com o tempo, ajustando suas previsões com base no que já rolaram antes.