Olá pessoal, estou com uma implementação para fazer do algoritmo de gradiente ascendente para treinamento dos parâmetros de uma rede bayesiana, segundo o meu professor o algoritmo é descrito no livro de Tom Mitchell, Machine Learning na seção 6.11.5
gostaria de saber se alguém já fez a implementação deste algoritmo e poder me ajudar com um código em java, mesmo pseudo código ou alguma explicação a respeito, pois a maneira como meu professor me falou não foi clara e lendo o texto não compreendo bem como ele funciona.
Acredito que você se refere ao Gradiente Descendente, e não Ascendente.
Meu TCC é basicamente um framework de redes neurais e eu to usando Gradient Descent para fazer a otimização dos pesos das conexões dos neurônios. Se você quiser dar uma olhada no meu github, tá aqui o link: Spider
Uma referência MUITO boa é o livro do Stuart Russell, Artificial Intelligence: A modern approach - 3rd Edition. Lá explica muito bem como funciona esse algoritmo, foi a melhor referência que eu encontrei.
Vlw cara, mas ele é ascendente mesmo baseado em um artigo do Russell de 1995 consegui conversar cm meu orientador hoje e ele me clareou sobre como fazer, quando terminar a implementação posto aqui vlw por responder.
A diferença de gradient ascent pra descent é só o sinal utilizado na equação, de soma ou subtração. O que é utilizado para treinamento de parâmetro é o descent, pois a ideia é sempre tentar diminuir o erro (diminuir, descent, -). Nunca mexi com redes bayesianas, talvez faça sentido somar ao invés de diminuir