16 131 539 książek w 175 językach
Jednak się nie przyda? Nic nie szkodzi! U nas możesz zwrócić towar do 30 dni
Bon prezentowy to zawsze dobry pomysł. Obdarowany może za bon prezentowy wybrać cokolwiek z naszej oferty.
30 dni na zwrot towaru
Dans cette thčse, nous proposons un nouvel algorithme de séparation aveugle de sources, basé sur l'optimisation de l'information mutuelle sous contraintes. Le problčme d'optimisation sous contraintes est résolu par passage au problčme dual. L'estimateur proposé du gradient stochastique utilise l'estimation des densités par maximum de vraisemblance dans des modčles de lois exponentielles choisis par minimisation du critčre AIC. Ensuite, la méthode a été généralisée ŕ l'ensemble des divergences entre densités de probabilité. Nous avons montré que l'algorithme utilisant la divergence particuličre de Hellinger a de bonnes propriétés d'effcacité et robustesse en présence du bruit en comparaison avec l'information mutuelle. Dans le cadre de signaux cyclostationnaires, les méthodes précédentes de séparation ont été adaptées en utilisant des statistiques du second ordre. Nous illustrons les performances des algorithmes proposés pour des signaux simulés et pour des signaux réels issus de machines tournantes.