De puntsgewijze wederzijdse informatie vertegenwoordigt een gekwantificeerde maatstaf voor hoeveel meer- of minder waarschijnlijk we de twee gebeurtenissen gelijktijdig zullen zien plaatsvinden, gezien hun individuele kansen, en ten opzichte van het geval waarin de twee volledig onafhankelijk zijn.
Wat meet puntsgewijze wederzijdse informatie tussen twee woorden?
In de computerlinguïstiek is het gelijktijdig voorkomen van puntsgewijze wederzijdse informatie van de tweede orde een maatstaf voor semantische overeenkomst. Om de mate van associatie tussen twee gegeven woorden te beoordelen, gebruikt het puntsgewijze wederzijdse informatie (PMI) om lijsten met belangrijke aangrenzende woorden van de twee doelwoorden uit een groot corpus te sorteren.
Wat is wederzijdse informatie in NLP?
Wederzijdse informatie meet hoeveel informatie - in de informatie-theoretische zin - een term bevat over de klas. Als de distributie van een term in de klasse hetzelfde is als in de verzameling als geheel, dan..
Hoe wordt puntsgewijs wederzijdse informatie berekend?
De algemene formule voor puntsgewijze wederzijdse informatie wordt hieronder gegeven; het is de binaire logaritme van de gezamenlijke kans van X=a en Y=b, gedeeld door het product van de individuele kansen dat X=a en Y=b.
Wat is PMI in machine learning?
PMI: Puntsgewijze wederzijdse informatie, is een maat voor de correlatie tussen twee gebeurtenissen x en y. Zoals je kunt zien aan de hand van de bovenstaande uitdrukking, is recht evenredig met het aantalkeer dat beide gebeurtenissen samen voorkomen en omgekeerd evenredig zijn met de individuele tellingen die in de noemer staan.