Cohen's kappa-coëfficiënt is een statistiek die wordt gebruikt om de interbeoordelaarsbetrouwbaarheid voor kwalitatieve items te meten. Over het algemeen wordt aangenomen dat het een robuustere maat is dan de eenvoudige berekening van het percentage overeenkomst, aangezien κ rekening houdt met de mogelijkheid dat de overeenkomst door toeval ontstaat.
Waar wordt Cohen's kappa voor gebruikt?
Cohen's kappa is een metriek die vaak wordt gebruikt om de overeenstemming tussen twee beoordelaars te beoordelen. Het kan ook worden gebruikt om de prestaties van een classificatiemodel te beoordelen.
Hoe interpreteer je de kappa van Cohen?
Cohen stelde voor om het Kappa-resultaat als volgt te interpreteren: waarden ≤ 0 als indicatie van geen overeenkomst en 0,01-0,20 als geen tot gering, 0,21-0,40 als redelijk, 0,41-0,60 als matig, 0,61-0,80 als substantieel en 0,81-1,00 als bijna perfecte overeenkomst.
Wat is Cohen's kappa in machine learning?
Cohen's Kappa is een statistische maatstaf die wordt gebruikt om de betrouwbaarheid te meten van twee beoordelaars die dezelfde hoeveelheid beoordelen en om vast te stellen hoe vaak de beoordelaars het eens zijn. In dit artikel zullen we in detail leren wat Cohen's kappa is en hoe het nuttig kan zijn bij machine learning-problemen.
Wat wordt bedoeld met kappa-waarde?
De waarde van Kappa wordt gedefinieerd als. De teller vertegenwoordigt de discrepantie tussen de waargenomen kans op succes en de kans op succes onder de aanname van een extreem slecht geval.