<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://wikistatistiek.amc.nl/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Docent5</id>
	<title>Wikistatistiek - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://wikistatistiek.amc.nl/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Docent5"/>
	<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/Special:Contributions/Docent5"/>
	<updated>2026-04-17T01:59:35Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.43.8</generator>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Lineaire_regressie&amp;diff=1113</id>
		<title>Lineaire regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Lineaire_regressie&amp;diff=1113"/>
		<updated>2009-05-27T15:19:37Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Waar vind ik lineaire regressie in SPSS? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Wanneer gebruik ik een lineair regressie model? ==&lt;br /&gt;
Als je een [[correlatie|correlatietechniek]] toepast, ben je geïnteresseerd in de mate van samenhang tussen twee variabelen &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; en &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, bijvoorbeeld een onderzoek naar de samenhang tussen leeftijd en scores op een cognitieve test. Met lineaire regressie ga je een stap verder. Met deze techniek probeer je de waarden van de uitkomst &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; via een lineair verband te voorspellen uit die van &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;. De uitkomstvariabele &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; wordt de afhankelijke variabele genoemd, en de voorspeller &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; de onafhankelijke variabele.&lt;br /&gt;
We spreken van enkelvoudige (ook wel &#039;&#039;simple&#039;&#039; of &#039;&#039;univariable&#039;&#039;) regressie als we de uitkomst willen voorspellen met één predictor. In de praktijk zal dat in vele gevallen niet voldoende zijn en is het wenselijk om de effecten van twee of meer voorspellers te analyseren. We spreken dan van [[multivariabele regressie|meervoudige (ook wel &#039;&#039;multiple&#039;&#039; of &#039;&#039;multivariable&#039;&#039;)]] lineaire regressie.  &lt;br /&gt;
&lt;br /&gt;
Om een lineaire regressie te kunnen gebruiken, moeten de onderzoeksgegevens aan een aantal statistische voorwaarden voldoen: &lt;br /&gt;
#Over de gehele range van geobserveerde waarden moet sprake zijn van een lineaire samenhang tussen de onafhankelijke variabele &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; en de afhankelijke variabele &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; (tip: maak eerst een scatterplot om de aard van de samenhang tussen &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; en &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; te exploreren);&lt;br /&gt;
#Wat betreft het type data mogen de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; variabelen zowel [[KEUZE TOETS#Van welk type is mijn data?|discreet als continu]] zijn. De afhankelijke variabele &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; mag alleen continu zijn;&lt;br /&gt;
#Voor elke waarde van &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; moeten de observaties van &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; onafhankelijk van elkaar zijn; dat wil zeggen dat de &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; variabelen slechts 1 keer bij een persoon zijn gemeten. Lineaire regressie is dus niet geschikt om voor onderzoeksgegevens te analyseren waarbij de patiënten herhaaldelijk in de tijd zijn gemeten (voor [[herhaalde metingen]] bestaan andere technieken).&lt;br /&gt;
#De variabele &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; heeft een normaal verdeling voor elke waarde van &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;.&lt;br /&gt;
#De verdelingen van de &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; variabele hebben een gelijke variantie (of standaard deviatie) voor elke waarde van &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
De assumpties 1, 4 en 5 kunnen met behulp van de residuen van het lineaire model worden gecontroleerd.&lt;br /&gt;
&lt;br /&gt;
==Hoe werkt (enkelvoudige) lineaire regressie?==&lt;br /&gt;
&lt;br /&gt;
In lineaire regressie  bepalen we de regressielijn, die het beste de lineaire relatie tussen de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; en &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; variabelen beschrijft. De lineaire regressielijn wordt geschat met behulp van de vergelijking:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;&lt;br /&gt;
\begin{equation*}&lt;br /&gt;
\begin{array}{rcl}&lt;br /&gt;
Y&amp;amp;=&amp;amp;a+b\times X + \epsilon \right.&lt;br /&gt;
\end{array}&lt;br /&gt;
\end{equation*}&lt;br /&gt;
&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; is de afhankelijke, uitkomstvariabele; &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; de onafhankelijke voorspeller; en &#039;a&#039; en &#039;b&#039; zijn de regressiecoëfficiënten; &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt; representeert de afstand tussen de regressielijn en de datapunten (de residuen). Regressiecoëfficiënt ‘a’ wordt ook wel de intercept genoemd, en geeft de waarde van &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; aan als &amp;lt;math&amp;gt;X=0&amp;lt;/math&amp;gt; (de intercept bepaalt dus de hoogte van de regressielijn). De regressiecoëfficiënt ‘b’ weerspiegelt de helling (&#039;&#039;slope&#039;&#039;) van de regressielijn, en geeft de gemiddelde toename van &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; aan als de &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; variabele met 1 eenheid toeneemt.&lt;br /&gt;
&lt;br /&gt;
[[Image:LineaireRegressie.png]]&lt;br /&gt;
&lt;br /&gt;
==Hoe interpreteer ik mijn SPSS output bij gebruik van een enkelvoudig lineair model?==&lt;br /&gt;
&lt;br /&gt;
Stel dat we in een steekproef van n=25 de [[correlatie|Pearson’s correlatie]] tussen de leeftijd van proefpersonen en hun lichaamsvetpercentage 0.81 is. We willen deze samenhang echter niet alleen beschrijven, maar op basis van de leeftijd van de persoon nu ook een voorspelling doen over zijn of haar lichaamsvetpercentage. Als we in [[statistische software#SPSS|SPSS]] in de schermen van de module Linear Regression de variabelen ‘vetpercentage’ als afhankelijke (&#039;&#039;dependent&#039;&#039;) variabele opgeven, en de variabele leeftijd als onafhankelijke (&#039;&#039;independent&#039;&#039;),  dan zullen de volgende tabellen worden gegenereerd: Model Summary, ANOVA en Coeficients. NB: in de hierna volgende voorbeelden worden sommige SPSS tabellen in verkorte vorm weergegeven.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;left&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
!colspan=&amp;quot;5&amp;quot; align=&amp;quot;center&amp;quot;|Model Summary&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot;| Model&lt;br /&gt;
|width=&amp;quot;100&amp;quot; style=&amp;quot;background:#faecc8&amp;quot; | R&lt;br /&gt;
|width=&amp;quot;100&amp;quot; style=&amp;quot;background:#faecc8&amp;quot; | R square&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | Adjusted R square&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | SE of the estimate&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot;| .821&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot;| .659&lt;br /&gt;
|.645&lt;br /&gt;
|6.3898&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
De tabel Model Summary geeft de [[correlatie|Pearson’s correlatie]] weer tussen de betreffende &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; en &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; variabelen. De kolom &#039;R square&#039; is een zogenaamde &#039;&#039;goodness-of-fit&#039;&#039; maat. Deze maat geeft uitdrukking aan hoe goed de geobserveerde data clusteren rond de geschatte regressielijn. In een enkelvoudige lineaire regressie is dat het kwadraat van de correlatie. De proportie wordt meestal in een percentage ‘verklaarde variantie’ uitgedrukt. In dit voorbeeld betekent R square dus dat de totale variatie in vetpercentages voor 66% verklaard kan worden door de lineaire regressie c.q. de verschillen in leeftijd.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;left&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
!colspan=&amp;quot;6&amp;quot; align=&amp;quot;center&amp;quot;|ANOVA&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot;| Model&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | Sum of squares&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | df&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | Mean Square&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; | F&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; | Sig.&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | 1 &lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |Regression &lt;br /&gt;
|width=&amp;quot;100&amp;quot; |1818,362&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |1&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |1818,362&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |44,535&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |,000&lt;br /&gt;
|- &lt;br /&gt;
|width=&amp;quot;100&amp;quot; |Residuals&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |939,078&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |23&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |40,829&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |Total&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |2757,440&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |24&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
De F-test in de ANOVA tabel toets de nulhypothese: regressiecoëfficiënt b = 0 (‘er is geen samenhang tussen &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; en &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, dus de regressielijn loopt horizontaal - zonder helling - door de puntenwolk’). Uit de tabel kunnen we opmaken dat leeftijd een significante voorspeller is van het gemeten vetpercentage (regressiecoëfficiënt b ≠ 0). Of, anders geformuleerd, we kunnen concluderen dat het vetpercentages van de proefpersonen significant verklaard kunnen worden door hun verschillen in leeftijd.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;left&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
!colspan=&amp;quot;6&amp;quot; align=&amp;quot;center&amp;quot;|Coefficients&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; width=&amp;quot;100&amp;quot;| &lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#faecc8&amp;quot; align=&amp;quot;center&amp;quot; width=&amp;quot;100&amp;quot; | Unstandardized&lt;br /&gt;
coefficients&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | t&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | Sig.&lt;br /&gt;
|-&lt;br /&gt;
|model&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |B&lt;br /&gt;
|SE&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|rowspan=&amp;quot;2&amp;quot; | 1&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |(Constant)&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |2,507&lt;br /&gt;
|3,932&lt;br /&gt;
|,638&lt;br /&gt;
|,530&lt;br /&gt;
|-&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | Leeftijd&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | ,549&lt;br /&gt;
|,082&lt;br /&gt;
|6,673&lt;br /&gt;
|,000&lt;br /&gt;
|}&lt;br /&gt;
a. dependent variable: vetpercentage&lt;br /&gt;
&lt;br /&gt;
De t-test in de derde tabel – Coefficients- geeft niet meer informatie dan hetgeen we al wisten uit de F-test in de ANOVA tabel, namelijk dat leeftijd een significante voorspeller is van het gemeten vetpercentage. In deze tabel wordt de lineaire vergelijking &amp;lt;math&amp;gt;Y = a + b\times X&amp;lt;/math&amp;gt; weergegeven. De regressiecoëfficiënt a zien we (enigszins verwarrend in SPSS) staan onder de kolom B, rechts van de cel ‘Constant’, en heeft de waarde 2,51. Regressiecoëfficiënt b wordt ook onder de kolom B vermeld, rechts van de variabele ‘leeftijd’, en heeft de waarde 0,55. We kunnen nu de lineaire vergelijking als volgt invullen: vetpercentage  = 2,51 + (0,55 &amp;lt;math&amp;gt;\times&amp;lt;/math&amp;gt; leeftijd). Het verwachte vetpercentage van een proefpersoon van 60 jaar oud is dus: 2,507+ (0,549 &amp;lt;math&amp;gt;\times&amp;lt;/math&amp;gt; 60) = 35,45%.&lt;br /&gt;
&lt;br /&gt;
==Hoe werkt meervoudige lineaire regressie?==&lt;br /&gt;
&lt;br /&gt;
Bij [[multivariabele regressie|meervoudige (&#039;multiple&#039; of &#039;multivariable&#039;)]] lineaire regressie zijn we geïnteresseerd in het gelijkertijd modelleren van twee of meer onafhankelijke variabelen. Je kunt je voorstellen dat niet alleen de leeftijd, maar ook  het geslacht van de proefpersoon een bijdrage levert aan de voorspelling van zijn of haar vetpercentage. Ander voorbeeld: omdat er een associatie is tussen de lengte en het gewicht van een kind, willen we in een onderzoek naar de relatie tussen gewicht en systolische bloeddruk ook de lengte van het kind in de statische analyse betrekken. Kortom, we passen meervoudige lineaire regressie toe om:&lt;br /&gt;
#de waarde van een afhankelijke variabele te voorpellen met (te verklaren uit) een set van onafhankelijke variabelen, en/of&lt;br /&gt;
#na te gaan in welke mate een onafhankelijke &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; variabele lineair gerelateerd is aan de afhankelijke &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; variabele, rekening houdend met (geadjusteerd voor) de invloed van andere X variabelen.&lt;br /&gt;
&lt;br /&gt;
In de meervoudige lineaire regressievergelijking&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;Y = a + b_1\times X_1+b_2\times X_2+\ldots+b_k\times X_k + \epsilon &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
zijn  &amp;lt;math&amp;gt;X_i, (i = 1,2,\ldots,k),&amp;lt;/math&amp;gt; de verklarende variabelen of covariaten, is &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; de afhankelijk variabele, en vormen &amp;lt;math&amp;gt;b_1, b_2, \ldots, b_k&amp;lt;/math&amp;gt; de (partiële) regressiecoëfficiënten; &amp;lt;math&amp;gt;\epsilon&amp;lt;/math&amp;gt; is representeerd weer de residuele fout (de afstand van de datapunten tot de regressielijn). De coëfficiënt &amp;lt;math&amp;gt;b_1&amp;lt;/math&amp;gt; geeft aan hoeveel &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; toeneemt als &amp;lt;math&amp;gt;X_1&amp;lt;/math&amp;gt; met één eenheid toeneemt, rekening houdend met (geadjusteerd voor) de invloed van de andere &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; variabelen door die constant te houden. Op deze wijze kunnen we dus de impact van &amp;lt;math&amp;gt;X_1&amp;lt;/math&amp;gt; op &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; analyseren onafhankelijk van de invloed van de andere &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; variabelen.&lt;br /&gt;
&lt;br /&gt;
==Hoe interpreteer ik mijn SPSS output bij gebruik van een meervoudig lineair model?==&lt;br /&gt;
Laten we ervan uitgaan dat we bij 100 kinderen een onderzoek doen naar de relatie tussen gewicht en systolische bloeddruk. We weten dat er een relatie is tussen het gewicht en de lengte van een kind, en mogelijk speelt het geslacht ook een rol. In een meervoudig lineaire regressie analyseren we nu het effect van gewicht (kg),  lengte (cm) en geslacht (0 = jongen; 1 = meisje). &lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;left&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
!colspan=&amp;quot;4&amp;quot; align=&amp;quot;center&amp;quot;| Model Summary&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot;| Model&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | R&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | R square&lt;br /&gt;
|width=&amp;quot;130&amp;quot; style=&amp;quot;background:#faecc8&amp;quot; | Adjusted R square&lt;br /&gt;
|-&lt;br /&gt;
|1&lt;br /&gt;
|.564&lt;br /&gt;
|.318&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot;| .297&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
a. Adjusted R square betekent dat bij berekening van de verklaarde variantie rekening is gehouden met het aantal verklarende variabelen in het model.&lt;br /&gt;
&lt;br /&gt;
Uit de Model Summary komt naar voren dat de adjusted R square = 0,297. Met andere woorden; ongeveer 30% van de variatie in systolische bloeddruk kan verklaard worden door verschillen in gewicht, lengte en geslacht van de kinderen.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;left&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
!colspan=&amp;quot;6&amp;quot; align=&amp;quot;center&amp;quot;|ANOVA&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot;| Model&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | Sum of squares&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | df&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | Mean Square&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; | F&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; | Sig.&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | 1 &lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |Regression &lt;br /&gt;
|width=&amp;quot;100&amp;quot; |2804,045&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |3&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |934,682&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |14,952&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |,0001&lt;br /&gt;
|- &lt;br /&gt;
|width=&amp;quot;100&amp;quot; |Residuals&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |6001,261&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |96&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |62,513&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|-&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |Total&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |8805,306&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |99&lt;br /&gt;
|width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
De F-test in de ANOVA tabel toets de nulhypothese: regressiecoëfficiënten &amp;lt;math&amp;gt;b_i&amp;lt;/math&amp;gt; zijn 0. Uit de analyse komt naar voren dat er een significante lineaire relatie is tussen de systolische bloeddruk en minstens één van de onafhankelijke &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; variabelen.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;left&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
!colspan=&amp;quot;6&amp;quot; align=&amp;quot;center&amp;quot;|Coefficients&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; width=&amp;quot;100&amp;quot;| &lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; style=&amp;quot;background:#faecc8&amp;quot; align=&amp;quot;center&amp;quot; width=&amp;quot;100&amp;quot; | Unstandardized&lt;br /&gt;
coefficients&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | t&lt;br /&gt;
|width=&amp;quot;100&amp;quot; | Sig.&lt;br /&gt;
|-&lt;br /&gt;
|model&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |B&lt;br /&gt;
|SE&lt;br /&gt;
|&lt;br /&gt;
|&lt;br /&gt;
|-&lt;br /&gt;
|rowspan=&amp;quot;4&amp;quot; align=&amp;quot;top&amp;quot; | 1&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |(Constant)&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; |75,211&lt;br /&gt;
|17,118&lt;br /&gt;
|4,641&lt;br /&gt;
|,0001&lt;br /&gt;
|-&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | Gewicht&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | 1,180&lt;br /&gt;
|,261&lt;br /&gt;
|4,512&lt;br /&gt;
|,0001&lt;br /&gt;
|-&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | Lengte&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | -,031&lt;br /&gt;
|,172&lt;br /&gt;
| -,181&lt;br /&gt;
|,857&lt;br /&gt;
|-&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | Geslacht&lt;br /&gt;
|style=&amp;quot;background:#faecc8&amp;quot; | 4,230&lt;br /&gt;
|1,611&lt;br /&gt;
|2,626&lt;br /&gt;
|,010&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
De t-test laat zien dat de relatie tussen gewicht en systolische bloeddruk significant is (p &amp;lt; 0,001). Geadjusteerd voor de effecten van lengte en geslacht, leidt 1 kilogram gewichtstoename tot een gemiddelde systolische bloeddrukstijging van 1,18 mmHg. Geadjusteerd voor de invloeden van gewicht en geslacht is de relatie tussen lengte en systolische bloeddruk echter niet significant (p = 0,86). Er is ook een significante relatie (p = 0,01) tussen geslacht en bloeddruk: meisjes hebben - gemiddeld genomen – een 4,23 mmHg hogere systolische bloeddrukwaarde dan jongens, rekening houdend met verschillen in gewicht en lengte tussen kinderen. Kortom, gewicht en geslacht blijken onafhankelijke voorspellers te zijn van de systolische bloeddruk.&lt;br /&gt;
Met behulp van de gegeven regressiecoëfficiënten uit de tabel kunnen we de lineaire vergelijking verder invullen. Zo is de verwachte systolische bloeddruk van een meisje van 37 kg met een lengte van 115 cm: 75,21 + (1,18 &amp;lt;math&amp;gt;\times&amp;lt;/math&amp;gt; 37) – (0,03 &amp;lt;math&amp;gt;\times&amp;lt;/math&amp;gt; 115) + (4,23 &amp;lt;math&amp;gt;\times&amp;lt;/math&amp;gt; 1) =  119,65 mmHg.&lt;br /&gt;
&lt;br /&gt;
== Hoe interpreteer ik de resultaten van mijn lineaire model bij een log transformatie van de uitkomstmaat? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik heb een vraag over de interpretatie van de B-waarden in mijn lineaire regressie analyse. De afhankelijke variable is namelijk een log-getransformeerde cortisolwaarde waardoor de B waarde (en wellicht ook de gestandaardiseerde Beta) moeilijker te interpreteren zijn. Ik heb daarom de B-waarden terug getransformeerd (Transformed B (EXP(B-waarde)) en krijg dan waarden rond de 1. &lt;br /&gt;
&#039;&#039;Mijn vraag is nu: hoe leg ik de B-waardes uit tijdens de presentatie op een congres komende week? Normaal gesproken spreek je van bij 1 unit toename in de afhankelijke variabele van ...(B-waarde) afname in cortisol waarde. Zelf dacht ik dat bijvoorbeeld nu Transformed [EXP(beta)] = 0.97, CI (0.95-0.99), p = .027 nu uiteglegd kan worden als:bij iedere unit toename van de afhankelijke variabele geeft een afname van 3% in cortisol. Klopt dit?&lt;br /&gt;
&lt;br /&gt;
Als je een linear model fit om het effect van X op de log-getransformeerde cortisolwaarde te beoordelen, ziet dat er als volgt uit:&lt;br /&gt;
&lt;br /&gt;
log(cortisol) = intercept + B * X&lt;br /&gt;
&lt;br /&gt;
Inderdaad, een unit toename in X geeft B toename van de log(cortisol). Als we dit terug willen vertalen naar &amp;quot;gewone&amp;quot; cortisolwaardes, gebruiken we de inverse van de log:&lt;br /&gt;
&lt;br /&gt;
Exp(log(coritsol)) = exp (intercept + B*SRIP)&lt;br /&gt;
&lt;br /&gt;
Dit is gelijk aan:&lt;br /&gt;
&lt;br /&gt;
cortisol = exp ( intercept + B*SRIP)&lt;br /&gt;
&lt;br /&gt;
Bekijken we nu het verschil in cortisolwaarden bij toename van 1 unit SRIP:&lt;br /&gt;
&lt;br /&gt;
cortisol = exp ( intercept + B*X + B)&lt;br /&gt;
&lt;br /&gt;
Dan is dit gebruik makend van de rekenregels gelijk aan&lt;br /&gt;
&lt;br /&gt;
exp (intercept + B*X) * exp (B) &lt;br /&gt;
&lt;br /&gt;
Nu is het eerste gedeelte van bovenstaande vergelijking precies gelijk aan de cortisolwaarde op het &amp;quot;beginpunt&amp;quot;, dus inderdaad: een unit extra SRIP geeft vermenigvuldiging van de cortisolwaarde met de factor exp(B). En ook inderdaad: indien de exp(B) = 0.97, dan geeft vermenigvuldiging hiermee een afname van 3%.&lt;br /&gt;
&lt;br /&gt;
Je interpretatie was dus juist. (In het bovenstaande ben ik wel vanuit gegaan dat de cortisol waardes met de natuurlijke logaritme getransformeerd zijn en niet bijvoorbeeld met een 10log).&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik lineaire regressie in SPSS? ==&lt;br /&gt;
&lt;br /&gt;
Je vindt lineaire regressie in SPSS 16 onder Analyze -&amp;gt; Regression -&amp;gt; Linear.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=339</id>
		<title>KEUZE TOETS</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=339"/>
		<updated>2009-03-18T12:54:52Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Schema welke toets bij welke vergelijking */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Schema welke toets bij welke vergelijking =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan=&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#d0e5f5;&amp;quot; colspan=&amp;quot;5&amp;quot; |type vergelijking&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot;| 1 groep&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|2 groepen &lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|&amp;gt;2 groepen&lt;br /&gt;
|-&lt;br /&gt;
! vs. referentie&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#d0e5f5;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot;|(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!style= width=&amp;quot;50&amp;quot; height=&amp;quot;100&amp;quot; |normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#one sample t-toets|1 sample t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#gepaarde t-toets|gepaarde t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
[[T-toets#ongepaarde t-toets|ongepaarde t-toets]]&lt;br /&gt;
&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[Herhaalde metingen#linear mixed models|linear mixed models]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[One-way ANOVA]]&lt;br /&gt;
|-&lt;br /&gt;
!style= height=&amp;quot;100&amp;quot; |niet normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; |sign toets&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Wilcoxon signed rank toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Mann-Whitney U toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Friedman toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Kruskal Wallis]]&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot;| categorisch&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; | binair (proportie)&lt;br /&gt;
| style=&amp;quot;&amp;quot; |z-test voor proporties&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot;| [[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|-&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; |nominaal / ordinaal&lt;br /&gt;
| style=&amp;quot;&amp;quot; |x&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars toets /&lt;br /&gt;
[[Wilcoxon signed rank toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] (trend) /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Schema welke analyse bij welke associatie =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan =&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#faecc8;&amp;quot; colspan=&amp;quot;4&amp;quot; |type associatie&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; | crosssectioneel&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; |longitudinaal &lt;br /&gt;
|-&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#faecc8;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot; |(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!height=&amp;quot;100&amp;quot; width=&amp;quot;50&amp;quot;| normaal&lt;br /&gt;
|[[Correlatie#Pearson&#039;s rho|Pearson&#039;s rho]]&lt;br /&gt;
 &lt;br /&gt;
|[[Lineaire regressie]]&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; rowspan=&amp;quot;2&amp;quot;| [[Herhaalde metingen]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |niet &lt;br /&gt;
normaal&lt;br /&gt;
|[[Correlatie#Spearman&#039;s rho|Spearman&#039;s rho]] /&lt;br /&gt;
[[Correlatie#Spearman&#039;s rho|Kendall&#039;s tau]]&lt;br /&gt;
|Niet lineaire regressie&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; | categorisch&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |binair &lt;br /&gt;
(proporties)&lt;br /&gt;
|odds ratio/ risk ratio/&lt;br /&gt;
risk difference&lt;br /&gt;
|[[Logistische regressie]]&lt;br /&gt;
|[[Survival analyse]]&lt;br /&gt;
|[[Survival analyse#Cox regressie|Cox regressie]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot;| nominaal&lt;br /&gt;
/ordinaal&lt;br /&gt;
|x&lt;br /&gt;
|[[multinomiale logistische regressie]]&lt;br /&gt;
/[[ordinale logistische regressie]]&lt;br /&gt;
|x&lt;br /&gt;
|x&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= FAQ nav de twee schema&#039;s =&lt;br /&gt;
&lt;br /&gt;
== Van welk type is mijn uitkomstmaat?==&lt;br /&gt;
== Heb ik gepaarde of ongepaarde data?==&lt;br /&gt;
== Hoe beoordeel ik de normaliteit van mijn data?==&lt;br /&gt;
===Wanneer concludeert de Shapiro Wilk test dat data niet normaal verdeeld is?===&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik dacht dat een Shapiro-Wilk test met p&amp;lt;0.05 betekende dat de data niet normaal verdeeld zijn. Nu heb ik van een collega een syntax ingekeken waar een grens van 0.9 wordt aangehouden. Wat is nou waar?&lt;br /&gt;
&lt;br /&gt;
Formeel gezien, moet je bij een p&amp;lt;0.05 de nul hypothese verwerpen. In jouw geval, zou je dus op basis van de p-waarde moeten besluiten om de data als niet normaal te zien. &lt;br /&gt;
Echter, wanneer je voldoende data hebt, kun je zelfs een irrelevant, maar statistisch significante afwijking van de normale verdeling vinden. De test statistic W van de Shapiro-Wilk test loopt van 0 tot 1, waarbij 1 betekent, dat de data perfect normaal verdeeld zijn. Vaak wordt meer naar deze waarde gekeken, dan naar de p-waarde, waarbij voor de W een ondergrens van 0.90 gehanteerd wordt. Als de test-stastistic W groter is dan 0.90 kan de data als normaal verdeeld beschouwd worden. (Er zijn veel voorbeelden waarbij de W &amp;gt; 0.99 is, terwijl de p &amp;lt; 0.05 is.)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=338</id>
		<title>KEUZE TOETS</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=338"/>
		<updated>2009-03-18T12:54:22Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Schema welke toets bij welke vergelijking */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Schema welke toets bij welke vergelijking =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan=&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#d0e5f5;&amp;quot; colspan=&amp;quot;5&amp;quot; |type vergelijking&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot;| 1 groep&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|2 groepen &lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|&amp;gt;2 groepen&lt;br /&gt;
|-&lt;br /&gt;
! vs. referentie&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#d0e5f5;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot;|(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!style= width=&amp;quot;50&amp;quot; height=&amp;quot;100&amp;quot; |normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#one sample t-toets|1 sample t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#gepaarde t-toets|gepaarde t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
[[T-toets#ongepaarde t-toets|ongepaarde t-toets]]&lt;br /&gt;
&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[Herhaalde metingen#linear mixed models|linear mixed models]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[One-way ANOVA]]&lt;br /&gt;
|-&lt;br /&gt;
!style= height=&amp;quot;100&amp;quot; |niet normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; |sign toets&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Wilcoxon signed rank toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Mann-Whitney U toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Friedman toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Kruskal Wallis]]&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot;| categorisch&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; | binair (proportie)&lt;br /&gt;
| style=&amp;quot;&amp;quot; |z-test voor proporties&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot;| [[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|-&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; |nominaal / ordinaal&lt;br /&gt;
| style=&amp;quot;&amp;quot; |x&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test /&lt;br /&gt;
Wilcoxon signed rank test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] (trend) /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Schema welke analyse bij welke associatie =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan =&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#faecc8;&amp;quot; colspan=&amp;quot;4&amp;quot; |type associatie&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; | crosssectioneel&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; |longitudinaal &lt;br /&gt;
|-&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#faecc8;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot; |(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!height=&amp;quot;100&amp;quot; width=&amp;quot;50&amp;quot;| normaal&lt;br /&gt;
|[[Correlatie#Pearson&#039;s rho|Pearson&#039;s rho]]&lt;br /&gt;
 &lt;br /&gt;
|[[Lineaire regressie]]&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; rowspan=&amp;quot;2&amp;quot;| [[Herhaalde metingen]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |niet &lt;br /&gt;
normaal&lt;br /&gt;
|[[Correlatie#Spearman&#039;s rho|Spearman&#039;s rho]] /&lt;br /&gt;
[[Correlatie#Spearman&#039;s rho|Kendall&#039;s tau]]&lt;br /&gt;
|Niet lineaire regressie&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; | categorisch&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |binair &lt;br /&gt;
(proporties)&lt;br /&gt;
|odds ratio/ risk ratio/&lt;br /&gt;
risk difference&lt;br /&gt;
|[[Logistische regressie]]&lt;br /&gt;
|[[Survival analyse]]&lt;br /&gt;
|[[Survival analyse#Cox regressie|Cox regressie]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot;| nominaal&lt;br /&gt;
/ordinaal&lt;br /&gt;
|x&lt;br /&gt;
|[[multinomiale logistische regressie]]&lt;br /&gt;
/[[ordinale logistische regressie]]&lt;br /&gt;
|x&lt;br /&gt;
|x&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= FAQ nav de twee schema&#039;s =&lt;br /&gt;
&lt;br /&gt;
== Van welk type is mijn uitkomstmaat?==&lt;br /&gt;
== Heb ik gepaarde of ongepaarde data?==&lt;br /&gt;
== Hoe beoordeel ik de normaliteit van mijn data?==&lt;br /&gt;
===Wanneer concludeert de Shapiro Wilk test dat data niet normaal verdeeld is?===&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik dacht dat een Shapiro-Wilk test met p&amp;lt;0.05 betekende dat de data niet normaal verdeeld zijn. Nu heb ik van een collega een syntax ingekeken waar een grens van 0.9 wordt aangehouden. Wat is nou waar?&lt;br /&gt;
&lt;br /&gt;
Formeel gezien, moet je bij een p&amp;lt;0.05 de nul hypothese verwerpen. In jouw geval, zou je dus op basis van de p-waarde moeten besluiten om de data als niet normaal te zien. &lt;br /&gt;
Echter, wanneer je voldoende data hebt, kun je zelfs een irrelevant, maar statistisch significante afwijking van de normale verdeling vinden. De test statistic W van de Shapiro-Wilk test loopt van 0 tot 1, waarbij 1 betekent, dat de data perfect normaal verdeeld zijn. Vaak wordt meer naar deze waarde gekeken, dan naar de p-waarde, waarbij voor de W een ondergrens van 0.90 gehanteerd wordt. Als de test-stastistic W groter is dan 0.90 kan de data als normaal verdeeld beschouwd worden. (Er zijn veel voorbeelden waarbij de W &amp;gt; 0.99 is, terwijl de p &amp;lt; 0.05 is.)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Wilcoxon_signed_rank_toets&amp;diff=337</id>
		<title>Wilcoxon signed rank toets</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Wilcoxon_signed_rank_toets&amp;diff=337"/>
		<updated>2009-03-18T12:51:58Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De Wilcoxon signed rank toets is een niet-parametrische toets voor het vergelijken van een (semi-)continue variabele tussen twee [[KEUZE TOETS#Heb ik gepaarde of ongepaarde data?|gepaarde]] groepen. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de Wilcoxon signed rank toets? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de waardes een van twee maal gemeten, gepaarde, (semi-)continue variabele verschillen, kun je de Wilcoxon signed rank toets gebruiken. Bijvoorbeeld als je wilt testen of de resultaten twee CT scans van een patient van elkaar verschillen.&lt;br /&gt;
&lt;br /&gt;
De Wilcoxon signed rank toets wordt vaak gebruikt als alternatief voor de [[T-toets|gepaarde t-toets]], omdat de Wilcoxon signed rank toets geen normaal verdeelde data veronderstelt. De toets mag altijd gebruikt worden, voor alle [[KEUZE TOETS#Van welk type is mijn uitkomstmaat?|ordinale]] data. &lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de Wilcoxon signed rank toets:&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;4&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. Results of repeated CT scans.&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|scan 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|scan 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|CT measurement&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1004 [565;1222]&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1114 [668;1485]&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.03&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;4&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as median [inter quartile range]. **Differences between the two scans were tested with the Wilcoxon signed rank test.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik de Wilcoxon signed rank toets in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de test in SPSS 16 onder Analyze-&amp;gt;Non-parametric Tests-&amp;gt;2 Related Samples.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=OVERZICHT&amp;diff=331</id>
		<title>OVERZICHT</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=OVERZICHT&amp;diff=331"/>
		<updated>2009-03-17T15:14:16Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{| border =&amp;quot;2&amp;quot; style=&amp;quot;width:850px&amp;quot; align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;8&amp;quot;&lt;br /&gt;
! [[Poweranalyse]]!! Toetsen !! Statistische maten&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
*Benodigde informatie&lt;br /&gt;
*Post hoc poweranalyse&lt;br /&gt;
*Poweranalyse in een equivalentiestudie&lt;br /&gt;
*Poweranalyse in een “clustered” trial&lt;br /&gt;
| &lt;br /&gt;
*[[Fisher&#039;s exact toets]] &lt;br /&gt;
*[[Chi-kwadraat toets]]&lt;br /&gt;
*[[T-toets]]&lt;br /&gt;
*[[Mann-Whitney U toets]]&lt;br /&gt;
*[[Wilcoxon signed rank toets]]&lt;br /&gt;
*[[One-way ANOVA]]&lt;br /&gt;
*[[Kruskal Wallis]]&lt;br /&gt;
*[[Friedman toets]]&lt;br /&gt;
| &lt;br /&gt;
*gemiddelde/ mediaan&lt;br /&gt;
*betrouwbaarheidsinterval&lt;br /&gt;
*[[odds ratio]]&lt;br /&gt;
|-&lt;br /&gt;
! Regressieanalyse!! [[Herhaalde metingen]]!! [[Survival analyse]]&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
*[[Lineaire regressie]]&lt;br /&gt;
*[[Logistische regressie]]&lt;br /&gt;
*[[Multivariabele regressie]]&lt;br /&gt;
| &lt;br /&gt;
*[[Herhaalde metingen#linear mixed models|linear mixed models]]&lt;br /&gt;
*[[Herhaalde metingen#repeated measurements ANOVA|repeated measurements ANOVA]]&lt;br /&gt;
*[[Herhaalde metingen#area under the curve|area under the curve]]&lt;br /&gt;
| &lt;br /&gt;
*[[Survival analyse#kaplan meier|Kaplan Meier]]&lt;br /&gt;
*[[Survival analyse#cox regressieanalyse|Cox regressie]]&lt;br /&gt;
|-&lt;br /&gt;
! [[Correlatie]]!! Studieontwerp!! Overig&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
*[[Correlatie#Pearson&#039;s r|Pearson&#039;s r]]&lt;br /&gt;
*[[Correlatie#Spearman’s rho|Spearman&#039;s rho]]&lt;br /&gt;
*[[Correlatie#intra class correlatie (icc)|intra class correlatie (icc)]]&lt;br /&gt;
*[[Correlatie#biseriele correlatie|biseriele correlatie]]&lt;br /&gt;
*[[inter-oberver agreement#kappa|kappa]]&lt;br /&gt;
| &lt;br /&gt;
*[[observationeel onderzoek]]&lt;br /&gt;
*[[experimenteel onderzoek]]&lt;br /&gt;
*[[diagnostisch onderzoek]]&lt;br /&gt;
*Meta-analyse&lt;br /&gt;
| &lt;br /&gt;
*[[interimanalyse]]&lt;br /&gt;
*[[matchen]]&lt;br /&gt;
*[[multiple testing]]&lt;br /&gt;
*missende waardes&lt;br /&gt;
*randomiseren&lt;br /&gt;
*[[statistische software]]&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het bepalen van een geschikte analyse voor je data.&lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=330</id>
		<title>Multivariabele regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=330"/>
		<updated>2009-03-17T15:02:06Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bij een multivariabele regressie worden er meerdere voorspellers tegelijkertijd gerelateerd aan de uitkomstmaat. Vaak wordt een multivariabel regressiemodel gebruikt om te corrigeren voor mogelijke confounders.&lt;br /&gt;
&lt;br /&gt;
== Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Voor een van mijn studies heb ik een logistische regressie analyse gedaan. Mijn outcome is een dichotome variabele: 1 is verbetering 0 is geen verbetering. Vervolgens wil ik weten of leeftijd en bepaalde genetische afwijkingen wel of geen invloed op die outcome hebben. Als ik alleen leeftijd toevoeg aan mijn model komt deze als zeer zeer significant uit de bus. Als ik daar dan vervolgens de genetische variabelen aan toevoeg, verdwijnt de significantie van age als predictor (p=0.054) en zijn alleen de genetische variabelen significante predictoren. Mijn vraag is nu, hoe moet ik dit interpreteren? &lt;br /&gt;
&lt;br /&gt;
Als variabelen in je model zitten, maar ze zijn niet significant, dan betekent het dat ze geen significante associatie hebben met de uitkomstmaat, rekeninghoudend met het effect van de andere variabelen die op dat moment in je model zitten (dus conditioneel op die variabelen). Bij jou lijkt het er op dat het effect leeftijd gecorrigeerd voor de andere covariaten geen significant effect (bij een signniveau van 5%) heeft op de uitkomstmaat. Dit kan door twee zaken beïnvloed worden. Of de andere covariaten vagen het effect van leeftijd weg, of er is niet genoeg data om het effect van leeftijd als significant te bestempelen. Ook al is het conditionele verband even groot als het onconditionele, dan nog is vaak de precisie van het conditionele model minder groot (bredere [[betrouwbaarheidsinterval|betrouwbaarheidsintervallen]]), doordat men in een model meerdere verbanden schat en daardoor minder kracht heeft effecten aan te wijzen. Door niet alleen naar de p-waarde, maar ook naar het confidence interval te kijken, ben je iets minder afhankelijk van de harde (maar willekeurige) 5% grens.&lt;br /&gt;
&lt;br /&gt;
== Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik heb 90 patienten waarbij ik baseline parameters heb verzamled (9 lab parameters en 13 klinische parameters). Met een non-parameterische test heb ik gevonden dat 1 lab parameter en enkele klinische parameters verschillend zijn tussen beide uitkomst groepen (=diagnose wel/niet na 2 jaar). Nu wilde ik kijken welke parameters het beste voorspellend zijn voor uitkomst. Ik heb backward logistische regressie gedaan met de parameters die eerder een significant verschil lieten zien, maar ik weet niet zeker of dit de beste keuze is. Mogelijk moet het anders of moeten er meer parameters in of moeten parameters gecombineerd worden?&lt;br /&gt;
&lt;br /&gt;
In jouw geval waarin je 90 patienten hebt en het effect van 21 (9+13) variabelen wilt testen, heb je niet genoeg patienten om al deze variabelen in 1 multivariabel model te testen (hetgeen natuurlijk het mooist zou zijn). Er moet dus een keuze gemaakt worden welke variabelen meegegeven gaan worden in een multivariabel model. Er bestaat geen consensus over de beste wijze om variabelen te selecteren, maar de keuze maak je altijd op basis van twee criteria:&lt;br /&gt;
*1. Van welke variabelen verwacht ik een effect / welke variabelen vind ik relevant?&lt;br /&gt;
*2. Voor welke variabelen geeft de data aan dat er een effect zou kunnen optreden?&lt;br /&gt;
Wat jij hebt gedaan is een soort univariabele preselectie van variabelen die je vervolgens in een multivariabel model meeneemt. Hoewel er methodologische nadelen te noemen zijn van deze aanpak, is het een veel gebruikte. Hierbij probeer je vraag 2 te beantwoorden. Je beschrijft echter dat je deze preselectie op basis van een niet-parametrische toets hebt gedaan, en dus niet op basis van hetzelfde (logistische?) model als waarin je de multivariabele analyse hebt gedaan. Als je hetzelfde model gebruikt, zou het de analyse consistenter maken. Verder is het zaak om bij de preselectie niet te streng te zijn met afwijzing. Een p-waarde van 0,10 of 0,20 zou hiervoor aangehouden kunnen worden. Je uiteindelijke conclusies zullen gebaseerd zijn op het multivariabele model waar je wel met een gebruikelijke strenge p-waarde kunt rekenen.&lt;br /&gt;
Kijk ook nog eens kritisch naar de variabelen in het kader van vraag 1. Het combineren van variabelen ten slotte is ook een goede manier om het aantal te testen variabelen te verkleinen.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=329</id>
		<title>Multivariabele regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=329"/>
		<updated>2009-03-17T15:01:00Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bij een multivariabele regressie worden er meerdere voorspellers tegelijkertijd gerelateerd aan de uitkomstmaat. Vaak wordt een multivariabel regressiemodel gebruikt om te corrigeren voor mogelijke confounders.&lt;br /&gt;
&lt;br /&gt;
== Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Voor een van mijn studies heb ik een logistische regressie analyse gedaan. Mijn outcome is een dichotome variabele: 1 is verbetering 0 is geen verbetering. Vervolgens wil ik weten of leeftijd en bepaalde genetische afwijkingen wel of geen invloed op die outcome hebben. Als ik alleen leeftijd toevoeg aan mijn model komt deze als zeer zeer significant uit de bus. Als ik daar dan vervolgens de genetische variabelen aan toevoeg, verdwijnt de significantie van age als predictor (p=0.054) en zijn alleen de genetische variabelen significante predictoren. Mijn vraag is nu, hoe moet ik dit interpreteren? &lt;br /&gt;
&lt;br /&gt;
Als variabelen in je model zitten, maar ze zijn niet significant, dan betekent het dat ze geen significante associatie hebben met de uitkomstmaat, rekeninghoudend met het effect van de andere variabelen die op dat moment in je model zitten (dus conditioneel op die variabelen). Bij jou lijkt het er op dat het effect leeftijd gecorrigeerd voor de andere covariaten geen significant effect (bij een signniveau van 5%) heeft op de uitkomstmaat. Dit kan door twee zaken beïnvloed worden. Of de andere covariaten vagen het effect van leeftijd weg, of er is niet genoeg data om het effect van leeftijd als significant te bestempelen. Ook al is het conditionele verband even groot als het onconditionele, dan nog is vaak de precisie van het conditionele model minder groot (bredere [[betrouwbaarheidsinterval|betrouwbaarheidsintervallen]]), doordat men in een model meerdere verbanden schat en daardoor minder kracht heeft effecten aan te wijzen. Door niet alleen naar de p-waarde, maar ook naar het confidence interval te kijken, ben je iets minder afhankelijk van de harde (maar willekeurige) 5% grens.&lt;br /&gt;
&lt;br /&gt;
== Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik heb 90 patienten waarbij ik baseline parameters heb verzamled (9 lab parameters en 13 klinische parameters). Met een non-parameterische test heb ik gevonden dat 1 lab parameter en enkele klinische parameters verschillend zijn tussen beide uitkomst groepen (=diagnose wel/niet na 2 jaar). Nu wilde ik kijken welke parameters het beste voorspellend zijn voor uitkomst. Ik heb backward logistische regressie gedaan met de parameters die eerder een significant verschil lieten zien, maar ik weet niet zeker of dit de beste keuze is. Mogelijk moet het anders of moeten er meer parameters in of moeten parameters gecombineerd worden?&lt;br /&gt;
&lt;br /&gt;
In jouw geval waarin je 90 patienten hebt en het effect van 21 (9+13) variabelen wilt testen, heb je niet genoeg patienten om al deze variabelen in 1 multivariabel model te testen (hetgeen natuurlijk het mooist zou zijn). Er moet dus een keuze gemaakt worden welke variabelen meegegeven gaan worden in een multivariabel model. Er bestaat geen consensus over de beste wijze om variabelen te selecteren, maar de keuze maak je altijd op basis van twee criteria:&lt;br /&gt;
*1. Van welke variabelen verwacht ik een effect / welke variabelen vind ik relevant?&lt;br /&gt;
*2. Voor welke variabelen geeft de data aan dat er een effect zou kunnen optreden?&lt;br /&gt;
Wat jij hebt gedaan is een soort univariabele preselectie van variabelen die je vervolgens in een multivariabel model meeneemt. Hoewel er methodologische nadelen te noemen zijn van deze aanpak, is het een veel gebruikte. Hierbij probeer je vraag 2 te beantwoorden. Je beschrijft echter dat je deze preselectie op basis van een niet-parametrische toets hebt gedaan, en dus niet op basis van hetzelfde (logistische?) model als waarin je de multivariabele analyse hebt gedaan. Als je hetzelfde model gebruikt, zou het de analyse consistenter maken. Verder is het zaak om bij de preselectie niet te streng te zijn met afwijzing. Een p-waarde van 0,10 of 0,20 zou hiervoor aangehouden kunnen worden. Je uiteindelijke conclusies zullen gebaseerd zijn op het multivariabele model waar je wel met een gebruikelijke strenge p-waarde kunt rekenen.&lt;br /&gt;
Kijk ook nog eens kritisch naar de variabelen in het kader van vraag 1. Het combineren van variabelen is ook een goede manier om het aantal te testen variabelen te verkleinen.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=328</id>
		<title>Multivariabele regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=328"/>
		<updated>2009-03-17T14:59:26Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bij een multivariabele regressie worden er meerdere voorspellers tegelijkertijd gerelateerd aan de uitkomstmaat. Vaak wordt een multivariabel regressiemodel gebruikt om te corrigeren voor mogelijke confounders.&lt;br /&gt;
&lt;br /&gt;
== Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Voor een van mijn studies heb ik een logistische regressie analyse gedaan. Mijn outcome is een dichotome variabele: 1 is verbetering 0 is geen verbetering. Vervolgens wil ik weten of leeftijd en bepaalde genetische afwijkingen wel of geen invloed op die outcome hebben. Als ik alleen leeftijd toevoeg aan mijn model komt deze als zeer zeer significant uit de bus. Als ik daar dan vervolgens de genetische variabelen aan toevoeg, verdwijnt de significantie van age als predictor (p=0.054) en zijn alleen de genetische variabelen significante predictoren. Mijn vraag is nu, hoe moet ik dit interpreteren? &lt;br /&gt;
&lt;br /&gt;
Als variabelen in je model zitten, maar ze zijn niet significant, dan betekent het dat ze geen significante associatie hebben met de uitkomstmaat, rekeninghoudend met het effect van de andere variabelen die op dat moment in je model zitten (dus conditioneel op die variabelen). Bij jou lijkt het er op dat het effect leeftijd gecorrigeerd voor de andere covariaten geen significant effect (bij een signniveau van 5%) heeft op de uitkomstmaat. Dit kan door twee zaken beïnvloed worden. Of de andere covariaten vagen het effect van leeftijd weg, of er is niet genoeg data om het effect van leeftijd als significant te bestempelen. Ook al is het conditionele verband even groot als het onconditionele, dan nog is vaak de precisie van het conditionele model minder groot (bredere [[betrouwbaarheidsinterval|betrouwbaarheidsintervallen]]), doordat men in een model meerdere verbanden schat en daardoor minder kracht heeft effecten aan te wijzen. Door niet alleen naar de p-waarde, maar ook naar het confidence interval te kijken, ben je iets minder afhankelijk van de harde (maar willekeurige) 5% grens.&lt;br /&gt;
&lt;br /&gt;
== Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik heb 90 patienten waarbij ik baseline parameters heb verzamled (9 lab parameters en 13 klinische parameters). Met een non-parameterische test heb ik gevonden dat 1 lab parameter en enkele klinische parameters verschillend zijn tussen beide uitkomst groepen (=diagnose wel/niet na 2 jaar). Nu wilde ik kijken welke parameters het beste voorspellend zijn voor uitkomst. Ik heb backward logistische regressie gedaan met de parameters die eerder een significant verschil lieten zien, maar ik weet niet zeker of dit de beste keuze is. Mogelijk moet het anders of moeten er meer parameters in of moeten parameters gecombineerd worden?&lt;br /&gt;
&lt;br /&gt;
In jouw geval waarin je 90 patienten hebt en het effect van 21 (9+13) variabelen wilt testen, heb je niet genoeg patienten om al deze variabelen in 1 multivariabel model te testen (hetgeen natuurlijk het mooist zou zijn). Er moet dus een keuze gemaakt worden welke variabelen meegegeven gaan worden in een multivariabel model. Die keuze maak je altijd op basis van twee criteria:&lt;br /&gt;
*1. Van welke variabelen verwacht ik een effect / welke variabelen vind ik relevant?&lt;br /&gt;
*2. Voor welke variabelen geeft de data aan dat er een effect zou kunnen optreden?&lt;br /&gt;
Wat jij hebt gedaan is een soort univariabele preselectie van variabelen die je vervolgens in een multivariabel model meeneemt. Hoewel er methodologische nadelen te noemen zijn van deze aanpak, is het een veel gebruikte. Hierbij probeer je vraag 2 te beantwoorden. Je beschrijft echter dat je deze preselectie op basis van een niet-parametrische toets hebt gedaan, en dus niet op basis van hetzelfde (logistische?) model als waarin je de multivariabele analyse hebt gedaan. Als je hetzelfde model gebruikt, zou het de analyse consistenter maken. Verder is het zaak om bij de preselectie niet te streng te zijn met afwijzing. Een p-waarde van 0,10 of 0,20 zou hiervoor aangehouden kunnen worden. Je uiteindelijke conclusies zullen gebaseerd zijn op het multivariabele model waar je wel met een gebruikelijke strenge p-waarde kunt rekenen.&lt;br /&gt;
Kijk ook nog eens kritisch naar de variabelen in het kader van vraag 1. Het combineren van variabelen is ook een goede manier om het aantal te testen variabelen te verkleinen.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=327</id>
		<title>Multivariabele regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=327"/>
		<updated>2009-03-17T14:58:36Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bij een multivariabele regressie worden er meerdere voorspellers tegelijkertijd gerelateerd aan de uitkomstmaat. Vaak wordt een multivariabel regressiemodel gebruikt om te corrigeren voor mogelijke confounders.&lt;br /&gt;
&lt;br /&gt;
== Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Voor een van mijn studies heb ik een logistische regressie analyse gedaan. Mijn outcome is een dichotome variabele: 1 is verbetering 0 is geen verbetering. Vervolgens wil ik weten of leeftijd en bepaalde genetische afwijkingen wel of geen invloed op die outcome hebben. Als ik alleen leeftijd toevoeg aan mijn model komt deze als zeer zeer significant uit de bus. Als ik daar dan vervolgens de genetische variabelen aan toevoeg, verdwijnt de significantie van age als predictor (p=0.054) en zijn alleen de genetische variabelen significante predictoren. Mijn vraag is nu, hoe moet ik dit interpreteren? &lt;br /&gt;
&lt;br /&gt;
Als variabelen in je model zitten, maar ze zijn niet significant, dan betekent het dat ze geen significante associatie hebben met de uitkomstmaat, rekeninghoudend met het effect van de andere variabelen die op dat moment in je model zitten (dus conditioneel op die variabelen). Bij jou lijkt het er op dat het effect leeftijd gecorrigeerd voor de andere covariaten geen significant effect (bij een signniveau van 5%) heeft op de uitkomstmaat. Dit kan door twee zaken beïnvloed worden. Of de andere covariaten vagen het effect van leeftijd weg, of er is niet genoeg data om het effect van leeftijd als significant te bestempelen. Ook al is het conditionele verband even groot als het onconditionele, dan nog is vaak de precisie van het conditionele model minder groot (bredere [[betrouwbaarheidsinterval|betrouwbaarheidsintervallen]]), doordat men in een model meerdere verbanden moet schat en daardoor minder kracht heeft effecten aan te wijzen.&lt;br /&gt;
Door niet alleen naar de p-waarde, maar ook naar het confidence interval te kijken, ben je iets minder afhankelijk van de harde (maar willekeurige) 5% grens.&lt;br /&gt;
&lt;br /&gt;
== Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik heb 90 patienten waarbij ik baseline parameters heb verzamled (9 lab parameters en 13 klinische parameters). Met een non-parameterische test heb ik gevonden dat 1 lab parameter en enkele klinische parameters verschillend zijn tussen beide uitkomst groepen (=diagnose wel/niet na 2 jaar). Nu wilde ik kijken welke parameters het beste voorspellend zijn voor uitkomst. Ik heb backward logistische regressie gedaan met de parameters die eerder een significant verschil lieten zien, maar ik weet niet zeker of dit de beste keuze is. Mogelijk moet het anders of moeten er meer parameters in of moeten parameters gecombineerd worden?&lt;br /&gt;
&lt;br /&gt;
In jouw geval waarin je 90 patienten hebt en het effect van 21 (9+13) variabelen wilt testen, heb je niet genoeg patienten om al deze variabelen in 1 multivariabel model te testen (hetgeen natuurlijk het mooist zou zijn). Er moet dus een keuze gemaakt worden welke variabelen meegegeven gaan worden in een multivariabel model. Die keuze maak je altijd op basis van twee criteria:&lt;br /&gt;
*1. Van welke variabelen verwacht ik een effect / welke variabelen vind ik relevant?&lt;br /&gt;
*2. Voor welke variabelen geeft de data aan dat er een effect zou kunnen optreden?&lt;br /&gt;
Wat jij hebt gedaan is een soort univariabele preselectie van variabelen die je vervolgens in een multivariabel model meeneemt. Hoewel er methodologische nadelen te noemen zijn van deze aanpak, is het een veel gebruikte. Hierbij probeer je vraag 2 te beantwoorden. Je beschrijft echter dat je deze preselectie op basis van een niet-parametrische toets hebt gedaan, en dus niet op basis van hetzelfde (logistische?) model als waarin je de multivariabele analyse hebt gedaan. Als je hetzelfde model gebruikt, zou het de analyse consistenter maken. Verder is het zaak om bij de preselectie niet te streng te zijn met afwijzing. Een p-waarde van 0,10 of 0,20 zou hiervoor aangehouden kunnen worden. Je uiteindelijke conclusies zullen gebaseerd zijn op het multivariabele model waar je wel met een gebruikelijke strenge p-waarde kunt rekenen.&lt;br /&gt;
Kijk ook nog eens kritisch naar de variabelen in het kader van vraag 1. Het combineren van variabelen is ook een goede manier om het aantal te testen variabelen te verkleinen.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=326</id>
		<title>Multivariabele regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=326"/>
		<updated>2009-03-17T14:58:17Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bij een multivariabele regressie worden er meerdere voorspellers tegelijkertijd gerelateerd aan de uitkomstmaat. Vaak wordt een multivariabel regressiemodel gebruikt om te corrigeren voor mogelijke confounders.&lt;br /&gt;
&lt;br /&gt;
== Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Voor een van mijn studies heb ik een logistische regressie analyse gedaan. Mijn outcome is een dichotome variabele: 1 is verbetering 0 is geen verbetering. Vervolgens wil ik weten of leeftijd en bepaalde genetische afwijkingen wel of geen invloed op die outcome hebben. Als ik alleen leeftijd toevoeg aan mijn model komt deze als zeer zeer significant uit de bus. Als ik daar dan vervolgens de genetische variabelen aan toevoeg, verdwijnt de significantie van age als predictor (p=0.054) en zijn alleen de genetische variabelen significante predictoren. Mijn vraag is nu, hoe moet ik dit interpreteren? &lt;br /&gt;
&lt;br /&gt;
Als variabelen in je model zitten, maar ze zijn niet significant, dan betekent het dat ze geen significante associatie hebben met de uitkomstmaat rekeninghoudend met het effect van de andere variabelen die op dat moment in je model zitten (dus conditioneel op die variabelen). Bij jou lijkt het er op dat het effect leeftijd gecorrigeerd voor de andere covariaten geen significant effect (bij een signniveau van 5%) heeft op de uitkomstmaat. Dit kan door twee zaken beïnvloed worden. Of de andere covariaten vagen het effect van leeftijd weg, of er is niet genoeg data om het effect van leeftijd als significant te bestempelen. Ook al is het conditionele verband even groot als het onconditionele, dan nog is vaak de precisie van het conditionele model minder groot (bredere [[betrouwbaarheidsinterval|betrouwbaarheidsintervallen]]), doordat men in een model meerdere verbanden moet schat en daardoor minder kracht heeft effecten aan te wijzen.&lt;br /&gt;
Door niet alleen naar de p-waarde, maar ook naar het confidence interval te kijken, ben je iets minder afhankelijk van de harde (maar willekeurige) 5% grens.&lt;br /&gt;
&lt;br /&gt;
== Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik heb 90 patienten waarbij ik baseline parameters heb verzamled (9 lab parameters en 13 klinische parameters). Met een non-parameterische test heb ik gevonden dat 1 lab parameter en enkele klinische parameters verschillend zijn tussen beide uitkomst groepen (=diagnose wel/niet na 2 jaar). Nu wilde ik kijken welke parameters het beste voorspellend zijn voor uitkomst. Ik heb backward logistische regressie gedaan met de parameters die eerder een significant verschil lieten zien, maar ik weet niet zeker of dit de beste keuze is. Mogelijk moet het anders of moeten er meer parameters in of moeten parameters gecombineerd worden?&lt;br /&gt;
&lt;br /&gt;
In jouw geval waarin je 90 patienten hebt en het effect van 21 (9+13) variabelen wilt testen, heb je niet genoeg patienten om al deze variabelen in 1 multivariabel model te testen (hetgeen natuurlijk het mooist zou zijn). Er moet dus een keuze gemaakt worden welke variabelen meegegeven gaan worden in een multivariabel model. Die keuze maak je altijd op basis van twee criteria:&lt;br /&gt;
*1. Van welke variabelen verwacht ik een effect / welke variabelen vind ik relevant?&lt;br /&gt;
*2. Voor welke variabelen geeft de data aan dat er een effect zou kunnen optreden?&lt;br /&gt;
Wat jij hebt gedaan is een soort univariabele preselectie van variabelen die je vervolgens in een multivariabel model meeneemt. Hoewel er methodologische nadelen te noemen zijn van deze aanpak, is het een veel gebruikte. Hierbij probeer je vraag 2 te beantwoorden. Je beschrijft echter dat je deze preselectie op basis van een niet-parametrische toets hebt gedaan, en dus niet op basis van hetzelfde (logistische?) model als waarin je de multivariabele analyse hebt gedaan. Als je hetzelfde model gebruikt, zou het de analyse consistenter maken. Verder is het zaak om bij de preselectie niet te streng te zijn met afwijzing. Een p-waarde van 0,10 of 0,20 zou hiervoor aangehouden kunnen worden. Je uiteindelijke conclusies zullen gebaseerd zijn op het multivariabele model waar je wel met een gebruikelijke strenge p-waarde kunt rekenen.&lt;br /&gt;
Kijk ook nog eens kritisch naar de variabelen in het kader van vraag 1. Het combineren van variabelen is ook een goede manier om het aantal te testen variabelen te verkleinen.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=325</id>
		<title>Multivariabele regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Multivariabele_regressie&amp;diff=325"/>
		<updated>2009-03-17T14:57:40Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Bij een multivariabele regressie worden er meerdere voorspellers tegelijkertijd gerelateerd aan de uitkomstmaat. Vaak wordt een multivariabel regressiemodel gebruikt om te corrigeren voor mogelijke confounders.&lt;br /&gt;
&lt;br /&gt;
== Hoe interpreteer ik een verschillende uitkomst in een univariabel en multivariabel model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Voor een van mijn studies heb ik een logistische regressie analyse gedaan. Mijn outcome is een dichotome variabele: 1 is verbetering 0 is geen verbetering. Vervolgens wil ik weten of leeftijd en bepaalde genetische afwijkingen wel of geen invloed op die outcome hebben. Als ik alleen leeftijd toevoeg aan mijn model komt deze als zeer zeer significant uit de bus. Als ik daar dan vervolgens de genetische variabelen aan toevoeg, verdwijnt de significantie van age als predictor (p=0.054) en zijn alleen de genetische variaelen significante predictoren. Mijn vraag is nu, hoe moet ik dit interpreteren? &lt;br /&gt;
&lt;br /&gt;
Als variabelen in je model zitten, maar ze zijn niet significant, dan betekent het dat ze geen significante associatie hebben met de uitkomstmaat rekeninghoudend met het effect van de andere variabelen die op dat moment in je model zitten (dus conditioneel op die variabelen). Bij jou lijkt het er op dat het effect leeftijd gecorrigeerd voor de andere covariaten geen significant effect (bij een signniveau van 5%) heeft op de uitkomstmaat. Dit kan door twee zaken beïnvloed worden. Of de andere covariaten vagen het effect van leeftijd weg, of er is niet genoeg data om het effect van leeftijd als significant te bestempelen. Ook al is het conditionele verband even groot als het onconditionele, dan nog is vaak de precisie van het conditionele model minder groot (bredere [[betrouwbaarheidsinterval|betrouwbaarheidsintervallen]]), doordat men in een model meerdere verbanden moet schat en daardoor minder kracht heeft effecten aan te wijzen.&lt;br /&gt;
Door niet alleen naar de p-waarde, maar ook naar het confidence interval te kijken, ben je iets minder afhankelijk van de harde (maar willekeurige) 5% grens.&lt;br /&gt;
&lt;br /&gt;
== Hoe kies ik welke variabelen ik meeneem in mijn multivariabele model? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik heb 90 patienten waarbij ik baseline parameters heb verzamled (9 lab parameters en 13 klinische parameters). Met een non-parameterische test heb ik gevonden dat 1 lab parameter en enkele klinische parameters verschillend zijn tussen beide uitkomst groepen (=diagnose wel/niet na 2 jaar). Nu wilde ik kijken welke parameters het beste voorspellend zijn voor uitkomst. Ik heb backward logistische regressie gedaan met de parameters die eerder een significant verschil lieten zien, maar ik weet niet zeker of dit de beste keuze is. Mogelijk moet het anders of moeten er meer parameters in of moeten parameters gecombineerd worden?&lt;br /&gt;
&lt;br /&gt;
In jouw geval waarin je 90 patienten hebt en het effect van 21 (9+13) variabelen wilt testen, heb je niet genoeg patienten om al deze variabelen in 1 multivariabel model te testen (hetgeen natuurlijk het mooist zou zijn). Er moet dus een keuze gemaakt worden welke variabelen meegegeven gaan worden in een multivariabel model. Die keuze maak je altijd op basis van twee criteria:&lt;br /&gt;
*1. Van welke variabelen verwacht ik een effect / welke variabelen vind ik relevant?&lt;br /&gt;
*2. Voor welke variabelen geeft de data aan dat er een effect zou kunnen optreden?&lt;br /&gt;
Wat jij hebt gedaan is een soort univariabele preselectie van variabelen die je vervolgens in een multivariabel model meeneemt. Hoewel er methodologische nadelen te noemen zijn van deze aanpak, is het een veel gebruikte. Hierbij probeer je vraag 2 te beantwoorden. Je beschrijft echter dat je deze preselectie op basis van een niet-parametrische toets hebt gedaan, en dus niet op basis van hetzelfde (logistische?) model als waarin je de multivariabele analyse hebt gedaan. Als je hetzelfde model gebruikt, zou het de analyse consistenter maken. Verder is het zaak om bij de preselectie niet te streng te zijn met afwijzing. Een p-waarde van 0,10 of 0,20 zou hiervoor aangehouden kunnen worden. Je uiteindelijke conclusies zullen gebaseerd zijn op het multivariabele model waar je wel met een gebruikelijke strenge p-waarde kunt rekenen.&lt;br /&gt;
Kijk ook nog eens kritisch naar de variabelen in het kader van vraag 1. Het combineren van variabelen is ook een goede manier om het aantal te testen variabelen te verkleinen.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Multinomiale_logistische_regressie&amp;diff=323</id>
		<title>Multinomiale logistische regressie</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Multinomiale_logistische_regressie&amp;diff=323"/>
		<updated>2009-03-12T14:12:41Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hebben wij een multinomiaal logistisch regressiemodel nodig? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Een multinomiaal logistische regressie model wordt gebruikt om het effect van voorspellers op een nomiale uitkomstmaat te analyseren. De uitkomstmaat bestaat dus uit (meer dan twee) categorien, die niet een logische ordening hebben. &lt;br /&gt;
&lt;br /&gt;
== Hebben wij een multinomiaal logistisch regressiemodel nodig?==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;We hebben een ordinale uitkomstmaat (tumorgraad 1,2,of 3) en een lineaire continue voorspeller (attenuatiecoefficient). Wij zouden graag een model ontwikkelen om obv de bekende attenuatiecoefficient te kunnen bepalen in welke categorie graad &lt;br /&gt;
deze tumor zal vallen. Onze gedachte was dat we hiervoor een multinomiale logistische &lt;br /&gt;
regressie moeten doen. Is dat juist en zijn er ook andere mogelijkheden?&lt;br /&gt;
&lt;br /&gt;
Het is inderdaad mogelijk om met een multinomiaal logistisch regressiemodel het mogelijke effect van een continue voorspeller op een ordinale uitkomstmaat te analyseren. Let wel op het volgende: dit model houdt geen rekening met de geordendheid van de categorien. De tumorgraad 1 2 3 zou dus bij wijze van spreke ook rood groen blauw kunnen heten, zonder duidelijke volgorde. Indien het model graad 2 voorspelt ipv graad 3 is dit &amp;quot;evenveel fout&amp;quot; als het voorspellen van graad 1 ipv graad 3. Om ook met de geordendheid van de categorien rekening te houden, zou je een [[ordinale logistische regressie]] kunnen doen. &lt;br /&gt;
&lt;br /&gt;
Bij beide modellen echter blijven de geschatte parameters altijd wat ver afstaan van de &amp;quot;klinische interpretatie&amp;quot; van het probleem. Jullie zouden daarom ook kunnen overwegen de assen om te draaien en -bijvoorbeeld in een (boxplotachtige) grafiek- de attenuatiecoefficient uit te zetten voor de drie verschillende groepen. Daarbij zou je met een [[One-way ANOVA|ANOVA]] / [[Kruskal Wallis]] het verschil tussen de drie groepen aan kunnen geven. Deze aanpak draait de relatie in zeker opzicht om, het berekent namelijk het verschil veroorzaakt door de tumorgroep in de uitkomstmaat attenuatiecoefficient. Maar de analysemethode is wel een stuk helderder/bekender. Let op: je loopt met deze aanpak vast als je ook andere predictors dan attenuatiecoefficient wilt meenemen in het model.&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=322</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=322"/>
		<updated>2009-03-12T11:53:43Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Wanneer gebruik ik de One-way ANOVA? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toetsings procedure voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA toetst of de gemiddelden van 2 of meer onafhankelijke groepen gelijk zijn. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van 2 of meer groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. In de regel wordt de One-way ANOVA alleen gebruikt bij het vergelijken van minstens 3 groepen. Voor de vergelijking van twee groepen is de One-way ANOVA gelijk aan het uitvoeren van een [[t-toets#ongepaarde t-toets | ongepaarde t-toets]]. &lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn (in iedere groep heeft de variabele een normale verdeling). Er wordt vervolgens getoetst of de gemiddelden van deze verdelingen gelijk zijn of niet. De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. Indien niet aan deze voorwaarden voldaan is, kan een niet parametrische [[Kruskall Wallis]] analyse overwogen worden.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
Stel je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
== Wat doe ik als mijn data niet voldoen aan de assumptie van gelijke varianties in de groepen? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Wij hebben een dierexperimentele studie waarbij ratten met verschillende strategieen zijn beademend en al dan niet een medicamenteuze voorbehandeling hebben gekregen. In ieder van de 4 experimentele groepen zijn 6 ratten geincludeerd. Ik heb de one-way ANOVA gebruikt indien de test voor gelijke varianties (Bartlett&#039;s test for equal variances) geen significante waarde opleverde. Indien de p-waarde van deze test &amp;lt;0.05 was, heb ik een log transformatie op de data toegepast en de ANOVA analyse hierop gerund. Indien de p-waarde na transformatie nog steeds ruim onder de 0.05 was, heb ik de Kruskall-Wallis analyse gebruikt. Volgens de checklist die GraphPad Prism levert, zou dit statistisch verantwoord zijn. Over 1 analyse heb ik echter een vraag. De Bartlett&#039;s test geeft nl een waarde van p&amp;lt;0.0001 indien de data niet getransformeerd zijn en na log transformatie een waarde van 0.0318. Zowel de ANOVA als Kruskal-Wallis geeft een statistisch verschil aan tussen de verschillende experimentele groepen maar de post-hoc analyses verschillen behoorlijk, waarbij bij de non-parametrische test in de post-hoc analyse (Dunns test) nagenoeg geen verschillen tussen de groepen aangeeft. &lt;br /&gt;
&#039;&#039;Nu zegt de uitleg die bij het programma wordt geleverd, dat je kritisch moet kijken of je de ANOVA verwerpt indien de Bartlett&#039;s test niet veel onder de 0.05 uitkomt, aangezien bij kleine aantallen de Kruskall-Wallis niet zo&#039;n krachtige test is. Kan ik dit inderdaad doen, want als ik naar de grafieken kijk, geeft de post-hoc analyse van de ANOVA (de Newman-Keuls test) een uitslag die veel meer bij de visuele data past?&lt;br /&gt;
&lt;br /&gt;
Je verhaal klopt. Testen voor gelijke varianties zijn soms streng (met name bij de kleine aantallen). Een p-waarde van 0.04 zit dicht bij je grens waarbij je het wel mag accepteren. Ik zou inderdaad naar de ruwe (log) waardes kijken en me afvragen wat je daar ziet. Bij kleine aantallen kunnen met name outliers zorgen voor andere resultaten. Je zou daar dus nog naar kunnen kijken. Als je inderdaad een enorme outlier hebt, zou je eens moeten kijken als die eruit is of je ANOVA van de ln waarde dan nog steeds significant is.&lt;br /&gt;
Non-parametrisch is inderdaad vaak strenger (en dus minder snel significant) dan paramtetrisch, maar wordt ook veel minder door outliers beinvloed.&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik de One-way ANOVA in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Kruskal_Wallis&amp;diff=321</id>
		<title>Kruskal Wallis</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Kruskal_Wallis&amp;diff=321"/>
		<updated>2009-03-12T11:22:39Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Wanneer gebruik ik Kruskal Wallis? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De Kruskal-Wallis one-way analysis of variance by ranks is een niet parametrische toetsings procedure voor het testen van hypothesen over de medianen van (semi-continue) data. De Kruskal Wallis toetst of de medianen van 2 of meer onafhankelijke groepen gelijk zijn. Intuitief is de Kruskal Wallis gelijk aan een [[One-way ANOVA]], waarbij de data vervangen zijn door hun rangpositie.&lt;br /&gt;
&lt;br /&gt;
==Wanneer gebruik ik Kruskal Wallis?==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de medianen van 2 of meer groepen aan elkaar gelijk zijn, kun je de Kruskal Wallis gebruiken. In de praktijk wordt de Kruskal Wallis alleen gebruikt bij het vergelijken van 3 of meer groepen. Voor de vergelijking van twee groepen wordt de [[Mann-Whitney U toets]] gebruikt.&lt;br /&gt;
&lt;br /&gt;
De Kruskal Wallis veronderstelt geen normaal verdeelde data. Hij wordt daarom vaak gebruikt wanneer niet aan de aannames van de [[One-way ANOVA]] voldaan zijn.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de Kruskal Wallis:&lt;br /&gt;
Stel je wilt testen of het aantal kinderen per gezin gelijk is in Nederland, België, Frankrijk en Duitsland.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;6&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. A comparison of family size in different countries&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Netherlands&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Belgium&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|France&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Germany&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Family size&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1.8 (1.1 ; 3.4)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1.6 (0.9 ; 4.1)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 2.2 (1.2 ; 4.2)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 2.1 (1.5 ; 3.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.12&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;6&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as median (25%th quartile ; 75%th quartile). **Group differences were tested with Kruskal Wallis.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik Kruskal Wallis in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze -&amp;gt; Nonparametric Tests -&amp;gt; K Independent Samples.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Kruskal_Wallis&amp;diff=320</id>
		<title>Kruskal Wallis</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Kruskal_Wallis&amp;diff=320"/>
		<updated>2009-03-12T11:20:52Z</updated>

		<summary type="html">&lt;p&gt;Docent5: New page: De Kruskal-Wallis one-way analysis of variance by ranks is een niet parametrische toetsings procedure voor het testen van hypothesen over de medianen van (semi-continue) data. De Kruskal W...&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De Kruskal-Wallis one-way analysis of variance by ranks is een niet parametrische toetsings procedure voor het testen van hypothesen over de medianen van (semi-continue) data. De Kruskal Wallis toetst of de medianen van 2 of meer onafhankelijke groepen gelijk zijn. Intuitief is de Kruskal Wallis gelijk aan een [[One-way ANOVA]], waarbij de data vervangen zijn door hun rangpositie.&lt;br /&gt;
&lt;br /&gt;
==Wanneer gebruik ik Kruskal Wallis?==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de medianen van 2 of meer groepen aan elkaar gelijk zijn, kun je de Kruskal Wallis gebruiken. In de praktijk wordt de Kruskal Wallis alleen gebruikt bij het vergelijken van 3 of meer groepen. Voor de vergelijking van twee groepen wordt de [[Mann-Whitney U toets]] gebruikt.&lt;br /&gt;
&lt;br /&gt;
De Kruskal Wallis veronderstelt geen normaal verdeelde data. Hij wordt daarom vaak gebruikt wanneer niet aan de aannames van de [[One-way ANOVA]] voldaan zijn.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de Kruskal Wallis:&lt;br /&gt;
Stel je wilt testen of het aantal kinderen per gezin gelijk is in Nederland, België, Frankrijk en Duitsland.&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;6&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. A comparison of family size in different countries&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Netherlands&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Belgium&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|France&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Germany&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Family size&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1.8 (1.1 ; 3.4)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1.6 (0.9 ; 4.1)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 2.2 (1.2 ; 4.2)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 2.1 (1.5 ; 3.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as median (25%th quartile ; 75%th quartile). **Group differences were tested with Kruskal Wallis.&lt;br /&gt;
|}&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=319</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=319"/>
		<updated>2009-03-12T10:48:20Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toetsings procedure voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA toetst of de gemiddelden van 2 of meer onafhankelijke groepen gelijk zijn. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van 2 of meer groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. In de regel wordt de One-way ANOVA alleen gebruikt bij het vergelijken van minstens 3 groepen. Voor de vergelijking van twee groepen is de One-way ANOVA gelijk aan het uitvoeren van een [[t-toets#ongepaarde t-toets | ongepaarde t-toets]]. &lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn (in iedere groep heeft de variabele een normale verdeling). Er wordt vervolgens getoetst of de gemiddelden van deze verdelingen gelijk zijn of niet. De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. Indien niet aan deze voorwaarden voldaan is, kan een niet parametrische [[Kruskall Wallis]] analyse overwogen worden.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
Stel je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Wat doe ik als mijn data niet voldoen aan de assumptie van gelijke varianties in de groepen? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Wij hebben een dierexperimentele studie waarbij ratten met verschillende strategieen zijn beademend en al dan niet een medicamenteuze voorbehandeling hebben gekregen. In ieder van de 4 experimentele groepen zijn 6 ratten geincludeerd. Ik heb de one-way ANOVA gebruikt indien de test voor gelijke varianties (Bartlett&#039;s test for equal variances) geen significante waarde opleverde. Indien de p-waarde van deze test &amp;lt;0.05 was, heb ik een log transformatie op de data toegepast en de ANOVA analyse hierop gerund. Indien de p-waarde na transformatie nog steeds ruim onder de 0.05 was, heb ik de Kruskall-Wallis analyse gebruikt. Volgens de checklist die GraphPad Prism levert, zou dit statistisch verantwoord zijn. Over 1 analyse heb ik echter een vraag. De Bartlett&#039;s test geeft nl een waarde van p&amp;lt;0.0001 indien de data niet getransformeerd zijn en na log transformatie een waarde van 0.0318. Zowel de ANOVA als Kruskal-Wallis geeft een statistisch verschil aan tussen de verschillende experimentele groepen maar de post-hoc analyses verschillen behoorlijk, waarbij bij de non-parametrische test in de post-hoc analyse (Dunns test) nagenoeg geen verschillen tussen de groepen aangeeft. &lt;br /&gt;
&#039;&#039;Nu zegt de uitleg die bij het programma wordt geleverd, dat je kritisch moet kijken of je de ANOVA verwerpt indien de Bartlett&#039;s test niet veel onder de 0.05 uitkomt, aangezien bij kleine aantallen de Kruskall-Wallis niet zo&#039;n krachtige test is. Kan ik dit inderdaad doen, want als ik naar de grafieken kijk, geeft de post-hoc analyse van de ANOVA (de Newman-Keuls test) een uitslag die veel meer bij de visuele data past?&lt;br /&gt;
&lt;br /&gt;
Je verhaal klopt. Testen voor gelijke varianties zijn soms streng (met name bij de kleine aantallen). Een p-waarde van 0.04 zit dicht bij je grens waarbij je het wel mag accepteren. Ik zou inderdaad naar de ruwe (log) waardes kijken en me afvragen wat je daar ziet. Bij kleine aantallen kunnen met name outliers zorgen voor andere resultaten. Je zou daar dus nog naar kunnen kijken. Als je inderdaad een enorme outlier hebt, zou je eens moeten kijken als die eruit is of je ANOVA van de ln waarde dan nog steeds significant is.&lt;br /&gt;
Non-parametrisch is inderdaad vaak strenger (en dus minder snel significant) dan paramtetrisch, maar wordt ook veel minder door outliers beinvloed.&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik de One-way ANOVA in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=OVERZICHT&amp;diff=318</id>
		<title>OVERZICHT</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=OVERZICHT&amp;diff=318"/>
		<updated>2009-03-12T10:43:03Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{| border =&amp;quot;2&amp;quot; style=&amp;quot;width:850px&amp;quot; align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;8&amp;quot;&lt;br /&gt;
! [[Poweranalyse]]!! Toetsen !! [[Beschrijvende Statistiek]]&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
*Benodigde informatie&lt;br /&gt;
*Post hoc poweranalyse&lt;br /&gt;
*Poweranalyse in een equivalentiestudie&lt;br /&gt;
*Poweranalyse in een “clustered” trial&lt;br /&gt;
| &lt;br /&gt;
*[[Fisher&#039;s exact toets]] &lt;br /&gt;
*[[Chi-kwadraat toets]]&lt;br /&gt;
*[[T-toets]]&lt;br /&gt;
*[[Mann-Whitney U toets]]&lt;br /&gt;
*[[Wilcoxon signed rank toets]]&lt;br /&gt;
*[[One-way ANOVA]]&lt;br /&gt;
*[[Kruskal Wallis]]&lt;br /&gt;
*[[Friedman toets]]&lt;br /&gt;
| &lt;br /&gt;
*Gemiddelde/ mediaan&lt;br /&gt;
*Betrouwbaarheidsinterval&lt;br /&gt;
|-&lt;br /&gt;
! Regressieanalyse!! [[Herhaalde metingen]]!! [[Survival analyse]]&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
*[[Lineaire regressie]]&lt;br /&gt;
*[[Logistische regressie]]&lt;br /&gt;
*[[Multivariabele regressie]]&lt;br /&gt;
| &lt;br /&gt;
*[[Herhaalde metingen#linear mixed models|linear mixed models]]&lt;br /&gt;
*[[Herhaalde metingen#repeated measurements ANOVA|repeated measurements ANOVA]]&lt;br /&gt;
*[[Herhaalde metingen#area under the curve|area under the curve]]&lt;br /&gt;
| &lt;br /&gt;
*[[Survival analyse#kaplan meier|Kaplan Meier]]&lt;br /&gt;
*[[Survival analyse#cox regressieanalyse|Cox regressie]]&lt;br /&gt;
|-&lt;br /&gt;
! [[Correlatie]]!! Studieontwerp!! Overig&lt;br /&gt;
|-&lt;br /&gt;
|&lt;br /&gt;
*[[Correlatie#Pearson&#039;s r|Pearson&#039;s r]]&lt;br /&gt;
*[[Correlatie#Spearman’s rho|Spearman&#039;s rho]]&lt;br /&gt;
*[[Correlatie#intra class correlatie (icc)|intra class correlatie (icc)]]&lt;br /&gt;
*[[Correlatie#biseriele correlatie|biseriele correlatie]]&lt;br /&gt;
*[[inter-oberver agreement#kappa|kappa]]&lt;br /&gt;
| &lt;br /&gt;
*[[observationeel onderzoek]]&lt;br /&gt;
*[[experimenteel onderzoek]]&lt;br /&gt;
*[[diagnostisch onderzoek]]&lt;br /&gt;
*Meta-analyse&lt;br /&gt;
| &lt;br /&gt;
*[[interimanalyse]]&lt;br /&gt;
*[[matchen]]&lt;br /&gt;
*[[multiple testing]]&lt;br /&gt;
*missende waardes&lt;br /&gt;
*randomiseren&lt;br /&gt;
*[[statistische software]]&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het bepalen van een geschikte analyse voor je data.&lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=File:Figuur_ANOVA0.jpg&amp;diff=317</id>
		<title>File:Figuur ANOVA0.jpg</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=File:Figuur_ANOVA0.jpg&amp;diff=317"/>
		<updated>2009-03-12T10:37:57Z</updated>

		<summary type="html">&lt;p&gt;Docent5: uploaded a new version of &amp;quot;Image:Figuur ANOVA0.jpg&amp;quot;: Reverted to version as of 16:11, 23 February 2009&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;boxplot weergave one way ANOVA&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=File:Figuur_ANOVA0.jpg&amp;diff=316</id>
		<title>File:Figuur ANOVA0.jpg</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=File:Figuur_ANOVA0.jpg&amp;diff=316"/>
		<updated>2009-03-12T10:37:37Z</updated>

		<summary type="html">&lt;p&gt;Docent5: uploaded a new version of &amp;quot;Image:Figuur ANOVA0.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;boxplot weergave one way ANOVA&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=File:Figuur_ANOVA0.jpg&amp;diff=315</id>
		<title>File:Figuur ANOVA0.jpg</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=File:Figuur_ANOVA0.jpg&amp;diff=315"/>
		<updated>2009-03-12T10:35:19Z</updated>

		<summary type="html">&lt;p&gt;Docent5: uploaded a new version of &amp;quot;Image:Figuur ANOVA0.jpg&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;boxplot weergave one way ANOVA&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=314</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=314"/>
		<updated>2009-03-12T10:15:16Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Wat doe ik als mijn data niet voldoen aan de assumptie van gelijke varianties in de groepen? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toetsings procedure voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA toetst of de gemiddelden van 2 of meer onafhankelijke groepen vergelijkbaar zijn. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van 2 of meer groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. In de regel wordt de One-way ANOVA alleen gebruikt bij het vergelijken van minstens 3 groepen. Voor de vergelijking van twee groepen is de One-way ANOVA gelijk aan het uitvoeren van een [[t-toets#ongepaarde t-toets | ongepaarde t-toets]]. &lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn (in iedere groep heeft de variabele een normale verdeling). Er wordt vervolgens getoetst of de gemiddelden van deze verdelingen gelijk zijn of niet. De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. Indien niet aan deze voorwaarden voldaan is, kan een niet parametrische [[Kruskall Wallis]] analyse overwogen worden.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
Stel je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Wat doe ik als mijn data niet voldoen aan de assumptie van gelijke varianties in de groepen? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Wij hebben een dierexperimentele studie waarbij ratten met verschillende strategieen zijn beademend en al dan niet een medicamenteuze voorbehandeling hebben gekregen. In ieder van de 4 experimentele groepen zijn 6 ratten geincludeerd. Ik heb de one-way ANOVA gebruikt indien de test voor gelijke varianties (Bartlett&#039;s test for equal variances) geen significante waarde opleverde. Indien de p-waarde van deze test &amp;lt;0.05 was, heb ik een log transformatie op de data toegepast en de ANOVA analyse hierop gerund. Indien de p-waarde na transformatie nog steeds ruim onder de 0.05 was, heb ik de Kruskall-Wallis analyse gebruikt. Volgens de checklist die GraphPad Prism levert, zou dit statistisch verantwoord zijn. Over 1 analyse heb ik echter een vraag. De Bartlett&#039;s test geeft nl een waarde van p&amp;lt;0.0001 indien de data niet getransformeerd zijn en na log transformatie een waarde van 0.0318. Zowel de ANOVA als Kruskal-Wallis geeft een statistisch verschil aan tussen de verschillende experimentele groepen maar de post-hoc analyses verschillen behoorlijk, waarbij bij de non-parametrische test in de post-hoc analyse (Dunns test) nagenoeg geen verschillen tussen de groepen aangeeft. &lt;br /&gt;
&#039;&#039;Nu zegt de uitleg die bij het programma wordt geleverd, dat je kritisch moet kijken of je de ANOVA verwerpt indien de Bartlett&#039;s test niet veel onder de 0.05 uitkomt, aangezien bij kleine aantallen de Kruskall-Wallis niet zo&#039;n krachtige test is. Kan ik dit inderdaad doen, want als ik naar de grafieken kijk, geeft de post-hoc analyse van de ANOVA (de Newman-Keuls test) een uitslag die veel meer bij de visuele data past?&lt;br /&gt;
&lt;br /&gt;
Je verhaal klopt. Testen voor gelijke varianties zijn soms streng (met name bij de kleine aantallen). Een p-waarde van 0.04 zit dicht bij je grens waarbij je het wel mag accepteren. Ik zou inderdaad naar de ruwe (log) waardes kijken en me afvragen wat je daar ziet. Bij kleine aantallen kunnen met name outliers zorgen voor andere resultaten. Je zou daar dus nog naar kunnen kijken. Als je inderdaad een enorme outlier hebt, zou je eens moeten kijken als die eruit is of je ANOVA van de ln waarde dan nog steeds significant is.&lt;br /&gt;
Non-parametrisch is inderdaad vaak strenger (en dus minder snel significant) dan paramtetrisch, maar wordt ook veel minder door outliers beinvloed.&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik de One-way ANOVA in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=313</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=313"/>
		<updated>2009-03-12T10:14:48Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Wat doe ik als mijn data niet voldoen aan de assumptie van gelijke varianties in de groepen? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toetsings procedure voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA toetst of de gemiddelden van 2 of meer onafhankelijke groepen vergelijkbaar zijn. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van 2 of meer groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. In de regel wordt de One-way ANOVA alleen gebruikt bij het vergelijken van minstens 3 groepen. Voor de vergelijking van twee groepen is de One-way ANOVA gelijk aan het uitvoeren van een [[t-toets#ongepaarde t-toets | ongepaarde t-toets]]. &lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn (in iedere groep heeft de variabele een normale verdeling). Er wordt vervolgens getoetst of de gemiddelden van deze verdelingen gelijk zijn of niet. De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. Indien niet aan deze voorwaarden voldaan is, kan een niet parametrische [[Kruskall Wallis]] analyse overwogen worden.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
Stel je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Wat doe ik als mijn data niet voldoen aan de assumptie van gelijke varianties in de groepen? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Wij hebben een dierexperimentele studie waarbij ratten met verschillende strategieen zijn beademend en al dan niet een medicamenteuze voorbehandeling hebben gekregen. In ieder van de 4 experimentele groepen zijn 6 ratten geincludeerd. &lt;br /&gt;
Ik heb de one-way ANOVA gebruikt indien de test voor gelijke varianties (Bartlett&#039;s test for equal variances) geen significante waarde opleverde. Indien de p-waarde van deze test &amp;lt;0.05 was, heb ik een log transformatie op de data toegepast en de ANOVA analyse hierop gerund. Indien de p-waarde na transformatie nog steeds ruim onder de 0.05 was, heb ik de Kruskall-Wallis analyse gebruikt. Volgens de checklist die GraphPad Prism levert, zou dit statistisch verantwoord zijn. Over 1 analyse heb ik echter een vraag. De Bartlett&#039;s test geeft nl een waarde van p&amp;lt;0.0001 indien de data niet getransformeerd zijn en na log transformatie een waarde van 0.0318. Zowel de ANOVA als Kruskal-Wallis geeft een statistisch verschil aan tussen de verschillende experimentele groepen maar de post-hoc analyses verschillen behoorlijk, waarbij bij de non-parametrische test in de post-hoc analyse (Dunns test) nagenoeg geen verschillen tussen de groepen aangeeft. &lt;br /&gt;
Nu zegt de uitleg die bij het programma wordt geleverd, dat je kritisch moet kijken of je de ANOVA verwerpt indien de Bartlett&#039;s test niet veel onder de 0.05 uitkomt, aangezien bij kleine aantallen de Kruskall-Wallis niet zo&#039;n krachtige test is. Kan ik dit inderdaad doen, want als ik naar de grafieken kijk, geeft de post-hoc analyse van de ANOVA (de Newman-Keuls test) een uitslag die veel meer bij de visuele data past?&lt;br /&gt;
&lt;br /&gt;
Je verhaal klopt. Testen voor gelijke varianties zijn soms streng (met name bij de kleine aantallen). Een p-waarde van 0.04 zit dicht bij je grens waarbij je het wel mag accepteren. Ik zou inderdaad naar de ruwe (log) waardes kijken en me afvragen wat je daar ziet. Bij kleine aantallen kunnen met name outliers zorgen voor andere resultaten. Je zou daar dus nog naar kunnen kijken. Als je inderdaad een enorme outlier hebt, zou je eens moeten kijken als die eruit is of je ANOVA van de ln waarde dan nog steeds significant is.&lt;br /&gt;
Non-parametrisch is inderdaad vaak strenger (en dus minder snel significant) dan paramtetrisch, maar wordt ook veel minder door outliers beinvloed.&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik de One-way ANOVA in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=312</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=312"/>
		<updated>2009-03-12T10:14:36Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toetsings procedure voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA toetst of de gemiddelden van 2 of meer onafhankelijke groepen vergelijkbaar zijn. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van 2 of meer groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. In de regel wordt de One-way ANOVA alleen gebruikt bij het vergelijken van minstens 3 groepen. Voor de vergelijking van twee groepen is de One-way ANOVA gelijk aan het uitvoeren van een [[t-toets#ongepaarde t-toets | ongepaarde t-toets]]. &lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn (in iedere groep heeft de variabele een normale verdeling). Er wordt vervolgens getoetst of de gemiddelden van deze verdelingen gelijk zijn of niet. De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. Indien niet aan deze voorwaarden voldaan is, kan een niet parametrische [[Kruskall Wallis]] analyse overwogen worden.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
Stel je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Wat doe ik als mijn data niet voldoen aan de assumptie van gelijke varianties in de groepen? ==&lt;br /&gt;
&lt;br /&gt;
Wij hebben een dierexperimentele studie waarbij ratten met verschillende strategieen zijn beademend en al dan niet een medicamenteuze voorbehandeling hebben gekregen. In ieder van de 4 experimentele groepen zijn 6 ratten geincludeerd. &lt;br /&gt;
Ik heb de one-way ANOVA gebruikt indien de test voor gelijke varianties (Bartlett&#039;s test for equal variances) geen significante waarde opleverde. Indien de p-waarde van deze test &amp;lt;0.05 was, heb ik een log transformatie op de data toegepast en de ANOVA analyse hierop gerund. Indien de p-waarde na transformatie nog steeds ruim onder de 0.05 was, heb ik de Kruskall-Wallis analyse gebruikt. Volgens de checklist die GraphPad Prism levert, zou dit statistisch verantwoord zijn. Over 1 analyse heb ik echter een vraag. De Bartlett&#039;s test geeft nl een waarde van p&amp;lt;0.0001 indien de data niet getransformeerd zijn en na log transformatie een waarde van 0.0318. Zowel de ANOVA als Kruskal-Wallis geeft een statistisch verschil aan tussen de verschillende experimentele groepen maar de post-hoc analyses verschillen behoorlijk, waarbij bij de non-parametrische test in de post-hoc analyse (Dunns test) nagenoeg geen verschillen tussen de groepen aangeeft. &lt;br /&gt;
Nu zegt de uitleg die bij het programma wordt geleverd, dat je kritisch moet kijken of je de ANOVA verwerpt indien de Bartlett&#039;s test niet veel onder de 0.05 uitkomt, aangezien bij kleine aantallen de Kruskall-Wallis niet zo&#039;n krachtige test is. Kan ik dit inderdaad doen, want als ik naar de grafieken kijk, geeft de post-hoc analyse van de ANOVA (de Newman-Keuls test) een uitslag die veel meer bij de visuele data past?&lt;br /&gt;
&lt;br /&gt;
Je verhaal klopt. Testen voor gelijke varianties zijn soms streng (met name bij de kleine aantallen). Een p-waarde van 0.04 zit dicht bij je grens waarbij je het wel mag accepteren. Ik zou inderdaad naar de ruwe (log) waardes kijken en me afvragen wat je daar ziet. Bij kleine aantallen kunnen met name outliers zorgen voor andere resultaten. Je zou daar dus nog naar kunnen kijken. Als je inderdaad een enorme outlier hebt, zou je eens moeten kijken als die eruit is of je ANOVA van de ln waarde dan nog steeds significant is.&lt;br /&gt;
Non-parametrisch is inderdaad vaak strenger (en dus minder snel significant) dan paramtetrisch, maar wordt ook veel minder door outliers beinvloed.&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik de One-way ANOVA in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=311</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=311"/>
		<updated>2009-03-12T10:11:13Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Wanneer gebruik ik de One-way ANOVA? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toetsings procedure voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA toetst of de gemiddelden van 2 of meer onafhankelijke groepen vergelijkbaar zijn. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van 2 of meer groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. In de regel wordt de One-way ANOVA alleen gebruikt bij het vergelijken van minstens 3 groepen. Voor de vergelijking van twee groepen is de One-way ANOVA gelijk aan het uitvoeren van een [[t-toets#ongepaarde t-toets | ongepaarde t-toets]]. &lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn (in iedere groep heeft de variabele een normale verdeling). Er wordt vervolgens getoetst of de gemiddelden van deze verdelingen gelijk zijn of niet. De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. Indien niet aan deze voorwaarden voldaan is, kan een niet parametrische [[Kruskall Wallis]] analyse overwogen worden.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
Stel je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Waar vind ik de One-way ANOVA in SPSS?=&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=310</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=310"/>
		<updated>2009-03-12T10:00:21Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toetsings procedure voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA toetst of de gemiddelden van 2 of meer onafhankelijke groepen vergelijkbaar zijn. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van 2 of meer groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. In de regel wordt de One-way ANOVA alleen gebruikt bij het vergelijken van minstens 3 groepen. Voor de vergelijking van twee groepen is de One-way ANOVA gelijk aan het uitvoeren van een [[t-toets#ongepaarde t-toets | ongepaarde t-toets]]. &lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn (in iedere groep heeft de variabele een normale verdeling). Er wordt vervolgens getoetst of de gemiddelden van deze verdelingen gelijk zijn of niet. De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. Indien niet aan deze voorwaarden voldaan is, kan een niet parametrisch [[Kruskall Wallis]] analyse overwogen worden.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
Stel je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Waar vind ik de One-way ANOVA in SPSS?=&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=309</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=309"/>
		<updated>2009-03-12T08:49:16Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Wanneer gebruik ik de One-way ANOVA? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toets voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA vergelijkt de de gemiddelden van meerdere (&amp;gt;2) onafhankelijk groepen. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van meerdere (&amp;gt;2) groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. Bijvoorbeeld als je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn. Er wordt vervolgens getoetst of de groepen hetzelfde gemiddelde hebben of niet.&lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. &lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Waar vind ik de One-way ANOVA in SPSS?=&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=308</id>
		<title>One-way ANOVA</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=One-way_ANOVA&amp;diff=308"/>
		<updated>2009-03-12T08:48:17Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
De One-way ANOVA (voluit One-way ANalysis Of VAriance) is een parametrische toets voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De ANOVA vergelijkt de de gemiddelden van meerdere (&amp;gt;2) onafhankelijk groepen. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de One-way ANOVA? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de gemiddelden van meerdere (&amp;gt;2) groepen aan elkaar gelijk zijn, kun je de ongepaarde One-way ANOVA gebruiken. Bijvoorbeeld als je wilt testen of de (10 log) CD4 count gelijk is voor drie armen in een studie.&lt;br /&gt;
&lt;br /&gt;
[[Image:figuur ANOVA0.jpg]]&lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt dat het de drie groepen uit een multivariate normale verdeling afkomstig zijn. Er wordt vervolgens getoetst of de groepen hetzelfde gemiddelde hebben of niet.&lt;br /&gt;
&lt;br /&gt;
De One-way ANOVA veronderstelt daarnaast dat de groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld &#039;Levene&#039;s Test for equality of variance&#039; kun je testen of de variantie in de groepen gelijk verondersteld kan worden. &lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de One-way ANOVA:&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;5&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. log 10 CD4 counts in the three treatment arms|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|Treatment arm 3&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|Log 10 CD4 counts&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.5 (1.3)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.0 (1.5)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 4.1 (1.6)&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.66&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;5&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as mean (SD). **Group differences were tested with one-way ANOVA.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
= Waar vind ik de One-way ANOVA in SPSS?=&lt;br /&gt;
&lt;br /&gt;
Je vindt de One-way ANOVA in SPSS 16 onder Analyze-&amp;gt;Compare Means.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Wilcoxon_signed_rank_toets&amp;diff=307</id>
		<title>Wilcoxon signed rank toets</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Wilcoxon_signed_rank_toets&amp;diff=307"/>
		<updated>2009-03-11T15:49:46Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;De Wilcoxon signed rank toets is een niet-parametrische toets voor het vergelijken van een (semi-)continue variabele tussen twee [[KEUZE TOETS#Heb ik gepaarde of ongepaarde data?|gepaarde]] groepen. &lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik de Mann-Whitney U toets? ==&lt;br /&gt;
&lt;br /&gt;
Als je wilt toetsen of de waardes een van twee maal gemeten, gepaarde, (semi-)continue variabele verschillen, kun je de Wilcoxon signed rank toets gebruiken. Bijvoorbeeld als je wilt testen of de resultaten twee CT scans van een patient van elkaar verschillen.&lt;br /&gt;
&lt;br /&gt;
De Wilcoxon signed rank toets wordt vaak gebruikt als alternatief voor de [[T-toets|gepaarde t-toets]], omdat de Wilcoxon signed rank toets geen normaal verdeelde data veronderstelt. De toets mag altijd gebruikt worden, voor alle [[KEUZE TOETS#Van welk type is mijn uitkomstmaat?|ordinale]] data. &lt;br /&gt;
&lt;br /&gt;
Voorbeeld van het gebruik van de Wilcoxon signed rank toets:&lt;br /&gt;
&lt;br /&gt;
{| border =&amp;quot;1&amp;quot; style=align=&amp;quot;center&amp;quot; cellpadding=&amp;quot;3&amp;quot; cellspacing=&amp;quot;0&amp;quot;&lt;br /&gt;
! colspan=&amp;quot;4&amp;quot; align=&amp;quot;left&amp;quot;|Table 1. Results of repeated CT scans.&lt;br /&gt;
|-&lt;br /&gt;
|align=&amp;quot;left&amp;quot; |Variable*&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|scan 1&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|scan 2&lt;br /&gt;
|align=&amp;quot;center&amp;quot;|p-value**&lt;br /&gt;
|-&lt;br /&gt;
|CT measurement&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1004 [565;1222]&lt;br /&gt;
|align=&amp;quot;center&amp;quot; | 1114 [668;1485]&lt;br /&gt;
|align=&amp;quot;center&amp;quot; |0.03&lt;br /&gt;
|-&lt;br /&gt;
|colspan=&amp;quot;4&amp;quot; rowspan=&amp;quot;2&amp;quot;|  *Variables are denoted as median [inter quartile range]. **Differences between the two scans were tested with the Wilcoxon signed rank test.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik de Mann-Whitney U toets in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de test in SPSS 16 onder Analyze-&amp;gt;Non-parametric Tests-&amp;gt;2 Related Samples.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=306</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=306"/>
		<updated>2009-03-10T11:59:52Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Waar vind ik kappa in SPSS? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van eenzelfde meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordeel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
Kappa (ook wel Cohen&#039;s kappa genoemd) is een maat voor inter-observer agreement.&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
==Waar vind ik kappa in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Voor twee beoordelaars kan Cohen&#039;s Kappa als volgt in SPSS 16 berekenend worden. Zet de variabelen (de beoordeling &lt;br /&gt;
van de 1e en 2e beoordelaar) in kolommen naast elkaar. Ga dan naar Analyze-&amp;gt;Descriptive statistics-&lt;br /&gt;
&amp;gt;Crosstabs, voert de ene variabele in bij &amp;quot;rows&amp;quot;, de andere bij &amp;quot;columns&amp;quot;, klikt op &amp;quot;statistics&amp;quot; en vinkt &lt;br /&gt;
&amp;quot;Kappa&amp;quot; aan. Dan klik je op continue en op ok. Je krijgt in de output de kruistabel en Cohen&#039;s Kappa.&lt;br /&gt;
&lt;br /&gt;
Voor meedere beoordelaars is er nog geen standaard procedure in SPSS 16. Op deze [http://www.ccitonline.org/jking/homepage/ website] vind je meerdere macro&#039;s (o.a. in excel, SPSS en SAS) die een kappa bij meerdere observers uit kunnen rekenen.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=File:Kappa_SPSS.doc&amp;diff=305</id>
		<title>File:Kappa SPSS.doc</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=File:Kappa_SPSS.doc&amp;diff=305"/>
		<updated>2009-03-10T11:46:37Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=File:Kappa_macro_SPSS.doc&amp;diff=304</id>
		<title>File:Kappa macro SPSS.doc</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=File:Kappa_macro_SPSS.doc&amp;diff=304"/>
		<updated>2009-03-10T11:42:55Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=303</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=303"/>
		<updated>2009-03-10T11:42:00Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Waar vind ik kappa in SPSS? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van eenzelfde meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordeel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
Kappa (ook wel Cohen&#039;s kappa genoemd) is een maat voor inter-observer agreement.&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
==Waar vind ik kappa in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Voor twee beoordelaars kan Cohen&#039;s Kappa als volgt in SPSS 16 berekenend worden. Zet de variabelen (de beoordeling &lt;br /&gt;
van de 1e en 2e beoordelaar) in kolommen naast elkaar. Ga dan naar Analyze-&amp;gt;Descriptive statistics-&lt;br /&gt;
&amp;gt;Crosstabs, voert de ene variabele in bij &amp;quot;rows&amp;quot;, de andere bij &amp;quot;columns&amp;quot;, klikt op &amp;quot;statistics&amp;quot; en vinkt &lt;br /&gt;
&amp;quot;Kappa&amp;quot; aan. Dan klik je op continue en op ok. Je krijgt in de output de kruistabel en Cohen&#039;s Kappa.&lt;br /&gt;
&lt;br /&gt;
Voor meedere beoordelaars is er nog geen standaard procedure in SPSS 16. Er is wel een aparte macro voor zie het volgende bestand [[Image:kappa SPSS.doc]].&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=302</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=302"/>
		<updated>2009-03-10T11:41:43Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Waar vind ik kappa in SPSS? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van eenzelfde meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordeel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
Kappa (ook wel Cohen&#039;s kappa genoemd) is een maat voor inter-observer agreement.&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
==Waar vind ik kappa in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Voor twee beoordelaars kan Cohen&#039;s Kappa als volgt in SPSS 16 berekenend worden. Zet de variabelen (de beoordeling &lt;br /&gt;
van de 1e en 2e beoordelaar) in kolommen naast elkaar. Ga dan naar Analyze-&amp;gt;Descriptive statistics-&lt;br /&gt;
&amp;gt;Crosstabs, voert de ene variabele in bij &amp;quot;rows&amp;quot;, de andere bij &amp;quot;columns&amp;quot;, klikt op &amp;quot;statistics&amp;quot; en vinkt &lt;br /&gt;
&amp;quot;Kappa&amp;quot; aan. Dan klik je op continue en op ok. Je krijgt in de output de kruistabel en Cohen&#039;s Kappa.&lt;br /&gt;
&lt;br /&gt;
Voor meedere beoordelaars is er nog geen standaard procedure in SPSS 16. Er is wel een aparte macro voor zie het volgende bestand [[File:kappa SPSS.doc]].&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=301</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=301"/>
		<updated>2009-03-10T11:40:49Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van eenzelfde meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordeel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
Kappa (ook wel Cohen&#039;s kappa genoemd) is een maat voor inter-observer agreement.&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
==Waar vind ik kappa in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Voor twee beoordelaars kan Cohen&#039;s Kappa als volgt in SPSS 16 berekenend worden. Zet de variabelen (de beoordeling &lt;br /&gt;
van de 1e en 2e beoordelaar) in kolommen naast elkaar. Ga dan naar Analyze-&amp;gt;Descriptive statistics-&lt;br /&gt;
&amp;gt;Crosstabs, voert de ene variabele in bij &amp;quot;rows&amp;quot;, de andere bij &amp;quot;columns&amp;quot;, klikt op &amp;quot;statistics&amp;quot; en vinkt &lt;br /&gt;
&amp;quot;Kappa&amp;quot; aan. Dan klik je op continue en op ok. Je krijgt in de output de kruistabel en Cohen&#039;s Kappa.&lt;br /&gt;
&lt;br /&gt;
Voor meedere beoordelaars is er nog geen standaard procedure in SPSS 16. Er is wel een aparte macro voor zie het volgende bestand [file:kappa SPSS.doc].&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=300</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=300"/>
		<updated>2009-03-10T10:38:15Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van eenzelfde meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordeel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
Kappa (ook wel Cohen&#039;s kappa genoemd) is een maat voor inter-observer agreement.&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=299</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=299"/>
		<updated>2009-03-10T10:37:35Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van eenzelfde meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordeel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=298</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=298"/>
		<updated>2009-03-10T10:37:17Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van eenzelfde meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordeel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=297</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=297"/>
		<updated>2009-03-10T10:36:31Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre verschillende observers tot hetzelfde oordeel komen bij het uitvoeren van een meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=296</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=296"/>
		<updated>2009-03-10T10:36:11Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre observers tot hetzelfde oordeel komen bij het uitvoeren van een meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht. Vaak wordt er ook gekeken naar de [[intra-observer agreement]], hierbij wordt gekeken in hoeverre een observer tot hetzelfde oordel komt bij het herhaalderlijk uitvoeren van een meting. &lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=295</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=295"/>
		<updated>2009-03-10T10:18:09Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Inter-observer agreement geeft aan in hoeverre observers tot hetzelfde oordeel komen bij het uitvoeren van een meting. Het geeft daarmee aan hoe gevoelig de metingen zijn voor de persoon die de metingen verricht.&lt;br /&gt;
&lt;br /&gt;
=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Fisher%27s_exact_toets&amp;diff=294</id>
		<title>Fisher&#039;s exact toets</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Fisher%27s_exact_toets&amp;diff=294"/>
		<updated>2009-03-10T10:13:42Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Fisher&#039;s exact toets beoordeelt of het verschil tussen twee proporties werkelijk bestaat of slechts &amp;quot;toevallig&amp;quot; is.&lt;br /&gt;
&lt;br /&gt;
== Wanneer gebruik ik Fisher&#039;s exact test? ==&lt;br /&gt;
&lt;br /&gt;
Fisher&#039;s exact test kan gebruikt worden om te toetsen of het verschil tussen twee proporties in een klassieke 2x2 tabel significant is. Dergelijke tabellen worden meestal geanalyseerd met een [[Chi-kwadraat toets]]. Traditioneel wordt er voor de Fisher&#039;s exact test gekozen ipv een Chi-kwadraat wanneer er lage aantallen (geobserveerde count ~&amp;lt;10 of expected count &amp;lt;5) in de 2x2 tabel voorkomen. De Chi-kwadraat test is dan niet meer nauwkeurig. Omdat Fisher&#039;s Exact test in de huidige statistische pakketten even snel uitgerekend kan worden als een chi-kwadraat test is er geen bezwaar meer om deze exacte test (chi-kwadraat gebruikt een benadering) altijd te gebruiken bij het analyseren van een 2x2 (of een mxn) tabel.&lt;br /&gt;
&lt;br /&gt;
Voorbeeld van een klassieke 2x2 tabel:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;center&amp;gt;&lt;br /&gt;
&amp;lt;table&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&amp;lt;td&amp;gt;&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;cases&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;controls&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;totals&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&amp;lt;td&amp;gt;men&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;0&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;10&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;10&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&amp;lt;td&amp;gt;woman&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;12&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;2&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;14&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;tr&amp;gt;&amp;lt;td&amp;gt;totals&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;12&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;12&amp;lt;/td&amp;gt;&amp;lt;td&amp;gt;24&amp;lt;/td&amp;gt;&amp;lt;/tr&amp;gt;&lt;br /&gt;
&amp;lt;/table&amp;gt;&lt;br /&gt;
&amp;lt;/center&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Moet ik Chi-kwadraat of Fisher&#039;s exact toetsen gebruiken? ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Voor mijn onderzoek heb ik een aantal uitkomsten geanalyseerd met X2-testen. Het is niet een heel grote studie (75 patienten), dus de aantallen patienten met de symptomen waar het om gaat zijn soms klein. In principe heb ik X2-testen gebruikt, alleen in het geval van een &amp;quot;expected count&amp;quot; van minder dan 5 in 20% of meer van de cellen heb ik een Fisher&#039;s exact test gedaan. Nu doen we deze studie samen met een sponsor en zij hebben ook statistische analyses gedaan. Ik kreeg net de resultaten en zij blijken voor alle uitkomsten Fisher&#039;s exact testen gedaan te hebben (ipv X2). Dit is nogal jammer want een aantal statistisch significante uitkomsten die ik vond met de X2-testen (en die allemaal in dezelfde richting wezen dus leken te kloppen) zijn nu net niet significant meer (tenminste niet als je de uitkomsten van de two-tailed Fisher neemt, zoals de sponsor heeft gedaan). Wat is jullie mening hierover?&lt;br /&gt;
&lt;br /&gt;
De sponsor heeft een punt: Fisher&#039;s exact toets is nauwkeuriger dan de X2 toets en kan tegenwoordig even gemakkelijk uitgerekend worden. In het algemeen: de uitkomst/interpretatie van je studie zou niet moeten hangen om een p-waarde van 0.04 of 0.06, er zijn veel belangrijkere punten te maken dan het wel of niet onder de 0.05 uitkomen van een p-waarde.&lt;br /&gt;
&lt;br /&gt;
== Ik heb in mijn controlearm 0 events, kan ik het verschil tussen beide armen nog wel toetsen? ==&lt;br /&gt;
&#039;&#039;Ik het voorkomen van hyperthyreoidie bij patienten met veneuze trombose vs controles bekeken. Van de 173 cases hadden 3 patienten een hyperthyreoidie vs 0 van de 344 controles. Statische analyse met behulp van de Fisher&#039;s exact test toont dat hyperthyreoidie en veneuze trombose vaker samen voorkomen dan op basis van toeval verwacht kan worden (p=0.037). Volgens een van mijn professoren kunnen bovenstaande getallen echter geen significant verschil opleveren. Kan ik Fisher&#039;s exact test wel gebruiken in dit geval?&lt;br /&gt;
&lt;br /&gt;
Jouw berekeningen kloppen: 3 uit 173 (1.7%) is significant verschillend van 0 uit 344 (0%) en de p-waarde is inderdaad 0.037. Ik kan me de scepsis van jouw prof wel voorstellen want 3 events is natuurlijk niet heel veel, maar misschien helpt het als je benadrukt dat 0 events uit 344 observaties al behoorlijk veel evidence geeft dat de event-rate in de controls heel erg laag is; feitelijk loopt het 95% [[betrouwbaarheidsinterval]] nul tot 1.07%, dus de kans dat het in de buurt van de 1.7% ligt is heel erg gering. Je zult wellicht dezelfde scepsis ontmoeten als je dit resultaat wilt publiceren, dus misschien moet je nog wat meer evidence verzamelen.&lt;br /&gt;
&lt;br /&gt;
== Ik heb in mijn controlearm 0 events, hoe reken ik nu de odds ratio uit? ==&lt;br /&gt;
&#039;&#039;Ik heb een 0 in een aantal 2x2 tabellen waardoor ik geen OR kan berekenen. Wat is de gebruikelijke oplossing hiervoor?&lt;br /&gt;
&lt;br /&gt;
De meest gebruikte methode om toch een OR te kunnen uitrekenen, waneer een van de cellen nul is, is bij ALLE cellen 0.5 op te tellen. Dit resulteert waarschijnlijk wel in een groter betrouwbaarheidsinterval. Een referentie voor deze correctie en de SE is: Agresti A (1990) Categorical Data Analysis. John Wiley &amp;amp; sons, New York.&lt;br /&gt;
p. 54.&lt;br /&gt;
&lt;br /&gt;
== Waar vind ik Fisher&#039;s exact test in SPSS?==&lt;br /&gt;
&lt;br /&gt;
Je vindt de test in SPSS 16 onder Analyse-&amp;gt;Descriptive Statistics-&amp;gt;Crosstabs. Vink onder de knop &amp;quot;Statistics...&amp;quot; Chi-square aan. Je krijgt dan naast de Chi-kwadraat toets ook Fisher&#039;s exact test in de output.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
* Agresti A (1990) Categorical Data Analysis. John Wiley &amp;amp; sons, New York.&lt;br /&gt;
* Mehta, C. R.&amp;amp; Patel, N. R. 1997. Exact inference in categorical data. Biometrics, 53(1), 112-117.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=293</id>
		<title>KEUZE TOETS</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=293"/>
		<updated>2009-03-10T10:03:40Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Wanneer concludeert de Shapiro Wilk test data data niet normaal verdeeld is? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Schema welke toets bij welke vergelijking =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan=&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#d0e5f5;&amp;quot; colspan=&amp;quot;5&amp;quot; |type vergelijking&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot;| 1 groep&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|2 groepen &lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|&amp;gt;2 groepen&lt;br /&gt;
|-&lt;br /&gt;
! vs. referentie&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#d0e5f5;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot;|(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!style= width=&amp;quot;50&amp;quot; height=&amp;quot;100&amp;quot; |normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#one sample t-toets|1 sample t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#gepaarde t-toets|gepaarde t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
[[T-toets#ongepaarde t-toets|ongepaarde t-toets]]&lt;br /&gt;
&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[Herhaalde metingen#linear mixed models|linear mixed models]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[One-way ANOVA]]&lt;br /&gt;
|-&lt;br /&gt;
!style= height=&amp;quot;100&amp;quot; |niet normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; |sign toets&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Wilcoxon signed rank toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Mann-Whitney U toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Friedman toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Kruskal Wallis]]&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot;| categorisch&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; | binair (proportie)&lt;br /&gt;
| style=&amp;quot;&amp;quot; |z-test voor proporties&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot;| [[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|-&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; |nominaal / ordinaal&lt;br /&gt;
| style=&amp;quot;&amp;quot; |x&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] (trend) /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Schema welke analyse bij welke associatie =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan =&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#faecc8;&amp;quot; colspan=&amp;quot;4&amp;quot; |type associatie&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; | crosssectioneel&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; |longitudinaal &lt;br /&gt;
|-&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#faecc8;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot; |(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!height=&amp;quot;100&amp;quot; width=&amp;quot;50&amp;quot;| normaal&lt;br /&gt;
|[[Correlatie#Pearson&#039;s rho|Pearson&#039;s rho]]&lt;br /&gt;
 &lt;br /&gt;
|[[Lineaire regressie]]&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; rowspan=&amp;quot;2&amp;quot;| [[Herhaalde metingen]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |niet &lt;br /&gt;
normaal&lt;br /&gt;
|[[Correlatie#Spearman&#039;s rho|Spearman&#039;s rho]] /&lt;br /&gt;
[[Correlatie#Spearman&#039;s rho|Kendall&#039;s tau]]&lt;br /&gt;
|Niet lineaire regressie&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; | categorisch&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |binair &lt;br /&gt;
(proporties)&lt;br /&gt;
|odds ratio/ risk ratio/&lt;br /&gt;
risk difference&lt;br /&gt;
|[[Logistische regressie]]&lt;br /&gt;
|[[Survival analyse]]&lt;br /&gt;
|[[Survival analyse#Cox regressie|Cox regressie]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot;| nominaal&lt;br /&gt;
/ordinaal&lt;br /&gt;
|x&lt;br /&gt;
|[[multinomiale logistische regressie]]&lt;br /&gt;
/[[ordinale logistische regressie]]&lt;br /&gt;
|x&lt;br /&gt;
|x&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= FAQ nav de twee schema&#039;s =&lt;br /&gt;
&lt;br /&gt;
== Van welk type is mijn uitkomstmaat?==&lt;br /&gt;
== Heb ik gepaarde of ongepaarde data?==&lt;br /&gt;
== Hoe beoordeel ik de normaliteit van mijn data?==&lt;br /&gt;
===Wanneer concludeert de Shapiro Wilk test dat data niet normaal verdeeld is?===&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik dacht dat een Shapiro-Wilk test met p&amp;lt;0.05 betekende dat de data niet normaal verdeeld zijn. Nu heb ik van een collega een syntax ingekeken waar een grens van 0.9 wordt aangehouden. Wat is nou waar?&lt;br /&gt;
&lt;br /&gt;
Formeel gezien, moet je bij een p&amp;lt;0.05 de nul hypothese verwerpen. In jouw geval, zou je dus op basis van de p-waarde moeten besluiten om de data als niet normaal te zien. &lt;br /&gt;
Echter, wanneer je voldoende data hebt, kun je zelfs een irrelevant, maar statistisch significante afwijking van de normale verdeling vinden. De test statistic W van de Shapiro-Wilk test loopt van 0 tot 1, waarbij 1 betekent, dat de data perfect normaal verdeeld zijn. Vaak wordt meer naar deze waarde gekeken, dan naar de p-waarde, waarbij voor de W een ondergrens van 0.90 gehanteerd wordt. Als de test-stastistic W groter is dan 0.90 kan de data als normaal verdeeld beschouwd worden. (Er zijn veel voorbeelden waarbij de W &amp;gt; 0.99 is, terwijl de p &amp;lt; 0.05 is.)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=292</id>
		<title>KEUZE TOETS</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=292"/>
		<updated>2009-03-10T10:03:03Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Hoe beoordeel ik de normaliteit van mijn data? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Schema welke toets bij welke vergelijking =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan=&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#d0e5f5;&amp;quot; colspan=&amp;quot;5&amp;quot; |type vergelijking&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot;| 1 groep&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|2 groepen &lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|&amp;gt;2 groepen&lt;br /&gt;
|-&lt;br /&gt;
! vs. referentie&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#d0e5f5;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot;|(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!style= width=&amp;quot;50&amp;quot; height=&amp;quot;100&amp;quot; |normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#one sample t-toets|1 sample t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#gepaarde t-toets|gepaarde t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
[[T-toets#ongepaarde t-toets|ongepaarde t-toets]]&lt;br /&gt;
&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[Herhaalde metingen#linear mixed models|linear mixed models]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[One-way ANOVA]]&lt;br /&gt;
|-&lt;br /&gt;
!style= height=&amp;quot;100&amp;quot; |niet normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; |sign toets&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Wilcoxon signed rank toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Mann-Whitney U toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Friedman toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Kruskal Wallis]]&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot;| categorisch&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; | binair (proportie)&lt;br /&gt;
| style=&amp;quot;&amp;quot; |z-test voor proporties&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot;| [[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|-&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; |nominaal / ordinaal&lt;br /&gt;
| style=&amp;quot;&amp;quot; |x&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] (trend) /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Schema welke analyse bij welke associatie =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan =&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#faecc8;&amp;quot; colspan=&amp;quot;4&amp;quot; |type associatie&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; | crosssectioneel&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; |longitudinaal &lt;br /&gt;
|-&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#faecc8;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot; |(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!height=&amp;quot;100&amp;quot; width=&amp;quot;50&amp;quot;| normaal&lt;br /&gt;
|[[Correlatie#Pearson&#039;s rho|Pearson&#039;s rho]]&lt;br /&gt;
 &lt;br /&gt;
|[[Lineaire regressie]]&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; rowspan=&amp;quot;2&amp;quot;| [[Herhaalde metingen]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |niet &lt;br /&gt;
normaal&lt;br /&gt;
|[[Correlatie#Spearman&#039;s rho|Spearman&#039;s rho]] /&lt;br /&gt;
[[Correlatie#Spearman&#039;s rho|Kendall&#039;s tau]]&lt;br /&gt;
|Niet lineaire regressie&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; | categorisch&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |binair &lt;br /&gt;
(proporties)&lt;br /&gt;
|odds ratio/ risk ratio/&lt;br /&gt;
risk difference&lt;br /&gt;
|[[Logistische regressie]]&lt;br /&gt;
|[[Survival analyse]]&lt;br /&gt;
|[[Survival analyse#Cox regressie|Cox regressie]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot;| nominaal&lt;br /&gt;
/ordinaal&lt;br /&gt;
|x&lt;br /&gt;
|[[multinomiale logistische regressie]]&lt;br /&gt;
/[[ordinale logistische regressie]]&lt;br /&gt;
|x&lt;br /&gt;
|x&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= FAQ nav de twee schema&#039;s =&lt;br /&gt;
&lt;br /&gt;
== Van welk type is mijn uitkomstmaat?==&lt;br /&gt;
== Heb ik gepaarde of ongepaarde data?==&lt;br /&gt;
== Hoe beoordeel ik de normaliteit van mijn data?==&lt;br /&gt;
===Wanneer concludeert de Shapiro Wilk test data data niet normaal verdeeld is?===&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;Ik dacht dat een Shapiro-Wilk test met p&amp;lt;0.05 betekende dat de data niet normaal verdeeld zijn. Nu heb ik van een collega een syntax ingekeken waar een grens van 0.9 wordt aangehouden. Wat is nou waar?&lt;br /&gt;
&lt;br /&gt;
Formeel gezien, moet je bij een p&amp;lt;0.05 de nul hypothese verwerpen. In jouw geval, zou je dus op basis van de p-waarde moeten besluiten om de data als niet normaal te zien. &lt;br /&gt;
Echter, wanneer je voldoende data hebt, kun je zelfs een irrelevant, maar statistisch significante afwijking van de normale verdeling vinden. De test statistic W van de Shapiro-Wilk test loopt van 0 tot 1, waarbij 1 betekent, dat de data perfect normaal verdeeld zijn. Vaak wordt meer naar deze waarde gekeken, dan naar de p-waarde, waarbij voor de W een ondergrens van 0.90 gehanteerd wordt. Als de test-stastistic W groter is dan 0.90 kan de data als normaal verdeeld beschouwd worden. (Er zijn veel voorbeelden waarbij de W &amp;gt; 0.99 is, terwijl de p &amp;lt; 0.05 is.)&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=291</id>
		<title>KEUZE TOETS</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=KEUZE_TOETS&amp;diff=291"/>
		<updated>2009-03-10T10:00:05Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Schema welke toets bij welke vergelijking =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan=&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#d0e5f5;&amp;quot; colspan=&amp;quot;5&amp;quot; |type vergelijking&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot;| 1 groep&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|2 groepen &lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot;|&amp;gt;2 groepen&lt;br /&gt;
|-&lt;br /&gt;
! vs. referentie&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
! gepaard&lt;br /&gt;
! ongepaard&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#d0e5f5;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot;|(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!style= width=&amp;quot;50&amp;quot; height=&amp;quot;100&amp;quot; |normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#one sample t-toets|1 sample t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; | [[T-toets#gepaarde t-toets|gepaarde t-toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |&lt;br /&gt;
[[T-toets#ongepaarde t-toets|ongepaarde t-toets]]&lt;br /&gt;
&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[Herhaalde metingen#linear mixed models|linear mixed models]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; width=&amp;quot;100&amp;quot; |[[One-way ANOVA]]&lt;br /&gt;
|-&lt;br /&gt;
!style= height=&amp;quot;100&amp;quot; |niet normaal&lt;br /&gt;
|style=&amp;quot;&amp;quot; |sign toets&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Wilcoxon signed rank toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Mann-Whitney U toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Friedman toets]]&lt;br /&gt;
|style=&amp;quot;&amp;quot; |[[Kruskal Wallis]]&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot;| categorisch&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; | binair (proportie)&lt;br /&gt;
| style=&amp;quot;&amp;quot; |z-test voor proporties&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot;| [[Chi-kwadraat toets]] / &lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|-&lt;br /&gt;
! style= height=&amp;quot;100&amp;quot; |nominaal / ordinaal&lt;br /&gt;
| style=&amp;quot;&amp;quot; |x&lt;br /&gt;
| style=&amp;quot;&amp;quot; |McNemars test&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] (trend) /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
| style=&amp;quot;&amp;quot; |GLMM / GEE&lt;br /&gt;
| style=&amp;quot;&amp;quot; |[[Chi-kwadraat toets]] /&lt;br /&gt;
[[Fisher&#039;s exact toets]]&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Schema welke analyse bij welke associatie =&lt;br /&gt;
{| border =&amp;quot;2&amp;quot; cellpadding=&amp;quot;8&amp;quot; align=&amp;quot;center&amp;quot; &lt;br /&gt;
! colspan=&amp;quot;3&amp;quot; rowspan =&amp;quot;3&amp;quot;|&lt;br /&gt;
! style=&amp;quot;background:#faecc8;&amp;quot; colspan=&amp;quot;4&amp;quot; |type associatie&lt;br /&gt;
|-&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; | crosssectioneel&lt;br /&gt;
! style=&amp;quot;background:#efefef;&amp;quot; colspan=&amp;quot;2&amp;quot; |longitudinaal &lt;br /&gt;
|-&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |2 variabelen&lt;br /&gt;
!width=&amp;quot;100&amp;quot; |meer variabelen&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#faecc8;&amp;quot; rowspan=&amp;quot;4&amp;quot; width=&amp;quot;50&amp;quot; | type &lt;br /&gt;
uit-&lt;br /&gt;
komst-&lt;br /&gt;
maat&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; width=&amp;quot;50&amp;quot; |(semi-)&lt;br /&gt;
continu&lt;br /&gt;
!height=&amp;quot;100&amp;quot; width=&amp;quot;50&amp;quot;| normaal&lt;br /&gt;
|[[Correlatie#Pearson&#039;s rho|Pearson&#039;s rho]]&lt;br /&gt;
 &lt;br /&gt;
|[[Lineaire regressie]]&lt;br /&gt;
|colspan=&amp;quot;2&amp;quot; rowspan=&amp;quot;2&amp;quot;| [[Herhaalde metingen]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |niet &lt;br /&gt;
normaal&lt;br /&gt;
|[[Correlatie#Spearman&#039;s rho|Spearman&#039;s rho]] /&lt;br /&gt;
[[Correlatie#Spearman&#039;s rho|Kendall&#039;s tau]]&lt;br /&gt;
|Niet lineaire regressie&lt;br /&gt;
|-&lt;br /&gt;
!style=&amp;quot;background:#efefef;&amp;quot; rowspan=&amp;quot;2&amp;quot; | categorisch&lt;br /&gt;
!height=&amp;quot;100&amp;quot; |binair &lt;br /&gt;
(proporties)&lt;br /&gt;
|odds ratio/ risk ratio/&lt;br /&gt;
risk difference&lt;br /&gt;
|[[Logistische regressie]]&lt;br /&gt;
|[[Survival analyse]]&lt;br /&gt;
|[[Survival analyse#Cox regressie|Cox regressie]]&lt;br /&gt;
|-&lt;br /&gt;
!height=&amp;quot;100&amp;quot;| nominaal&lt;br /&gt;
/ordinaal&lt;br /&gt;
|x&lt;br /&gt;
|[[multinomiale logistische regressie]]&lt;br /&gt;
/[[ordinale logistische regressie]]&lt;br /&gt;
|x&lt;br /&gt;
|x&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= FAQ nav de twee schema&#039;s =&lt;br /&gt;
&lt;br /&gt;
== Van welk type is mijn uitkomstmaat?==&lt;br /&gt;
== Heb ik gepaarde of ongepaarde data?==&lt;br /&gt;
== Hoe beoordeel ik de normaliteit van mijn data?==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=290</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=290"/>
		<updated>2009-03-10T09:53:17Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Referenties */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa en een uitgebreide verwijzing naar literatuur[http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=289</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=289"/>
		<updated>2009-03-10T09:52:20Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Referenties */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
*Discussie over het nut van kappa [http://ourworld.compuserve.com/homepages/jsuebersax/kappa.htm]&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=288</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=288"/>
		<updated>2009-03-10T09:49:59Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
= Referenties =&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=287</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=287"/>
		<updated>2009-03-10T09:49:22Z</updated>

		<summary type="html">&lt;p&gt;Docent5: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;br /&gt;
&lt;br /&gt;
== Referenties ==&lt;br /&gt;
&lt;br /&gt;
*Douglas G, Altman, Practical Statistics for Medical Research, pag. 404&lt;br /&gt;
&lt;br /&gt;
&amp;lt;div style=&amp;quot;background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;&amp;quot;&amp;gt;&lt;br /&gt;
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.&lt;br /&gt;
&lt;br /&gt;
Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse. &lt;br /&gt;
&amp;lt;div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=286</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=286"/>
		<updated>2009-03-10T09:47:49Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
	<entry>
		<id>https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=285</id>
		<title>Cohen&#039;s kappa</title>
		<link rel="alternate" type="text/html" href="https://wikistatistiek.amc.nl/index.php?title=Cohen%27s_kappa&amp;diff=285"/>
		<updated>2009-03-10T09:47:27Z</updated>

		<summary type="html">&lt;p&gt;Docent5: /* Mijn kappa komt veel lager uit dan ik verwachtte, waar kan dit door komen? */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=kappa=&lt;br /&gt;
&lt;br /&gt;
==Mijn kappa komt veel lager uit dan ik verwacht, waar kan dit door komen?==&lt;br /&gt;
&#039;&#039;Ik wil uitrekenen wat de kappa tussen drie radiologen is bij het beoordelen van kleine longembolien. Het gaat mij er om hoe vaak zij een mini-longembolie zien (heb ik waarde 2 gegeven, grotere longembolie of geen longembolie heb ik waarde 1 gegeven). De meeste waarden zijn 1, met in een paar gevallen (en verschillende voor de drie radiologen) een 2. Ook al is er discrepantie tussen de radiologen, toch zou je verwachten dat het nog een redelijke kappa zou hebben: zo vaak komt zo&#039;n &lt;br /&gt;
mini-longembolie niet voor. Toch krijg ik juist een hele lage kappa (0.08). Dit snap ik niet. &lt;br /&gt;
&lt;br /&gt;
Niet zeker te zeggen zonder de data te zien, maar een plausibele verklaring voor het verkrijgen van een dergelijke lage kappa in dit geval is het volgende. Kappa berekent niet de overeenkomst tussen de raters sec, maar berekent de mate waarin de raters meer overeenkomen dat wat puur op basis van toeval verwacht zou worden. Wanneer het meerendeel van de embolien door de raters als 1 gescoord worden, en de keuze van welke embolien een 2 krijgen puur op basis van toeval gemaakt zou worden, dan is er nog steeds een grote kans dat de raters in veel gevallen beide een 1 gescoord hebben. Het is dus lastig om nog veel toe te voegen aan deze op toeval berustende overeenstemming. Blijkbaar is de werkelijke overeenstemming niet veel beter gebleken.&lt;br /&gt;
&lt;br /&gt;
Zie bijvoorbeeld het boek Douglas G, Altman, Practical Statistics for Medical Research, pag. 404, voor een heldere uitleg over de berekening van Kappa.&lt;/div&gt;</summary>
		<author><name>Docent5</name></author>
	</entry>
</feed>