T-toets: Difference between revisions

From Wikistatistiek
Jump to navigation Jump to search
No edit summary
(40 intermediate revisions by 3 users not shown)
Line 1: Line 1:
De t-toets is een parametrische toets voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De meest gebruikte t-toets is de [[T-toets#two sample ongepaarde t-toets|two sample ongepaarde t-toets]] waarbij de gemiddelden van 2 onafhankelijk groepen vergeleken worden. Voor 2 gepaarde groepen is er de [[T-toets#two sample gepaarde t-toets|two sample gepaarde t-toets]] en voor hypotheses over het gemiddelde in 1 groep de [[T-toets#one sample t-toets|one sample t-toets]]
{{auteurs|
|mainauthor= [[user:Nan van Geloven|dr. ir. N. van Geloven]]
|coauthor=
}}
De t-toets is een parametrische toets voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De meest gebruikte t-toets is de [[T-toets#ongepaarde t-toets|ongepaarde t-toets]]. Deze toets vergelijkt de de gemiddelden van 2 onafhankelijk groepen. Voor [[KEUZE TOETS#Heb ik gepaarde of ongepaarde data?|gepaarde]] groepen is er de [[T-toets#gepaarde t-toets|gepaarde t-toets]] en voor hypotheses over het gemiddelde in 1 groep de [[T-toets#one sample t-toets|one sample t-toets]].


=ongepaarde t-toets=
== Wanneer gebruik ik de ongepaarde t-toets? ==


Als je wilt toetsen of de gemiddelden van twee aparte groepen aan elkaar gelijk zijn, kun je de ongepaarde t-toets gebruiken. Bijvoorbeeld als je wilt testen of de gemiddelde leeftijd gelijk is voor twee armen in een studie.


== Wanneer gebruik ik Fisher's exact test? ==
De t-toets veronderstelt dat het gemiddelde verschil tussen de twee groepen normaal verdeeld is. Als beide groepen afkomstig zijn uit een normaal verdeelde populatie is hieraan voldaan. Je kunt daarom beoordelen of jouw studie sample aan de normaliteit assumptie van de two sample ongepaarde t-toets voldoet door voor beide groepen het histogram te bekijken of een formele toets te doen, bijvoorbeeld de Kolmogorov-Smirnoff toets of de Shapiro-Wilk toets (in SPSS 16: Analyze- Descriptive Statistics->Explore, klik onder het "Plots" kopje 'Histogram' en 'Normality plots with tests' aan, geef de groepsvariabele op onder "Factor List").


Fisher's exact test kan gebruikt worden om te toetsen of het verschil tussen twee proporties in een klassieke 2x2 tabel significant is. Dergelijke tabellen worden meestal geanalyseerd met een [[Chi-kwadraat test]]. Traditioneel wordt er voor de Fisher's exact test gekozen ipv een Chi-kwadraat wanneer er lage aantallen (geobserveerde count ~<10 of expected count <5) in de 2x2 tabel voorkomen. De Chi-kwadraat test is dan niet meer nauwkeurig. Omdat Fisher's Exact test in de huidige statistische pakketten even snel uitgerekend kan worden als een chi-kwadraat test is er geen bezwaar meer om deze exacte test (chi-kwadraat gebruikt een benadering) altijd te gebruiken bij het analyseren van een 2x2 (of een mxn) tabel.
De standaard two sample ongepaarde t-toets veronderstelt daarnaast dat beide groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld 'Levene's Test for equality of variance' kun je testen of de variantie in beide groepen gelijk verondersteld kan worden. SPSS geeft in zijn output van de two sample ongepaarde t-toets dit testresultaat plus het resultaat van de t-toets bij het wel of niet veronderstellen van gelijke variantie.


Voorbeeld van een klassieke 2x2 tabel:
Voorbeeld van het gebruik van een ongepaarde t-toets:


<center>
{| border ="1" style=align="center" cellpadding="3" cellspacing="0"
<table>
! colspan="4" align="left"|Table 1. Baseline characteristics of the patients
<tr><td></td><td>cases</td><td>controls</td><td>totals</td></tr>
|-
<tr><td>men</td><td>0</td><td>10</td><td>10</td></tr>
|align="left" |Variable*
<tr><td>woman</td><td>12</td><td>2</td><td>14</td></tr>
|align="center"|Treated Group
<tr><td>totals</td><td>12</td><td>12</td><td>24</td></tr>
|align="center"|Placebo Group
</table>
|align="center"|p-value**
</center>
|-
|Age - yr
|align="center" | 67 (5.0)
|align="center" | 64 (4.2)
|align="center" |0.12
|-
|Weight - kg
|align="center" | 79 (10.2)
|align="center" | 85 (15.4)
|align="center" |0.33
|-
|colspan="4" rowspan="2"|  *Variables are denoted as mean (SD). **Group differences were tested with the two sample unpaired t-test.
|}


== Ik heb in mijn controlearm 0 events, kan ik het verschil tussen beide armen nog wel toetsen? ==
== Welke toets kan ik gebruiken voor het vergelijken van twee virusmetingen? ==
''Ik het voorkomen van hyperthyreoidie bij patienten met veneuze trombose vs controles bekeken. Van de 173 cases hadden 3 patienten een hyperthyreoidie vs 0 van de 344 controles. Statische analyse met behulp van de Fisher's exact test toont dat hyperthyreoidie en veneuze trombose vaker samen voorkomen dan op basis van toeval verwacht kan worden (p=0.037). Volgens een van mijn professoren kunnen bovenstaande getallen echter geen significant verschil opleveren. Kan ik Fisher's exact test wel gebruiken in dit geval?
''Ik heb 2 metingen gedaan (betrefende de hoeveelheid van een virus: niet normaal verdeeld) op tijdstip A en tijdstip B bij een patienten populatie. Deze populatie heb ik opgesplist in 2 groepen, nl: opgeknapt en niet opgeknapt. Nu wil ik weten of de afnamen (of toenamen) van hoeveelheid virus verschilt voor de opgeknapte en niet opgeknapte patienten. Ik wil graag weten welke toets ik hiervoor kan gebruiken.


Jouw berekeningen kloppen: 3 uit 173 (1.7%) is significant verschillend van 0 uit 344 (0%) en de p-waarde is inderdaad 0.037. Ik kan me de scepsis van jouw prof wel voorstellen want 3 events is natuurlijk niet heel veel, maar misschien helpt het als je benadrukt dat 0 events uit 344 observaties al behoorlijk veel evidence geeft dat de event-rate in de controls heel erg laag is; feitelijk loopt het 95% [[betrouwbaarheidsinterval]] nul tot 1.07%, dus de kans dat het in de buurt van de 1.7% ligt is heel erg gering. Je zult wellicht dezelfde scepsis ontmoeten als je dit resultaat wilt publiceren, dus misschien moet je nog wat meer evidence verzamelen.
Voor het ontwerp wat je omschrijft zijn meerdere aanpakken mogelijk. Ik doe hier een voorstel: Indien je geïnteresseerd bent in de afname (of toename) tussen de twee tijdstippen, kun je deze verschillen als uitkomstmaat beschouwen. Iedere patient heeft dan 1 uitkomst, namelijk zijn verschil in virus.  
De patienten heb je ingedeeld in twee groepen (opgeknapt, niet opgeknapt). Je wilt dan toetsen of de uitkomstmaat verschilt over deze twee groepen.
Je schrijft dat de hoeveelheid virus niet normaal verdeeld is. Je zou dit opnieuw kunnen bekijken voor het verschil in virushoeveelheid. Eventueel zou een log transformatie kunnen helpen de data minder scheef te krijgen (je bekijkt dan als het ware een log reductie factor). De twee groepen kunnen dan of met ongepaarde t-toets of met een niet parametrische toets ([[Mann-Whitney U toets]]) vergeleken worden.


== Ik heb in mijn controlearm 0 events, hoe reken ik nu de odds ratio uit? ==
== Kan ik bij ongelijke groepsgrootte de t-toets gebruiken? ==
''Ik heb een 0 in een aantal 2x2 tabellen waardoor ik geen OR kan berekenen. Wat is de gebruikelijke oplossing hiervoor?
''Ik wil binnen mijn studiepopulatie groepen vergelijken op basis van verschillende variabelen. Als ik groepen maak kom ik bij een vergelijking op 14 proefpersonen in de ene group en 97 in de andere groep uit. Dit is een erg groot verschil en ik vroeg me af of dit niet een te sterke invloed heeft het resultaat? Mijn vraag is dus of ik in SPSS gewoon de t-toets mag gebruiken voor de vergelijking van deze twee groepen of wat anders het alternatief zou zijn.


De meest gebruikte methode om toch een OR te kunnen uitrekenen, waneer een van de cellen nul is, is bij ALLE cellen 0.5 op te tellen. Dit resulteert waarschijnlijk wel in een groter betrouwbaarheidsinterval. Een referentie voor deze correctie en de SE is: Agresti A (1990) Categorical Data Analysis. John Wiley & sons, New York.
De t-toett houdt bij de berekening rekening met de beschikbare aantallen (in de degrees of freedom), het is dus in principe geen bezwaar dat er ongelijke groepsgroottes zijn. Wat (bij de standaard t-test) wel gelijk verondersteld wordt is de spreiding (variantie) in beide groepen. En verder wordt er natuurlijk een normale verdeling verondersteld. Daar zou je nog eens kritisch naar kunnen kijken. Bij kleinere groepen (n=14) is de normaliteitsaanname soms niet goed hard te maken. Het kan dan 'veilig' zijn om een niet-parametrische test te gerbruiken, zoals de [[Mann-Whitney U toets]].
p. 54.


== Waar vind ik Fisher's exact test in SPSS?==
== Wanneer kunnen we gelijke varianties aannemen in de t-toets? ==


Je vindt de test in SPSS 16 onder Analyse->Descriptive Statistics->Crosstabs. Vink onder de knop "Statistics..." Chi-square aan. Je krijgt dan naast de Chi-kwadraat toets ook Fisher's exact test in de output.
''We hebben een vraag over t-toetsen op data met ongelijke variantie. In het soort experimenten die wij doen komt bijna nooit voor dat groepen ongelijke variantie vertonen, maar een enkele keer wel. Wij vroegen ons af wat me moeten doen als er in een experiment met meer dan 2 groenen, 1 groep is waarvan de variantie significant anders is. Moeten we dan bijvoorbeeld een Welch test doen voor vergelijkingen met de groep die andere variantie vertoont en een student t-test voor de vergelijkingen tussen groepen met dezelfde variantie? Of moeten we in dat geval binnen het hele experiment of zelfs experimenten een test gebruiken die niet uitgaat van gelijke variantie?  Of kunnen we stellen dat het die ene keer toeval is dat de variantie anders is en gewoon de testen gebruiken die van gelijke variantie uit gaan? Het lijkt ons niet wenselijk dat we verschillende datasets/experimenten of zelfs groepen binnen experiment statistisch anders moeten behandelen terwijl het type data hetzelfde is.


== Referenties ==
Hier zijn de richtlijnen niet zwart wit. Je kunt meewegen wat je verwachtingen zijn van de variantie (of je denkt dat het toeval is). Daarbij zou ik in ogenschouw houden wat de sample size is en dus hoe overtuigend de data je vertellen dat er ongelijke varianties zijn. Daarnaast is het zowiezo van belang voordat je groepen onderling vergelijkt een sterke ‘overall’ test te doen ([[One-way ANOVA]] of [[Kruskal Wallis|niet-parametrisch equivalent]]).
* Agresti A (1990) Categorical Data Analysis. John Wiley & sons, New York.
* Mehta, C. R.& Patel, N. R. 1997. Exact inference in categorical data. Biometrics, 53(1), 112-117.


<div style="background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;">
=gepaarde t-toets=
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.
== Wanneer gebruik ik de gepaarde t-toets? ==
Als je wilt toetsen of de gemiddelden van twee maal gemeten, [[KEUZE TOETS#Heb ik gepaarde of ongepaarde data?|gepaarde]], variabelen aan elkaar gelijk zijn, kun je de gepaarde t-toets gebruiken. Bijvoorbeeld als je wilt testen of de bloedwaarden voor en na het toedienen van een medicijn van elkaar verschillen.


Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse.  
De gepaarde t-toets veronderstelt dat het verschil tussen twee gepaarde metingen normaal verdeeld is. Om dit te onderzoeken kun je voor ieder paar het verschil tussen de twee metingen berekenen en beoordelen of deze verschil scores uit een normale verdeling afkomstig kunnen zijn. Je kunt het histogram van de verschilscore bekijken of een formele toets doen, bijvoorbeeld de Kolmogorov-Smirnoff toets of de Shapiro-Wilk toets (in SPSS 16: Analyze- Descriptive Statistics->Explore, klik onder het "Plots" kopje 'Histogram' en 'Normality plots with tests' aan, geef in de "Dependent List" de verschilscore op).
<div>


=two sample ongepaarde t-toets=
=two sample gepaarde t-toets=
=one sample t-toets=
=one sample t-toets=
== Wanneer gebruik ik de one sample t-toets? ==
Als je wilt toetsen of het gemiddelde van een variabele (bijvoorbeeld lengte) in een populatie gelijk is aan een bepaalde, vooraf gespecificeerde, waarde kun je de one sample t-toets gebruiken. Bijvoorbeeld als je de hypothese wilt toetsen of de gemiddelde lengte van mannen met bepaalde aandoening lager is dan de (bekende) Nederlands gemiddelde lengte van mannen (1.82 m).


<div style="background-color:#e8f1ff; margin:0.5em; padding:1em; border:1px solid #C8D0DC;">
De one sample t-toets veronderstelt dat de variabele een normale verdeling heeft in de populatie. Om redelijkerwijs aan te kunnen nemen dat de gemeten waardes in een studie sample uit een normale verdeling afkomstig zijn kun je een histogram maken van de data of een formele toets uitvoeren, bijvoorbeeld de Kolmogorov-Smirnoff test of de Shapiro-Wilk test (in SPSS 16: Analyze- Descriptive Statistics->Explore, klik onder het "Plots" kopje 'Histogram' en 'Normality plots with tests' aan).
Terug naar [[OVERZICHT]] voor een overzicht van alle statistische onderwerpen op deze wiki.


Terug naar [[KEUZE TOETS]] voor hulp bij het uitzoeken van een geschikte toets of analyse.  
= Waar vind ik de t-toets in SPSS?=
<div>
 
Je vindt de t-toets in SPSS 16 onder Analyze->Compare Means.
 
= Referenties =
 
{{onderschrift}}

Revision as of 10:48, 25 May 2016

Auteur dr. ir. N. van Geloven
Co-Auteur
auteurschap op deze site

De t-toets is een parametrische toets voor het testen van hypothesen over de gemiddelden van (semi-)continue data. De meest gebruikte t-toets is de ongepaarde t-toets. Deze toets vergelijkt de de gemiddelden van 2 onafhankelijk groepen. Voor gepaarde groepen is er de gepaarde t-toets en voor hypotheses over het gemiddelde in 1 groep de one sample t-toets.

ongepaarde t-toets

Wanneer gebruik ik de ongepaarde t-toets?

Als je wilt toetsen of de gemiddelden van twee aparte groepen aan elkaar gelijk zijn, kun je de ongepaarde t-toets gebruiken. Bijvoorbeeld als je wilt testen of de gemiddelde leeftijd gelijk is voor twee armen in een studie.

De t-toets veronderstelt dat het gemiddelde verschil tussen de twee groepen normaal verdeeld is. Als beide groepen afkomstig zijn uit een normaal verdeelde populatie is hieraan voldaan. Je kunt daarom beoordelen of jouw studie sample aan de normaliteit assumptie van de two sample ongepaarde t-toets voldoet door voor beide groepen het histogram te bekijken of een formele toets te doen, bijvoorbeeld de Kolmogorov-Smirnoff toets of de Shapiro-Wilk toets (in SPSS 16: Analyze- Descriptive Statistics->Explore, klik onder het "Plots" kopje 'Histogram' en 'Normality plots with tests' aan, geef de groepsvariabele op onder "Factor List").

De standaard two sample ongepaarde t-toets veronderstelt daarnaast dat beide groepen uit een verdeling komen met dezelfde variantie (spreiding). Met bijvoorbeeld 'Levene's Test for equality of variance' kun je testen of de variantie in beide groepen gelijk verondersteld kan worden. SPSS geeft in zijn output van de two sample ongepaarde t-toets dit testresultaat plus het resultaat van de t-toets bij het wel of niet veronderstellen van gelijke variantie.

Voorbeeld van het gebruik van een ongepaarde t-toets:

Table 1. Baseline characteristics of the patients
Variable* Treated Group Placebo Group p-value**
Age - yr 67 (5.0) 64 (4.2) 0.12
Weight - kg 79 (10.2) 85 (15.4) 0.33
*Variables are denoted as mean (SD). **Group differences were tested with the two sample unpaired t-test.

Welke toets kan ik gebruiken voor het vergelijken van twee virusmetingen?

Ik heb 2 metingen gedaan (betrefende de hoeveelheid van een virus: niet normaal verdeeld) op tijdstip A en tijdstip B bij een patienten populatie. Deze populatie heb ik opgesplist in 2 groepen, nl: opgeknapt en niet opgeknapt. Nu wil ik weten of de afnamen (of toenamen) van hoeveelheid virus verschilt voor de opgeknapte en niet opgeknapte patienten. Ik wil graag weten welke toets ik hiervoor kan gebruiken.

Voor het ontwerp wat je omschrijft zijn meerdere aanpakken mogelijk. Ik doe hier een voorstel: Indien je geïnteresseerd bent in de afname (of toename) tussen de twee tijdstippen, kun je deze verschillen als uitkomstmaat beschouwen. Iedere patient heeft dan 1 uitkomst, namelijk zijn verschil in virus. De patienten heb je ingedeeld in twee groepen (opgeknapt, niet opgeknapt). Je wilt dan toetsen of de uitkomstmaat verschilt over deze twee groepen. Je schrijft dat de hoeveelheid virus niet normaal verdeeld is. Je zou dit opnieuw kunnen bekijken voor het verschil in virushoeveelheid. Eventueel zou een log transformatie kunnen helpen de data minder scheef te krijgen (je bekijkt dan als het ware een log reductie factor). De twee groepen kunnen dan of met ongepaarde t-toets of met een niet parametrische toets (Mann-Whitney U toets) vergeleken worden.

Kan ik bij ongelijke groepsgrootte de t-toets gebruiken?

Ik wil binnen mijn studiepopulatie groepen vergelijken op basis van verschillende variabelen. Als ik groepen maak kom ik bij een vergelijking op 14 proefpersonen in de ene group en 97 in de andere groep uit. Dit is een erg groot verschil en ik vroeg me af of dit niet een te sterke invloed heeft het resultaat? Mijn vraag is dus of ik in SPSS gewoon de t-toets mag gebruiken voor de vergelijking van deze twee groepen of wat anders het alternatief zou zijn.

De t-toett houdt bij de berekening rekening met de beschikbare aantallen (in de degrees of freedom), het is dus in principe geen bezwaar dat er ongelijke groepsgroottes zijn. Wat (bij de standaard t-test) wel gelijk verondersteld wordt is de spreiding (variantie) in beide groepen. En verder wordt er natuurlijk een normale verdeling verondersteld. Daar zou je nog eens kritisch naar kunnen kijken. Bij kleinere groepen (n=14) is de normaliteitsaanname soms niet goed hard te maken. Het kan dan 'veilig' zijn om een niet-parametrische test te gerbruiken, zoals de Mann-Whitney U toets.

Wanneer kunnen we gelijke varianties aannemen in de t-toets?

We hebben een vraag over t-toetsen op data met ongelijke variantie. In het soort experimenten die wij doen komt bijna nooit voor dat groepen ongelijke variantie vertonen, maar een enkele keer wel. Wij vroegen ons af wat me moeten doen als er in een experiment met meer dan 2 groenen, 1 groep is waarvan de variantie significant anders is. Moeten we dan bijvoorbeeld een Welch test doen voor vergelijkingen met de groep die andere variantie vertoont en een student t-test voor de vergelijkingen tussen groepen met dezelfde variantie? Of moeten we in dat geval binnen het hele experiment of zelfs experimenten een test gebruiken die niet uitgaat van gelijke variantie? Of kunnen we stellen dat het die ene keer toeval is dat de variantie anders is en gewoon de testen gebruiken die van gelijke variantie uit gaan? Het lijkt ons niet wenselijk dat we verschillende datasets/experimenten of zelfs groepen binnen experiment statistisch anders moeten behandelen terwijl het type data hetzelfde is.

Hier zijn de richtlijnen niet zwart wit. Je kunt meewegen wat je verwachtingen zijn van de variantie (of je denkt dat het toeval is). Daarbij zou ik in ogenschouw houden wat de sample size is en dus hoe overtuigend de data je vertellen dat er ongelijke varianties zijn. Daarnaast is het zowiezo van belang voordat je groepen onderling vergelijkt een sterke ‘overall’ test te doen (One-way ANOVA of niet-parametrisch equivalent).

gepaarde t-toets

Wanneer gebruik ik de gepaarde t-toets?

Als je wilt toetsen of de gemiddelden van twee maal gemeten, gepaarde, variabelen aan elkaar gelijk zijn, kun je de gepaarde t-toets gebruiken. Bijvoorbeeld als je wilt testen of de bloedwaarden voor en na het toedienen van een medicijn van elkaar verschillen.

De gepaarde t-toets veronderstelt dat het verschil tussen twee gepaarde metingen normaal verdeeld is. Om dit te onderzoeken kun je voor ieder paar het verschil tussen de twee metingen berekenen en beoordelen of deze verschil scores uit een normale verdeling afkomstig kunnen zijn. Je kunt het histogram van de verschilscore bekijken of een formele toets doen, bijvoorbeeld de Kolmogorov-Smirnoff toets of de Shapiro-Wilk toets (in SPSS 16: Analyze- Descriptive Statistics->Explore, klik onder het "Plots" kopje 'Histogram' en 'Normality plots with tests' aan, geef in de "Dependent List" de verschilscore op).

one sample t-toets

Wanneer gebruik ik de one sample t-toets?

Als je wilt toetsen of het gemiddelde van een variabele (bijvoorbeeld lengte) in een populatie gelijk is aan een bepaalde, vooraf gespecificeerde, waarde kun je de one sample t-toets gebruiken. Bijvoorbeeld als je de hypothese wilt toetsen of de gemiddelde lengte van mannen met bepaalde aandoening lager is dan de (bekende) Nederlands gemiddelde lengte van mannen (1.82 m).

De one sample t-toets veronderstelt dat de variabele een normale verdeling heeft in de populatie. Om redelijkerwijs aan te kunnen nemen dat de gemeten waardes in een studie sample uit een normale verdeling afkomstig zijn kun je een histogram maken van de data of een formele toets uitvoeren, bijvoorbeeld de Kolmogorov-Smirnoff test of de Shapiro-Wilk test (in SPSS 16: Analyze- Descriptive Statistics->Explore, klik onder het "Plots" kopje 'Histogram' en 'Normality plots with tests' aan).

Waar vind ik de t-toets in SPSS?

Je vindt de t-toets in SPSS 16 onder Analyze->Compare Means.

Referenties

Klaar met lezen? Je kunt naar het OVERZICHT van alle statistische onderwerpen op deze wiki gaan of naar de pagina KEUZE TOETS voor hulp bij het uitzoeken van een geschikte toets of analyse. Wil je meer leren over biostatistiek? Volg dan de AMC e-learning Practical Biostatistics. Vind je op deze pagina's iets dat niet klopt? Werkt een link niet? Of wil je bijdragen aan de wiki? Neem dan contact met ons op.

De wiki biostatistiek is een initiatief van de helpdesk statistiek van Amsterdam UMC, locatie AMC. Medewerkers van Amsterdam UMC, locatie AMC kunnen via intranet ondersteuning aanvragen. Ondersteuning aan studenten of derden is niet mogelijk.