Hoorcollegeverslagen 1-8

Deze samenvatting is gebaseerd op het studiejaar 2013-2014.


Week 1: Correlaties en maten voor effectgrootte

 

Correlatie en Causaliteit

Correlatie is de samenhang tussen variabelen. Twee variabelen correleren met elkaar als het ene tegelijkertijd optreedt met het andere. Het zegt niet meteen dat er ook een oorzaak- gevolgrelatie is tussen 2 variabelen: het zegt dat er een bepaalde samenhang is.

De correlatie ligt tussen de -1 en de 1. Wanneer de correlatie 0 is, is er geen samenhang tussen variabelen.

 

Causaliteit gaat over oorzaak- gevolgrelaties. Het is de sleutel tot het begrijpen van de werkelijkheid.

 

Er zijn 3 criteria voor causaliteit:

1. Samenhang

2. Opeenvolging in tijd van oorzaak en gevolg

3. Uitsluiting van alternatieve verklaringen

 

Het uitsluiten van alternatieve verklaringen is erg lastig. Daarom is het moeilijk om aan alle criteria te voldoen.

Causaliteit vaststellen gaat het beste in experimenteel onderzoek, en enigszins in correlationeel onderzoek.

 

De covariantie wordt gebruikt om de mate waarin twee variabelen samen varieren te bepalen. Als dit getal positief is duidt dit op een positieve relatie, en een negatief getal duidt op een negatieve relatie. Nul betekent geen relatie. In R wordt de covariantie berekent met cov(X,Y), in SPSS met Analyze>Correlate>Bivariate>Options>Covariances. Een nadeel van de covariantie is dat de range afhankelijk is van de meeteenheden van de variabelen. Om deze reden wordt meestal Pearson r gebruikt. Deze deelt de covariantie door de standaarddeviaties.

 

Pearson (product-moment) correlatie r:

De Pearson correlatie is van interval meetniveau. Hierbij wordt gerekend met gemiddelden. Met deze correlatie kun je uitdrukken hoe sterk de lineaire relatie tussen 2 variabelen is. Dit doe je aan de hand van de volgende formule:

 

 

Oftwel: rxy =(∑zxzy) / (n-1)

De sterkte van de samenhang hier wordt uitgedrukt in een getal dat onafhankelijk is van lokatie en schaal (meeteenheid) van de twee variabelen x en y.

 

Voor rxy geldt:

Samenhang (r) ligt altijd tussen -1 en 1

Als er geen lineaire associatie is, dan is r gelijk aan 0

r meet alleen de mate van lineair verband, ook al suggereert de scatterplot een ander, niet lineair verband

r is niet robuust, want hij is gevoelig voor uitbijters. Daarom moet er altijd gekeken worden naar de scatterplot.

 

De Spearman rangorde correlatie:

Deze wordt ook wel uitgedrukt in ρ (rho) of rs . Het gaat hierbij om het lineaire verband tussen 2 variabelen van ordinaal meetniveau.

De Spearman rangorde correlatie heeft de volgende eigenschappen:

Het controleren van de overeenkomst tussen 2 testen (interrater reliability)

Het benadert variabelen waarbij de gemeten precieze score buiten beschouwing moet worden gelaten.

Het is een robuuste variant van pearson r.

De formule voor Spearman’s rho is:

rs= 1- (6*∑D2)/(n3-n)

Als alle rangorde’s identiek is, zijn alle D’s nul, en is de spearman correlatie dus 1.

 

De Punt-biseriële correlatie:

Deze wordt ook wel uitgedrukt in rpb. Het is de relatie tussen een binaire variabele (X) (een variabele met maar 2 uitkomstmogelijkheden) en een variabele op interval meetniveau (Y). De formule voor deze correlatie is:

rpb = ((y(gem1) – y(gem))/Sy)* Sx

 

De phi-coefficient ϕ :

Hierbij wordt de relatie tussen 2 binaire variabelen weergegeven. Je doet dit door middel van een kruistabel. In die kruistabel zijn 4 combinaties mogelijk (2rijen*2kolommen). Deze geef je de letters A,B,C,D. Daarna is als volgt de phi-coefficient te berekenen:

Φ = ((A*D)-(B*C))/ √((A+B)(C+D)(A+C)(B+D))

De phi-coefficient heeft een relatie met de X2 :

Φ = √(X2 / n)

 

Een overzichtje van verschillende variabelen en de bijpassende correlaties:

Bij twee kwantitatieve variabelen gebruik je de Pearson r. Bij twee ordinale variabelen gebruik je Spearman’s ρ. Bij twee dichotome variabelen gebruik je de Phi-coefficient. En bij een dichotome en een kwantitatieve variabele gebruik je de punt-biseriële correlatie rpb.

 

De t-toets :

De statistische significantie van de samenhang wordt bepaald met een t-toets. Hierdoor kunnen we zien wat de correlatie zegt over een populatie, in plaats van enkel over de steekproef.

Deze toetst de nulhypothese H0: ρ = 0 en bijvoorbeeld Ha: ρ > 0

 

Je berekent de t-toets met: met df = n-2.

 

In de t-tabel kun je bij de gewenste α en het aantal vrijheidsgraden de t* opzoeken. Hoe kleiner de p-waarde, hoe groter het bewijs tegen H0 is.

 

Als de correlatie groter is, dan wordt ook de t-waarde groter. Dit kun je aan de formule zien, want r staat boven de breukstreep.

 

Effectgrootte

De waarde van de correlatie geeft de sterkte van de samenhang aan maar die waarde is moeilijk te interpreteren omdat je niet weet wat bijvoorbeeld r = .60 betekent. Je kunt het ook moeilijk vergelijken, r = .60 is niet een twee keer zo sterke samenhang als r = 30. Daarom kun je r kwadrateren, dit heet de coëfficiënt of determination (COD) of Proportion of Variance Explained (VAF). Hiermee wordt de richting niet meer zichtbaar, doordat je met het kwadrateren automatisch een positief getal vindt.

 

Naast een maat voor sterkte van samenhang is dus ook een maat voor effectgrootte nodig. Effect heeft altijd te maken met samenhang. Bij een causale relatie is het ene verschijnsel oorzaak en het andere het gevolg. Men kan ook zeggen dat het ene verschijnsel invloed (of effect) heeft op het andere. Hiervoor gebruiken we twee alternatieve maten om effectgrootte te berekenen, bij deze twee heb je een variabele nodig die groepen aanduidt:

 

Cohen’s d is gebaseerd op parameters, dus populatiegegevens

 

Hedges’ g is gebaseerd op statistieken, dus steekproefgegevens

 

Week 2: Enkelvoudige Lineaire Regressie

 

Vorige week:

-Correlaties

-Maten van effectgrootte

-Van de samenhang tussen twee variabelen kun je de correlatiecoefficient berekenen

 

Een correlatie zegt niet hoe de variabelen aan elkaar gerelateerd zijn. Dit kun je bekijken door middel van regressieanalyse.

 

Regressiemodellen

Regressiemodellen voorspellen oorzaak en gevolgrelaties. Het zijn modellen van causale samenhang met een relatie tussen de voorspellende variabele (x) en de afhankelijke variabele (y).

 

Lineaire Regressie

Een regressieanalyse is het opstellen van een regressievergelijking, dit kan alleen als je twee kwantitatieve variabelen hebt. Je gaat een variabele voorspellen uit een andere variabele, dus y voorspellen uit x. Variabele Y is de responsvariabele (predicted variabele en afhankelijk) en de x variabele is de predictor variabele (onafhankelijk). Het is mogelijk een variabele uit meerdere variabelen te voorspellen, dit is meervoudige lineaire regressie. Dit wordt volgende week behandeld.

De regressielijn geeft de best mogelijke fit voor de data weer. In SPSS: dubbelklikken op plot en drukken op: fit line at total. In R: abline(lm(y-x)). De lijn geeft de voorspelde waardes van Y voor X weer.

 

Op de middelbare school kreeg je y=ax+b. Hier is a de richtingscoëfficiënt en b is de constante.

De formule voor een regressielijn van de steekproef is als volgt: ŷ = b0 +b1x. Deze formule bevat een helling en een intercept.

De helling van de formule is de helling/slope of het regressiegewicht. Dit is de richtingscoëfficiënt. Deze bepaalt hoe steil de lijn zal lopen. In de formule wordt de helling aangeduid met b1.

Het intercept is de plaats waar de lijn zal beginnen (waar deze de y-as kruist), dus waar x=0. Dit is niet altijd bij 0. In de formule wordt het intercept aangeduid met b0.

De lijn beschrijft de data het beste op het moment dat we kunnen spreken van het kleinste kwadratencriterium. Hier is een extra concept voor nodig, namelijk ‘error’, ofwel het residu. Niet alle echte scores komen namelijk overeen met de voorspelde scores (verwachte scores geven we aan met een dakje). Het stukje verschil is de ‘error’. Errors zijn altijd verticaal. We proberen ze zo klein mogelijk te houden. Je kwadrateert de errors en telt ze dan bij elkaar op. Als dit getal zo klein mogelijk is heb je de juiste regressievergelijking te pakken.

 

De beste regressielijn loopt door het gemiddelde van x en door het gemiddelde van y. Daarom gebruik je de gemiddeldes om het intercept te berekenen.

 

Wanneer je voor iemand een score voorspelt van wie je al data hebt verzameld, heet dat interpolatie. Als je een voorspelling maakt buiten de range van X en Y, dus wanneer je geen data hebt verzameld voor een persoon met bepaalde eigenschappen, heet dat extrapolatie.

 

Gestandaardiseerde regressievergelijking

Als de meeteenheid verandert, gaat de regressievergelijking er ook anders uitzien. Om dingen te vergelijken standaardiseer je gegevens. Dit zijn dus z-waardes. Op het moment dat je z-scores maakt trek je het gemiddelde af en deel je door een standaarddeviatie. Een variabele met z-scores heeft een gemiddelde van nul en een standaarddeviatie van 1. B1 wordt dus de correlatie, en B0, dus de intercept, is gelijk aan nul.

 

Standaardfout van de voorspelling

Om er achter te komen of een lijn een goede fit van de data weergeeft kijk je naar de variantie. Deze reken je uit door de ‘sum of squares’ te delen door het aantal vrijheidsgraden. Dit is (n-1).

De variantie om de lijn heen is de ‘errorvariantie’, ook wel ‘residual variance’. De formule daarvoor is de sum of squares van de error gedeeld door degrees of freedom van de error; (n-2).

De totale data kan opgesplitst worden in ‘model’ en ‘residu’, dus een deel dat verklaard kan worden, en een deel dat niet verklaard kan worden. Hierdoor kun je een proportie verklaarde variantie berekenen. Dit doe je door de SS van het model te delen door de SS van alle data. Je kunt ook SSerror delen door SS van alle data, dan heb je de proportie onverklaarde variantie. Als je de correlatiecoëfficiënt kwadrateert krijg je ook de proportie verklaarde variantie. Dit geldt alleen voor enkelvoudige lineaire regressie.

 

Van steekproef naar populatie

Vooralsnog hadden we het over steekproeven. Er moet nu gekeken worden hoe we statistieken uit de steekproeven kunnen gebruiken om parameters uit de populatie te schatten.

De regressielijn beschrijft de gemiddelde respons voor iedere subpopulatie als functie van x. Dus iedere waarde op de regressielijn is het gemiddelde van een subpopulatie. Hiermee wordt een rechte lijn geplot. Binnen iedere subpopulatie zijn de y- waarden normaal verdeeld.

Voor de populatie is de formule voor een regressielijn als volgt: µy = β0 + β1x. Dit noemen we het statistisch model. Deze β’s zijn geen gestandaardiseerde regressie coëfficiënten. In Howell wordt b* gebruikt. Aangezien deze formule wordt gebruikt voor populaties worden er Griekse letters gebruikt. De spreiding om de regressielijn heen wordt dus weergegeven met een sigma. De β en s kunnen we schatten met b0 en b1 en se, dus de gegevens uit de steekproef.

 

Standaardfout van de steekproevenverdeling van b0 en b1 :

Iedere steekproef die je trekt geeft andere waardes. Deze waarden worden in een verdeling gezet. Deze verdeling heeft ook een standaarddeviatie, dit is de steekproevenverdeling met een standaardfout. Voor zowel b0 als b1 kun je de standaardfout van de steekproevenverdeling berekenen. De standaardfouten zijn nodig om de kans te bepalen dat jouw resultaten gevonden worden wanneer je de nul-hypothese aanneemt.

 

Significantie toetsen van de regressie coëfficiënten

Als je de helling toetst is de H0 dat de helling, β1, gelijk is aan nul. De Ha kan eenzijdig of tweezijdig opgesteld worden. Bij het toetsen gebruik je de nulhypothese. Stel dat er geen relatie bestaat tussen X en Y en H0 dus waar is, dan bereken je de kans dat je een b1 vindt met een bepaalde waarde. Dit toets je met behulp van een t-toets. Hierbij trek je β1 van b1 af, en dit deel je door de standaardfout van b1. Aangezien β1 onder de nulhypothese gelijk is aan nul, valt deze weg en hou je b1 gedeeld door SEb1 over. Dit geeft een t-waarde die je opzoekt in de tabel. De bijbehorende p-waarde zoek je op met behulp van (n-2), dus de vrijheidsgraden van de error.

 

Je kunt ook een betrouwbaarheidsinterval gebruiken. Hierbij kijk je altijd tweezijdig. T* is een t-waarde die je opzoekt in de tabel, niet een die je berekent.

 

Je resultaat is significant wanneer je kans kleiner is dan 0.05. Als je wil rapporteren in APA stijl: rapporteer de slope die je hebt getoetst, de toets, het aantal vrijheidsgraden, en de p-waarde die je hebt gevonden; (b1=…, t(df)=…, p …). Vermeld ook de conclusie.

 

Significantie toetsen van twee onafhankelijke regressiegewichten

Je toetst twee hellingen uit twee verschillende steekproeven en kijkt of ze verschillen, dit doe je met de t-toets. H0 is hier β1.1= β1.2; 1.1 en 1.2 verwijzen naar de bijbehorende steekproef. Je kunt soms ook gebruik maken van de gepoolde errorvariantie, dit doe je als twee se’s niet heel erg van elkaar verschillen en je kunt aannemen dat ze in de populatie hetzelfde zijn.

 

Regressieanalyse in SPSS

Analyze > regression > linear. Hier vul je de twee variabelen op de goede plek in. De afhankelijke variabele doe je bij dependent en de onafhankelijke predictor variabele bij independent. Je krijgt meerdere tabellen in je output.

Als eerst die je de Model Summary. R Square is de proportie verklaarde variantie. R is de correlatie tussen de twee variabelen, bij enkelvoudige regressie analyse is dit de Pearson correlatiecoëfficiënt.

Je krijgt ook de ANOVA tabel te zien. Dit wordt vooral volgende week behandeld. Je ziet Sum of Squares Regression, dit is de SS van de voorspelde waardes. Je ziet ook de Sum of Squares Residual, dit is de SS van de error. Ook zie je de Sum of Squares Total, dit is de SSy.

Als laatst krijg je de Coefficients tabel. De B staat voor de regressiecoëfficiënten. ‘Constant’ is het intercept en onder ‘constant’ staat b1. B0 interpreteer je niet omdat het niet erg nuttig is aangezien b0 gaat over x=0, dit is erg onwaarschijnlijk. De β die je hier ziet is niet de populatieparameter, die weet je namelijk nooit. Dit is de standardized coëfficiënt.

 

Week 3: Meervoudige Lineaire Regressie

 

Multipele regressieanalyse:

Vorige week ging het om 1 predictor variabele en 1 respons variabele. Dat ging over enkelvoudige regressieanalyse. Deze week gaat het om meerdere predictor variabele en 1 respons variabele. Dit gaat over multipele regressieanalyse. Dat betekent dat je met meerdere variabelen te maken hebt. Per individu zijn er hierdoor meerdere variabelen in je data te vinden.

De aanname bij deze analyse is dat binnen iedere subpopulatie de y-waarden normaal verdeeld zijn met gemiddelde μy en standaarddeviatie σ.

De formule voor multipele regressieanalyse lijkt sterk op de formule voor enkelvoudige regressieanalyse. De formule is als volgt: μy = β0 + β1X1 + β2X2 + … + βpXp

Waarom meervoudige regressieanalyse?

  • De voorspelling is beter wanneer je meerdere variabelen gebruikt. Je hebt meer verklaarde variantie en minder residue variabelen.

  • Voor als we casuale theorie willen onderzoeken en daarbij mogelijke superieuze relaties willen elimineren.

 

Multipele Regressie Analyse: grafisch

Grafisch gaat het nu niet om een regressielijn, maar om een regressievlak. De verticale afwijkingen in dit model zijn de residuen. Je hebt niet 1 regressielijn, maar bij iedere variabele hoort een andere lijn en daarom heb je een heel vlak nodig om grafisch de formule te kunnen representeren. Soms weet je al wat de alternatieve verklaringen zijn, maar soms moet je die uit je data halen.

 

Correlatie bij multipele regressieanalyse:

Ook bij multipele regressieanalyse kun je een correlatie berekenen. Deze correlatie is complexer dan de enkelvoudige regressieanalyse. Er zijn namelijk meer variabelen bij in het spel.

Vaak valt R2 te hoog uit voor de populatie. SPSS berekent om deze reden altijd R2 adjusted. Dit is een effectmaat bij multipele regressie die bijgesteld is. Het zorgt ervoor dat R2 kleiner en realistischer uitvalt dan het normaal zou doen.

 

Het stelsel van hypothesen:

Wanneer men met multipele regressieanalyse aan de slag gaat, moet men eerst een nulhypothese en een alternatieve hypothese opstellen. Voor deze vorm van regressieanalyse wordt het volgende stelsel van hypotheses opgesteld:

Ho: β1 = β2= β3 = … = βp = 0

Ha: Minstens 1 van βj ≠ 0

 

Het aantal vrijheidsgraden:

Vorige week viel het aantal vrijheidsgraden al op: df was hier n-2. Nu kunnen we ook vertellen waarom dit zo is. Officieel is het aantal vrijheidsgraden bij zowel enkelvoudige als multipele regressieanalyse: df = n-p-1. P is in deze formule het aantal onafhankelijke variabelen.

Als we dit toepassen bij enkelvoudige regressieanalyse, waar men met 1 onafhankelijke variabele te maken heeft, krijg je de volgende formule: df = n-1-1 = n-2.

Bij multipele regressieanalyse zijn er meerdere onafhankelijke variabelen. Het verschilt per toets hoeveel variabelen er zijn en daarom is het aantal vrijheidsgraden: n-p-1.

Hoe meer predictoren, hoe minder vrijheidsgraden. Wanneer je een predictor toevoegt of verwijdert, verandert er van alles.

 

De F-toets en regressieanalyse:

De f-toets is te gebruiken bij regressieanalyse. Je kunt deze berekenen middels de volgende formule: F= MSM/MSE. MSM is de verklaarde variantie. Deze kan men berekenen door de SS van het model / DF van het model. De MSE is de variantie rond de regressielijn. Deze kan men berekenen door de SS van de error/ DF van de error. Met de uitkomsten kun je de F- waarde berekenen en deze hangt weer samen met de t- waarde: F = t2 . Als je dus een F- waarde van 3 vind, kun je deze omzetten naar een t- waarde. De t- waarde die hierbij hoort zal 9 zijn. De proportie verklaarde variantie (VAF) kan je berekenen door SSM/SST. Dit is hetzelfde als rxy2 .

Deze F-toets noemen we ook wel de ANOVA F-toets voor regressie. De ANOVA- tabel voor Multipele Regressieanalyse is hetzelfde als de tabel voor enkelvoudige regressieanalyse. Er is 1 verschil: het aantal vrijheidsgraden. Dit is bij multipele regressieanalyse namelijk afhankelijk van het aantal onafhankelijke variabelen.

 

Unieke verklaarde variantie

Een deel van de verschillen in de responsvariabele wordt verklaard door de overlapping van de invloed van een aantal predictoren. De wortel van de unieke verklaarde variantie is de semi-partiële correlatie. In SPSS: selecteer part & partial correlations bij de regressieanalyse. ‘Part’ = de semi-partiële correlatie.

 

Week 4: Geavanceerde lineaire regressie

 

Tot nu toe

Tot nu toe hebben we gekeken naar enkelvoudige en meervoudige lineaire regressie, beiden draaiden ze om het voorspellen van een variabele. Bij beiden kwam er 1 respons uit. Op het moment dat je een steekproef gaat generaliseren naar de populatie moeten we kijken of er voldaan wordt aan bepaalde aannames. Deze aannames zijn:

  • Lineariteit

  • Homoscedasticiteit

  • Normaliteit van de residuen

Ook wordt er gekeken naar multicollinairiteit en uitbijters.

 

In het voorbeeld wordt een regressie-analyse uitgevoerd met SPSS. Om deze op te stellen worden de ongestandaardiseerde coëfficiënten gebruikt. Het intercept is hier (Constant). De proportie verklaarde variantie is in de SPSS output SSM/SST, dus de Sum of Squares van Regression gedeeld door de totale Sum of Squares.

Al deze data kan je bekijken zonder aannames en dergelijke te checken; het gaat hier immers nog over een steekproef. Pas wanneer je deze informatie wilt gaan generaliseren moet je aandacht besteden aan aannames, uitbijters, et cetera.

 

Aannames

Lineariteit: Een regressie-analyse heeft alleen zin als er daadwerkelijk een lineair verband bestaat tussen de respons- en predictorvariabelen.

Homoscedasticiteit: Hierbij worden de residuen bekeken, dus de errors. Het is de bedoeling dat de residuen gelijk verspreid zijn voor elke voorspelde waarde.

Normaliteit van de residuen: De residuen moeten normaal verdeeld zijn.

 

Aannames checken

Bij enkelvoudige regressie-analyse checken we de aannames simpelweg door een scatterplot te maken van de predictor (X) en de responsvariabele (Y). Bij meervoudige regressie valt er geen scatterplot te tekenen. Dan zetten we in een scatterplot de gestandaardiseerde residuen, dus z-waarden van de error, op de y-as en de voorspelde waardes, ook gestandaardiseerd, op de x-as. In SPSS doe je dit zo: analyze>regression>linear>plots>Y=*ZRESID + X=*ZPRED. Dan krijg je een plot in je output. Als je er een rechte lijn doorheen kan trekken is er een lineair verband.

 

Om op homoscedasticiteit te controleren gebruiken we dezelfde plot als voor lineariteit. Je kijkt dan of de punten gelijk verspreid zijn. Howell noemt deze aanname ‘homogeneity’.

 

Normaliteit checken we ook in SPSS, je maakt dan een histogram of een pp-plot. Je kunt deze twee links onderin aanvinken in het ‘plot’ scherm bij je regressie-analyse.

 

Als er niet aan de aannames wordt voldaan moet je de variabelen transformeren. Dit doe je bijvoorbeeld door de wortel te nemen of bijvoorbeeld een logaritme toe te passen. Let er op dat transformeren niet hetzelfde is als manipuleren; bij manipuleren pas je 1 onhandige waarde aan, bij transformeren pas je een transformatie toe op alle waarden van een variabele.

 

Multicollineariteit

Als predictoren heel hoog met elkaar correleren, dus als ze veel overlap vertonen, is er multicollineariteit. In SPSS vraag je collinearity diagnostics aan bij ‘statistics’. Je krijgt in de output Tolerance en VIF. Als er veel overlap is worden de regressiegewichten instabiel, dan weet je dus niet hoe de situatie in de populatie er uit ziet. Tolerance wordt berekend door 1-de VAF van een predictor. de Tolerance moet zo hoog mogelijk zijn. De VIF is 1/Tolerance. Deze moet zo laag mogelijk zijn.

 

Uitbijters

Je kunt op 3 manieren naar uitbijters kijken. Kijk of er geen multivariate uitbijters tussen zitten, dit zijn de variabelen die anders scoren dan de rest op meerdere variabelen samen.

  1. Distance gaat om de afstand tussen de voorspelde waarde en de geobserveerde waarde. Dus of iemand doet wat er voorspeld is. Als iemand een gestandaardiseerd residu heeft dat groter is dan 3 is het een uitbijter. Howell gebruikt 1.96. Wij zijn dus iets toleranter.

  2. Leverage kijkt of iemand een rare score heeft op een predictor of de predictoren samen. Bij Leverage bereken je zelf een border value. Deze bereken je met behulp van de ‘p’.

  3. Influence kijkt naar hoeveel invloed een persoon heeft op het regressiemodel. Je gebruikt hier Cook’s D, waarden kleiner dan 1 zijn niet invloedrijk.

In SPSS: analyze>regression>linear>save>select: residuals:standardized, distances:cook’s+leverage values. Nu kijk je in de tabel of er minimale of maximale scores zijn die de grenswaarden overschrijden.

 

Als er uitbijters zijn moet je kijken of er geen typfouten zijn gemaakt in je dataset. Het kan ook een ‘missing value’ betreffen. Als een typfout niet de oorzaak blijkt te zijn is het misschien verstandig om de deelnemer te verwijderen, hij/zij kan bijvoorbeeld ouder zijn dan de rest en dus niet in de dataset passen. De deelnemer kan ook niet voldoen aan je verwachtingen, dit is geen reden om deze deelnemer uit de dataset te verwijderen.

 

Meervoudige regressie methoden

Er zijn meerdere methoden om regressie-analyse uit te voeren. Standaard voert SPSS de Standard (Enter) methode uit: alle variabelen worden gelijktijdig toegevoegd.

 

Een andere manier is de Stepwise methode. Hierbij worden variabelen op basis van sterkte van voorspelling toegevoegd. Ze worden dus een voor een toegevoegd. De eerste die wordt toegevoegd heeft de grootste correlatie. Deze methode kijkt ook of de eerste variabele genoeg ‘uniek’ verklaart, als hij te veel overlapt met de andere predictoren kan hij er weer uit. Een nadeel van deze methode is kans op kanskapitalisatie. Als predictoren heel veel samenhangen kan het zo zijn dat een predictor bij de ene steekproef er niet in komt, en in een andere wel, op die manier is het lastig om te generaliseren naar de populatie.

 

Een derde methode is de Hierarchical method. Hierbij worden variabelen toegevoegd op de manier die door de onderzoeker wordt bepaald. Je maakt dus eerst een selectie van predictoren die bekend zijn, en daarna voeg je predictoren toe die je interessant vindt. Deze methoden staat in SPSS niet in hetzelfde rijtje als Enter en Stepwise. Je voegt bij deze methode predictoren toe in de ‘predictor’ blokken.

 

Betrouwbaarheidsinterval voor gemiddelde respons

Je kunt een betrouwbaarheidsinterval opstellen om te weten te komen tussen welke twee waarden het echte gemiddelde zal liggen. Je kunt een t* bepalen uit een tabel, een keer positief en een keer negatief. Het interval wordt groter naarmate je minder personen hebt, met weinig personen is het namelijk moeilijker om te generaliseren.

 

Je stelt een betrouwbaarheidsinterval als volgt op: Eerst reken je de voorspelde waarde uit, de puntschatting, door de behaalde score in te vullen in de regressie formule. Om t* te vinden doe je n-2, dus het aantal vrijheidsgraden van de error. Als jouw aantal vrijheidsgraden niet in de tabel staat, rond dan altijd af naar beneden. Je kijkt in de tabel en vindt een t-waarde. Aan de linkerkant van het interval komt een negatieve t-waarde, aan de rechterkant een positieve t-waarde. Dan reken je de standaardfout uit en kun je het interval opstellen. Nu kun je met 95% zekerheid zeggen dat het echte gemiddelde van iedereen die een bepaalde score scoorde tussen deze twee waarden ligt.

 

Voorspellingsinterval voor een individuele observatie

Het gaat nu over een voorspelde score van een persoon, niet een gemiddelde. Het enige dat anders is is de 1 die nu onder de wortel staat. De foutenmarge is nu altijd groter dan bij het voorspellen van een gemiddelde respons. Dat komt omdat het altijd makkelijker is om een gemiddelde te voorspellen dan om een individuele score te voorspellen. Door de grotere foutenmarge wordt het interval dus ook groter. Na het berekenen van het voorspellingsinterval kun je met 95% zekerheid zeggen dat iemands echte score binnen dit interval zal liggen.

 

In SPSS voer je deze handeling als volgt uit: analyze>regression>linear>save>select: Predicton Intervals – Mean + Individual. Op het plaatje in de slides zie je twee paarse lijnen, dit is het voorspellingsinterval voor een individuele score, de groene lijnen vormen het interval voor de gemiddelde respons.

 

Mediatie en Moderatie

Mediatie is wanneer een predictor de responsvariabele indirect beïnvloedt. Je kunt ook kijken of dit volledig of onvolledig gebeurt. Dit kan je toetsen door middel van regressieanalyse. Moderatie is wanneer de sterkte van een relatie tussen een predictorvariabele en een responsvariabele afhangt van een andere variabele. Geslacht kan een oorzaak-gevolg relatie bijvoorbeeld beïnvloeden.

 

Week 5: Herhaling + regressie met dummies

 

Deze week

-herhaling door middel van voorbeelden

-na de pauze iets nieuws: regressie met dummies

 

In het kort, de onderwerpen die besproken werden

  • Correlaties: Toets de significantie en rapporteer de effectmaten om de correlatie te interpreteren.

  • Twee correlaties vergelijken: om twee onafhankelijke correlaties te vergelijken heb je r’ nodig. Deze kan je uit de tabel halen. Op google wordt hij Fisher’s set genoemd.

  • Regressieanalyse: met 1 predictor moet je een enkelvoudige regressieanalyse uitvoeren. Een regressievergelijking wordt opgesteld aan de hand van het kleinste kwadraten criterium. Check altijd eerst de aannames en uitbijters. Het gestandaardiseerd regressiegewicht is gelijk aan de correlatiecoëfficiënt in enkelvoudige regressieanalyse. De gestandaardiseerde regressiegewichten zijn beter met elkaar te vergelijken aangezien de spreiding dan 1 is.

  • Variantie verklaren bij regressieanalyse: In een analyse proberen we variantie te verklaren. Een enkelvoudige regressieanalyse is makkelijker grafisch weer te geven dan meervoudige.

 

Dummy variabelen

In principe moeten variabelen numeriek zijn om een regressieanalyse uit te voeren. Het is ook mogelijk om dit te doen met categorische variabelen, hier moet je wel wat werk voor verrichten. Allereerst moet je de categorische variabelen omzetten in dummy variabelen. Dit is een variabele waarbij iedereen 0 of 1 kan scoren. In de sheets vind je stappenplan voor het creëren van dummy variabelen. Het is echter makkelijker om groepen te vergelijken met ANOVA, dit komt volgende week aan bod.

 

Week 6: Eenweg ANOVA

 

Variantieanalyse en regressieanalyse

Er is een verschil tussen variantieanalyse en regressieanalyse. Variantieanalyse onderscheidt zich van regressieanalyse doordat regressieanalyse een nominale predictor variabele bevat.

 

ANOVA

ANOVA is ook wel variantieanalyse. Hierbij worden gemiddeldes met elkaar vergeleken. We vergelijken de hypotheses van meerdere groepen, zo veel groepen als je wilt. De ANOVA toets (de F-toets) is een ‘omnibus toets’: Het vertelt je of ergens een verschil te vinden is, maar niet precies waar dat verschil zit.

Dit college wordt de eenweg ANOVA behandeld, dit betekent dat we naar een variabele kijken die meerdere categorieën heeft.

 

Eenweg ANOVA

Er is een onafhankelijke categorische variabele (X) en een afhankelijke intervalvariabele (Y). De onafhankelijke categorische variabele onderscheidt groepen, deze groepen hebben allemaal een bepaald gemiddelde op de afhankelijke intervalvariabele.

De nulhypothese die getest wordt stelt dat er geen verschil is tussen de verschillende populatiegemiddelden. De alternatieve hypothese gaat er van uit dat twee van de populaties geen gelijk gemiddelde hebben.

De verschillen tussen de groepen (between-groups) worden vergeleken met de verschillen binnen de groepen (within-groups) .

Waar het bij ANOVA om gaat is het volgende:

·         DATA (totaal) =FIT (between) +RESIDU (within)

·         xij = µi + αij

Hier zie je dat iemands score (xij) bestaat uit het groepsgemiddelde en een stukje error.

·         xij = µ + αi + Ɛij

Hier zie je dat je het groepsgemiddelde kunt opsplitsen in het grootgemiddelde en een effectparameter, dit is αi. Deze geeft aan of een groep hoger of lager dan het grootgemiddelde scoort. Je rekent αi uit met µi – µ. Als je alle effectparameters bij elkaar optelt krijg je nul mits je te maken hebt met een gebalanceerd design, dus als in elke groep evenveel personen zitten.

 

In totaal zijn er dus vier parameters:

·         m: schat je met behulp van groot gemiddelde

·         µi: schat je met behulp van het groepsgemiddelde

·         Effectparameter αi: schat je met behulp van het groot gemiddelde en het groepsgemiddelde, hierna komt er een dakje op de α

·         Parameter s: schat je met behulp van Sp (dit is de gepoolde standaarddeviatie)

 

Aannames

De aannames waar het ANOVA model aan moet voldoen zijn:

·         Homogeniteit van de varianties, dit betekent dat de spreiding van de residuen in elke populatie even groot moet zijn. Deel de grootste standaarddeviatie door de kleinste. Het getal dat hier uit volgt moet kleiner dan twee zijn. Varianties kun je ook door elkaar delen, dan moet het getal kleiner dan twee zijn. In SPSS moet je naar Levene’s test kijken.

·         Normaliteit van de residuen. Dit kun je checken door een p-p plot of een histogram te maken.

·         Onafhankelijkheid van de residuen hangt af van de manier waarop het onderzoek is opgezet. Dit kun je dus niet checken.

Als je design gebalanceerd is, dus in elke groep evenveel personen en als de groepen allemaal redelijk groot zijn, dan hoef je de homogeniteit niet uitgebreid te checken. De normaalverdeling is dan ook niet heel belangrijk. Bij niet-gebalanceerde designs moet je er wel wat meer aandacht aan besteden. Je moet dan kijken naar uitbijters. Je kunt ook de Y-variabele transformeren, bijvoorbeeld met behulp van worteltrekken. De derde optie is het gebruiken van een non-parametrische toets. In plaats van de ANOVA toets kun je dan de Kruskal Wallis toets uitvoeren, hierbij worden medianen gebruikt in plaats van gemiddeldes. Deze toets gebruikt rangscores en wordt gebruikt in SPSS.

 

De ANOVA tabel

Onder Source staat Between Groups en Within Groups. ‘Between Groups’ is het verklaarde gedeelte, ‘Within Groups’ is de error; ook al zitten mensen in dezelfde groep, ze scoren nog steeds niet hetzelfde als de rest.

De vrijheidsgraden van Between Groups en Within Groups zijn afhankelijk van het aantal groepen.

Onder Sum of Squares staat SStussen en SSbinnen. Bij SStussen kijk je of een groep hoger of lager scoort dan het groot gemiddelde. Deze afwijking van het groot gemiddelde is de effectparameter. Bij SSbinnen kijk je naar hoeveel je niet kunt verklaren, dus je vergelijkt de persoonlijke scores met de groepsgemiddelden.

           

De tabel invullen

·         SST (SStotaal) invullen: Wanneer je de totale variantie weet kun je de totale Sum of Squares berekenen. Je doet dan de totale variantie maal het aantal vrijheidsgraden van het totaal, dus N-1.

·         SSG (SStussen) invullen: Om SSG te berekenen vermenigvuldig je het aantal personen per groep met de bijbehorende gekwadrateerde effectparameter. De uitkomsten tel je vervolgens bij elkaar op. 

·         SSE (SSbinnen) invullen: in principe kun je SSE uitrekenen door SSG af te trekken van SST. Er is echter ook een andere manier om SSE te berekenen. Allereerst reken je de variantie per groep uit, dit doe je door de standaarddeviaties per groep te kwadrateren. Vervolgens vermenigvuldig je deze varianties met het aantal vrijheidsgraden binnen een groep (ni-1). Daarna tel je deze getallen bij elkaar op.

·         De gepoolde variantie deze gebruik je wanneer je er van uit kunt gaan dat in elke populatie de spreiding even groot is. Deze is hetzelfde als MSE.

·         F uitrekenen: MSG reken je uit door SSG te delen door de bijbehorende vrijheidsgraden. MSE reken je uit door SSE te delen door de bijbehorende vrijheidsgraden. Vervolgens doe je MSG/MSE. Bekijk altijd alle F tabellen om de significantie te bepalen.

 

Effectmaten

Ook al is iets significant, je moet ook altijd even kijken naar de grootte van het effect. Hiervoor gebruik je de effectmaten. De eerste effectmaat is h2, de proportie verklaarde variantie in een steekproef. Deze reken je uit door SSG te delen door SST. In SPSS is dit R2.

Uiteindelijk wil je iets zeggen over een populatie. In SPSS is de schatting voor de populatie de ‘adjusted R2. Bij ANOVA noemen we het ‘adjusted omega2. De formule is (SSG-(DFGxMSE))/SST+MSE. Deze is altijd kleiner dan h2.

De effectmaten kunnen geïnterpreteerd worden. Volgens de vuistregels is een klein effect 0.01, een medium effect 0.06, en een groot effect 0.14.

Week 7: College: Post hoc toetsen en contrasten

 

Als je weet dat twee μ’s verschillen, wil je weten waar dat verschil zit. Je kan dan achteraf bekijken welke condities verschillen met behulp van multipele vergelijkingen. Maar als je van te voren al een idee hebt over het verschil, en er een hypothese over kan opstellen, dan kan je contrast toetsen gebruiken. Deze toetsen worden ook wel a priori contrasten of planned comparisons genoemd. Als je van te voren nog niet weet hoe het verschil er uit gaat zien kan je a posteriori vergelijkingen, ook wel post hoc vergelijkingen, gebruiken.

 

 

Contrasten

A priori vergelijkingen worden opgesteld voordat de data wordt verzameld. Als de vergelijkingen onafhankelijk van elkaar zijn noem je dat orthogonaal. Een contrast is een combinatie van populatiegemiddeldes, we gaan er van uit dat deze combinatie onder nulhypothese gelijk is aan nul. Het contrast schrijf je op met een ψ, dit staat voor de combinatie, en hij is gelijk aan nul onder de nulhypothese. In een contrast vergelijk je altijd twee stukken. Een voorbeeld van een contrast is ψ = μ1 - 0,5μ2 - 0.5μ3. Hierin vergelijk je het eerste populatiegemiddelde met populatiegemiddeldes 2 en 3, m1 is positief en wordt vergeleken met de negatieve m2 en m3. Wat voor de populatiegemiddeldes staat, dus bijvoorbeeld 0.5, noem je een contrast coëfficiënt. Een contrast coëfficiënt duid je aan met een a.  Als er geen contrast coëfficiënt voor staat doet deze groep 1 keer mee. De contrast coëfficiënten kun je vermenigvuldigen, zo lang ze maar optellen tot nul. Je moet ze dus allemaal met hetzelfde getal vermenigvuldigen.

 

             Je gebruikt contrasten om ze in te vullen in een t-toets. In een t-toets gebruik je steekproefgegevens, in de formule zie je dan ook een c staan in plaats van een ψ. De c staat voor het contrast in een steekproef. In iedere steekproef vind je een ander contrast. In een verdeling kun je zien hoe groot de kans is dat je jouw steekproefcontrast vindt. De standaardfout van het steekproefcontrast, SEc, laat zien hoe groot die verdeling is. Het aantal vrijheidsgraden is gelijk aan het aantal vrijheidsgraden van de error, dus het aantal personen min het aantal groepen. Let hier bij op dat je alle groepen moet gebruiken, ook wanneer je ze niet allemaal gebruikt in jouw contrast.

 

            De standaardfout bereken je met behulp van de contrast coëfficiënten, het aantal personen bij groep, en de gepoolde standaarddeviatie. Deze zegt iets over verschillen binnen groepen. De wortel van de errorvariantie, dus de verschillen binnen groepen, is de gepoolde standaarddeviatie; ÖMSE.

 

 

Andere contrasten

De contrasten die hiervoor besproken zijn kun je zelf opstellen. SPSS biedt ook andere mogelijkheden, namelijk voorgedefinieerde contrasten, bijvoorbeeld:

  • Simple (first): in dit contrast wordt elk contrast vergeleken met de eerste groep, dit is handig als je groepen wilt vergelijken met een controle groep
  • Simple (last): deze gebruik je wanneer je laatste groep de controle groep is.
  • Repeated: elke groep wordt vergeleken met de daarop volgende groep.

Bij de polynomial contrasten kijk je naar een trend in de data. Het is makkelijk om te kijken of er een rechte lijn door de data loopt, het kan echter ook zo zijn dat de ene groep hoog scoort, een andere laag, en een andere weer hoog. SPSS biedt de mogelijkheid om te kijken of er bepaalde types trends te zien zijn.

Deze informatie heb je vooral nodig bij volgende vakken wanneer de ANOVA wordt uitgebreid.

Deze contrasten zijn niet allemaal orthogonaal. De familie-gewijze foutenkans neemt dus een beetje toe. De bekendste correctie hiervoor is de Bonferroni correctie.

 

 

De Bonferroni correctie

Deze correctie past de alpha aan. Daarna ga je pas je p-waarde vergelijken met de alpha. Je p-waarde kan ook aangepast worden, dan blijft de alpha normaal. Normaal neem je een alpha van 0.05. Als je drie groepen hebt deel je deze alpha door drie. Je nieuwe alpha is dan dus 0.0167. Dus als je p-waarde kleiner is dan 0.0167 is je resultaat significant.

             Je kunt ook je p-waarde vermenigvuldigen met het aantal groepen en dan vergelijken met je normale alpha.

 

Post hoc toetsen

Eerst kijk je naar de F-toets, op die manier weet je of er ergens verschil is of niet. Daarna ga je post hoc toetsen uitvoeren om er achter te komen waar het verschil precies zit. In een post hoc toets worden alle condities met elkaar vergeleken. Als je veel condities hebt kun je beter van te voren contrasten opstellen, veel post hoc toetsen uitvoeren gaat namelijk ten koste van de alpha. Contrasttoetsen hebben een grotere power dan post hoc toetsen. Sommige post hoc toetsen zijn liberaal (Fisher’s LSD), sommigen zijn conservatief (Bonferroni). Iedere toets verschilt in het gebruik, sommigen kun je niet gebruiken wanneer bepaalde aannames worden geschonden. Post hoc toetsen zijn altijd tweezijdig, je hebt immers van te voren geen verwachtingen over de richting van het verschil.

 

Fisher’s Least Significant Difference (LSD)

De kritische t-waarde (t*), de t-waarde die bij 0.05 hoort waarmee je normaal vergelijkt, wordt hierbij aangepast. Na aanpassing noem je hem t**. Fisher doet dit eigenlijk niet, er wordt niks aangepast dus je voert eigenlijk een normale t-toets uit. Het enige verschil is dat je het resultaat van Fisher’s LSD alleen mag interpreteren als de F-toets significant was. Deze toets wordt alleen besproken om duidelijk te maken dat je deze toets niet moet gebruiken.

 

Bonferroni test

De t-waarde wordt aangepast; je gebruikt de t die bij a/aantal groepen hoort. Dus bijvoorbeeld de t die hoort bij a = 0.05/3 = 0.0167 . Deze methode mag alleen gebruikt worden als er wordt voldaan aan de homogeniteit assumptie. De steekproeven hoeven niet even groot te zijn.

 

Tukey’s Honestly Significant Difference (HSD)

Deze toets wordt vaak gebruikt. Hij werkt met een gestandaardiseerde range van gemiddelden. Deze toets kan alleen gebruikt worden wanneer de steekproeven even groot zijn. Daarnaast moet er voldaan worden aan de homogeniteitsassumptie.

 

Consequentie van post hoc toetsen

Elke post hoc toets, behalve Fisher’s LSD, past alpha/kritische t-waarde aan. Als je de Type I fout verkleint gaat dat ten koste van de power, de kans op een Type II fout vergroot dan.

 

Week 8: Tweeweg ANOVA

 

Wanneer er twee onafhankelijke categorische variabelen zijn voer je een tweeweg ANOVA uit. Dit is een factorieel ontwerp. Een factor is een onafhankelijke variabelen die uit twee of meer categorieën bestaat. Die categorieën noem je niveaus. Wanneer je al deze niveaus met elkaar combineert in een onderzoeksontwerp noem je dat een factorieel ontwerp. Een 3 x 2 factorieel ontwerp geeft aan dat de eerste categorische variabele 3 niveaus had en de tweede variabele 2 niveaus.

 

Factoriele ontwerpen bieden informatie over hoofdeffecten en interactie-effecten. Hoofseffecten kunnen ook bekeken worden in een eenweg ANOVA, interactie-effecten niet. Hoofdeffecten betreffen de afzonderlijke effecten van elke factor.

 

 

Voordelen van een tweeweg ANOVA

Wanneer je extra onafhankelijke variabelen verklaar je meer variantie, dus je error wordt minder en je power dus groter. Daarnaast worden je resultaten beter generaliseerbaar. Ook voer je een efficienter onderzoek uit, je voert nu maar 1 experiment uit in plaats van aparte experimenten met hetzelfde aantal waarnemingen per conditie.

 

 

Het model

De aannames zijn hetzelfde als bij eenweg ANOVA. Het ANOVA model wordt een stukje uitgebreid. Het groepsgemiddelde bestaat nu uit het grootgemiddelde, plus het effect van de ene onafhankelijke variabele, plus het effect van de andere onafhankelijke variabele, plus het interactie-effect. Je gaat er van uit dat in elke groep de variantie ongeveer gelijk is. Je schat hem met behulp van de gepoolde variantie.

 

Het model slaat op de populatie. Je hebt echter niet alle gegevens van de populatie, dus je moet de parameters schatten met behulp van een steekproef.

 

 

Schatten van effectparameters

Het hoofdeffect schat je door allereerst van de gemiddeldes van de categorieën het grootgemiddelde af te trekken. Het eerste effect geef je aan met een alpha, het tweede effect met een bèta. Het interactie-effect schat je met behulp van de celgemiddeldes. Je neemt een celgemiddelde en trekt daar de bijbehorende alpha’s van af.

 

 

Tweeweg ANOVA-tabel

De tabel vul je in met behulp van de effectparameters. Je gebruikt ze namelijk om de Sum of Squares te berekenen. Om de SSA te berekenen doe je telkens het aantal personen per rij maal de bijbehorende alpha in het kwadraat. Om SSB te berekenen doe je het aantal personen per kolom maal de bijbehorende beta in het kwadraat. Voor SSAB doe je het aantal personen per cel maal de bijbehorende interactie. Om de F-waardes uit te rekenen deel je de Mean Square van ieder effect door de Mean Square van de error. In de F-tabel kijk je naar verschillende vrijheidsgraden, afhankelijk van het bijbehorende Hoofd- of Interactie-effect.

 

Let er bij de vrijheidsgraden van de error op dat je eerst I maal J doet, en dat getal aftrekt van N.

 

 

Effectmaten

De proportie verklaarde variantie voor het totaal bereken je door SSM (de sum of squares van de drie effecten samen) te delen door SST. Je kunt ook kijken naar de proportie verklaarde variantie per effect. Eta squared is de sum of squares van een effect gedeeld door SST. Eta squared partial is de Sum of Squares van een effect gedeeld door het SSeffect plus wat er nog verklaard moet worden, dus SSE. Eta squared zegt iets over een steekproef, deze overschat het effect dus. Om naar de populatie te kijken gebruik je estimated omega squared. Dit is altijd kleiner dan wat je in de steekproef vindt.

 

In een eenweg ANOVA zijn eta squared en eta squared partial aan elkaar gelijk. Daarnaast kan je in een eenweg ANOVA met maar twee categorieën ook een t-toets doen of een punt-biseriële correlatie uitrekenen.

 

De effecten moet je interpreteren aan de hand van je verwachtingen of aan de hand van punt-biseriële vuistregels: small is 0.01, medium is 0.06 en large is 0.14.

 

In een tweeweg ANOVA wordt er meer error verklaard, je SSE is daar dus kleiner dan wanneer je dezelfde analyse uitvoert met een eenweg ANOVA. Je power is dus groter bij een tweeweg ANOVA.

 

 

Post-hoc of contrasttoetsen

Bij een tweeweg ANOVA kun je ook post-hoc toetsen en contrasttoetsen gebruiken. Als je van te voren een specifieke hypothese hebt zou je de hele ANOVA tabel niet hoeven bekijken. Post-hoc toetsen kun je alleen uitvoeren als je ANOVA analyse significant is.

 

 

Andere ANOVA’s

Als je meer dan twee factoren wilt analyseren noem je dat een meerweg ANOVA, of een factoriele ANOVA. Hoe meer factoren or niveaus je moet analuseren, hoe moeilijker je resultaten te interpreteren zijn. Je hebt ook meer proefpersonen nodig.

 

Het is ook mogelijk om dezelfde proefpersonen elke conditie te laten doorlopen, dit is een within-subjects design, en je moet dan een andere ANOVA uitvoeren: een repeated measures ANOVA. Een combinatie van een between-subjects factorieel ontwerp (dat hebben we tot nu toe behandeld) en een within-subjects ontwerp is ook mogelijk, dit is een mixed subjects design. Deze komt in het tweede jaar aan de orde.

 

 

Check page access:
Public
Work for WorldSupporter

Image

JoHo can really use your help!  Check out the various student jobs here that match your studies, improve your competencies, strengthen your CV and contribute to a more tolerant world

Working for JoHo as a student in Leyden

Parttime werken voor JoHo

How to use and find summaries?


Online access to all summaries, study notes en practice exams

Using and finding summaries, study notes en practice exams on JoHo WorldSupporter

There are several ways to navigate the large amount of summaries, study notes en practice exams on JoHo WorldSupporter.

  1. Starting Pages: for some fields of study and some university curricula editors have created (start) magazines where customised selections of summaries are put together to smoothen navigation. When you have found a magazine of your likings, add that page to your favorites so you can easily go to that starting point directly from your profile during future visits. Below you will find some start magazines per field of study
  2. Follow authors or (study) organizations: by following individual users, authors and your study organizations you are likely to discover more relevant study materials.
  3. Search tool: quick & dirty - not very elegant but the fastest way to find a specific summary of a book or study assistance with a specific course or subject. The search tool is available at the bottom of most pages or on the Search & Find page
  4. Tags & Taxonomy: gives you insight in the amount of summaries that are tagged by authors on specific subjects. This type of navigation can help find summaries that you could have missed when just using the search tools. Tags are organised per field of study and per study institution. Note: not all content is tagged thoroughly, so when this approach doesn't give the results you were looking for, please check the search tool as back up

Do you want to share your summaries with JoHo WorldSupporter and its visitors?

Quicklinks to fields of study (main tags and taxonomy terms)

Field of study

Quick links to WorldSupporter content for universities in the Netherlands

Follow the author: Vintage Supporter
Comments, Compliments & Kudos:

Add new contribution

CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
Image CAPTCHA
Enter the characters shown in the image.