Assortimentwijzer bij SPSS Survival Manual van Pallant: samenvattingen, oefenmateriaal, begrippenlijst - 2023/2024

 

Assortiment bij SPSS Survival Manual

 

    Online Samenvattingen en studiehulp bij SPSS Survival Manual op joho.org

    Meer samenvattingen en studiehulp bij SPSS Survival Manual hier op worldsupporter.org

    • o.a samenvattingen, bulletpoints, oefententamens en begrippenlijsten
    • zie de supporting content van de(ze) assortimentwijzer bij SPSS Survival Manual

    Prints & Pickup bij SPSS Survival Manual via joho.org

    SPSS Survival Manual van Pallant studeren

    •  
    Supporting content I (full)
    Boeksamenvatting bij SPSS Survival Manual - Pallant - 6e druk

    Boeksamenvatting bij SPSS Survival Manual - Pallant - 6e druk


    Hoe ontwerp je een onderzoek waarbij SPSS wordt gebruikt? - Chapter 1 (6e druk)

    Introductie: Wat is SPSS?

    SPSS is een statistisch computerprogramma dat door wetenschappers wordt gebruikt om gegevens te verzamelen, analyseren en te bewerken. Het wordt voornamelijk gebruikt om onderzoeksresultaten te onderzoeken. De afkorting SPSS staat voor Statistical Package for the Social Sciences. Het programma wordt dus met name in de sociale wetenschap gebruikt.

    Drie belangrijke situaties waarin je SPSS kunt gebruiken:

    • Het controleren van de betrouwbaarheid van een steekproef. Wanneer je in Nederland een onderzoek wil doen is het natuurlijk niet haalbaar om elke inwoner te toetsen. Om deze reden wordt vrijwel altijd gebruik gemaakt van een steekproef (een selectie van mensen uit de populatie). Het is belangrijk dat deze steekproef zo representatief mogelijk is voor de hele populatie zodat de uitkomstresultaten goed gegeneraliseerd kunnen worden (je wil immers iets zeggen over de hele populatie en niet slechts over de steekproef).

    • Het controleren van de betrouwbaarheid van je resultaten. SPSS kan informatie geven of het verband dat je hebt gevonden (bijvoorbeeld mannen stemmen vaker op SGP dan vrouwen) op toeval berust of dat het verschil ergens anders mee te maken heeft.

    • Data visualiseren. Het kan handig zijn om je resultaten te visualiseren door middel van grafieken en tabellen. Deze kan je door SPSS laten maken.

    Algemene informatie met betrekking tot onderzoek doen

    SPSS kan onderzoeksvragen beantwoorden door het doen van analyses; toetsen. Een voorbeeld van een onderzoeksvraag is: kiezen mannen vaker een technisch beroep dan vrouwen? De eerste stap is het verzamelen van je gegevens (hoeveel procent van de mannen kiest een technisch beroep en hoeveel procent van de vrouwen). Deze gegevens worden in SPSS data genoemd. Wanneer je je gegevens hebt verzameld (bijvoorbeeld door middel van vragenlijsten) dan kun je deze data invoeren in SPSS. Vervolgens kun je SPSS een toets laten uitvoeren die onderzoekt of er daadwerkelijk een verschil is tussen de data van mannen en vrouwen.

    Hoe plan je het opzetten van een onderzoek?

    Een goed onderzoek is sterk afhankelijk van een uitvoerige planning. Het boek geeft de volgende tips bij het opstarten van een onderzoek:

    • Kies het design van je onderzoek (bijvoorbeeld experiment, vragenlijst, observationeel). Weeg alle voor- en nadelen van elke methode af.

    • Als je kiest voor een experiment: beslis of je kiest voor een between-groups design (verschillende proefpersonen in elke experimentele conditie) of een repeated measures design (alle proefpersonen in alle condities).

    • Als je kiest voor een experiment: zorg voor genoeg niveaus in je onafhankelijke variabele.

    • Selecteer altijd meer proefpersonen dan nodig (gezien de grote kans op uitval).

    • Indien mogelijk, wijs proefpersonen random toe aan elke experimentele conditie. Het is van belang dat deze groepen niet op andere zaken van elkaar verschillen (check dit met een covariantie-analyse).

    • Kies betrouwbare en valide afhankelijke variabelen.

    • Anticipeer op mogelijke confounding variabelen. Dit zijn variabelen anders dan de onafhankelijke variabele die een mogelijke verklaring kunnen geven voor je resultaat. Controleer indien mogelijk voor deze confounding variabelen.

    • Als je kiest voor een vragenlijststudie (survey), check dan van tevoren of de instructies, vragen en schalen duidelijk zijn. Dit doe je door middel van pilot testing.

    Hoe kies je de juiste schalen en methoden?

    Bij het kiezen van de juiste schaal en methode zijn twee begrippen van belang: betrouwbaarheid en validiteit. Beide begrippen kunnen de kwaliteit van je data beïnvloeden.

    Betrouwbaarheid

    De betrouwbaarheid (reliability) van een schaal indiceert in welke mate de schaal vrij is van random error. Er zijn twee soorten betrouwbaarheid:

    1. Test-hertest betrouwbaarheid (test-retest reliability): deze wordt gemeten door de desbetreffende schaal aan te bieden aan twee verschillende personen in twee verschillende situaties en vervolgens de correlatie tussen deze twee scores te berekenen. Des te hoger deze correlatie, des te groter de test-hertest betrouwbaarheid.

    2. Interne consistentie (internal consistency): de mate waarin de items van een schaal met elkaar samenhangen. Deze kan bijvoorbeeld worden berekend met de Cronbach’s cofficient alpha in SPSS. Hierbij geldt dat een Cronbach’s alpha van .7 of groter duidt op een betrouwbare schaal.

    Validiteit

    De validiteit (validity) van een schaal verwijst naar de mate waarin de methoden meten wat ze beogen te meten. Er bestaan verschillende vormen van validiteit:

    1. Inhoudsvaliditeit (content validity): de mate van accuraatheid waarmee de methode of schaal het beoogde domein of de beoogde inhoud behelst.

    2. Criteriumvaliditeit (criterion validity): de relatie tussen verschillende schaalscores en een gespecificeerd meetcriterium.

    3. Constructvaliditeit (construct validity): de relatie met andere constructen, zowel gerelateerde constructen (convergente validiteit) als ongerelateerde constructen (discriminante validiteit).

    Hoe bereid je een vragenlijst voor?

    Het is belangrijk om bij het opstellen van een vragenlijst in gedachte te houden welke statistische methoden je nodig hebt om de gegevens te analyseren. Afhankelijk van de statistische techniek dien je een bepaalde vraag namelijk op een specifieke manier te stellen.

    Typen vragen

    Veel vragen kunnen worden geclassificeerd in twee groepen: open vragen en gesloten vragen. Een gesloten vraag geeft respondenten meerdere antwoordopties. Gesloten vragen kunnen snel worden omgezet in een numeriek format in SPSS. Zo kan antwoord ‘ja’ worden gecodeerd met nummer 1 en antwoord ‘nee’ met nummer 2. De antwoorden op open vragen kunnen worden verdeeld over verschillende categorieën, bijvoorbeeld werk of relaties. Vaak werkt een combinatie van open en gesloten vragen het best in een onderzoek.

    Format van antwoorden

    Het is belangrijk om de juiste schaal te kiezen bij het opstellen van antwoordformats. Wanneer je bijvoorbeeld een correlatie wilt berekenen dien je exacte leeftijden te weten. Daarnaast is het vaak handig om een Likert-type schaal toe te passen. Mensen geven dan niet simpelweg antwoord of ze het wel of niet eens zijn met de vraag, maar in welke mate (bijvoorbeeld op een schaal van 1 tot 6).

    Introductie: Wat is SPSS?

    SPSS is een statistisch computerprogramma dat door wetenschappers wordt gebruikt om gegevens te verzamelen, analyseren en te bewerken. Het wordt voornamelijk gebruikt om onderzoeksresultaten te onderzoeken. De afkorting SPSS staat voor Statistical Package for the Social Sciences. Het programma wordt dus met name in de sociale wetenschap gebruikt.

    Drie belangrijke situaties waarin je SPSS kunt gebruiken:

    • Het controleren van de betrouwbaarheid van een steekproef. Wanneer je in Nederland een onderzoek wil doen is het natuurlijk niet haalbaar om elke inwoner te toetsen. Om deze reden wordt vrijwel altijd gebruik gemaakt van een steekproef (een selectie van mensen uit de populatie). Het is belangrijk dat deze steekproef zo representatief mogelijk is voor de hele populatie zodat de uitkomstresultaten goed gegeneraliseerd kunnen worden (je wil immers iets zeggen over de hele populatie en niet slechts over de steekproef).

    • Het controleren van de betrouwbaarheid van je resultaten. SPSS kan informatie geven of het verband dat je hebt gevonden (bijvoorbeeld mannen stemmen vaker op SGP dan vrouwen) op toeval berust of dat het verschil ergens anders mee te maken heeft.

    • Data visualiseren. Het kan handig zijn om je resultaten te visualiseren door middel van grafieken en tabellen. Deze kan je door SPSS laten maken.

    Hoe maak je een codeboek voor SPSS? - Chapter 2 (6e druk)

    Hoe bereid je SPSS data voor?

    Voordat je alle informatie van vragenlijsten en experimenten in IBM SPSS kan invoeren is het noodzakelijk om een ‘codeboek’ te maken. Dit is een samenvatting van de instructies die je gaat gebruiken om de informatie van elke proefpersoon om te zetten in een format dat IBM SPSS kan begrijpen. Het voorbereiden van een codeboek bestaat uit (1) het definiëren en labelen van elke variabele, en (2) het toekennen van nummers aan alle mogelijke antwoorden.

    Een codeboek bestaat in principe uit vier kolommen:

    1. de afgekorte naam van de variabele (bijvoorbeeld ‘ID’ voor ‘identification number’)

    2. de uitgeschreven naam van de variabele (bijvoorbeeld ‘identification number’)

    3. uitleg over hoe de mogelijke antwoorden worden gedoceerd (bijvoorbeeld 1 = mannen, 2 = vrouwen)

    4. de meetschaal (bijvoorbeeld nominaal)

    Wat is een variabele?

    Een variabele is een element dat een bepaalde waarde kan aannemen. Het is een element dat je graag wilt meten en analyseren. Voorbeelden van een variabele zijn ‘geslacht’, ‘leeftijd’, ‘opleidingsniveau’ en ‘IQ’. Middels SPSS kun je onderzoeken of je variabelen met elkaar samenhangen (bijvoorbeeld opleidingsniveau en IQ) of dat een bepaalde variabele een andere variabele voorspelt (bijvoorbeeld: behalen mannen hogere IQ-scoores dan vrouwen?).

    De afhankelijke variabele

    De afhankelijke variabele is de variabele waarover je een voorspelling doet of de uitkomst van je meting. In het Engels wordt dit de dependent variable genoemd. Een voorbeeld is intelligentie. Je kunt dan onderzoeken welke factoren (onafhankelijke variabelen) invloed hebben op intelligentie (de afhankelijke variabele). In weze hangt de uitkomst van de afhankelijke variabele dus af van andere variabelen (vandaar de naam).

    De onafhankelijke variabele

    De onafhankelijke variabele is een factor waarvan je gaat meten of deze een verandering veroorzaakt bij de afhankelijke variabele. In het Engels wordt de onafhankelijke variabele de independent variable genoemd. (ID). Als men bijvoorbeeld een onderzoek wilt doen over de invloed van het drinken van alcohol op tentamenresultaten, is de onafhankelijke variabele de hoeveelheid alcohol en de afhankelijke variabele het tentamenresultaat.

    Wat zijn meetschalen?

    Het is van belang om te weten van welk meetniveau je variabele is om vervolgens een goede keuze te maken voor je statistische test (de methode waarmee je je onderzoeksvraag wilt onderzoeken). Een dergelijk meetniveau wordt ook wel een meetschaal genoemd. Er bestaan grofweg vier meetschalen: nominaal, ordinaal, interval en ratio. Deze schalen worden hieronder besproken.

    Wat is een discrete variabele?

    Een discrete variabele kan slechts een paar vaste waarden aannemen. Hieronder vallen de nominale schaal en de ordinale schaal. De nominale schaal is een kwalitatieve meetschaal met losstaande categorieën, bijvoorbeeld geslacht (man/vrouw). Metingen op ordinaal niveau kennen een natuurlijke ordening. De volgorde is duidelijk, maar de verschillen zijn niet te interpreteren. Een voorbeeld is het opleidingsniveau (VMBO-HAVO-VWO). De verschillen tussen deze opleidingsniveaus zijn niet allemaal even groot.

    Wat is een continue variabele?

    Een continue variabele is een variabele die gemeten kan worden in getallen, waarbij de tussenliggende waarden betekenis hebben. Hieronder vallen de interval schaal en de ratio schaal. Bij een interval schaal zijn de verschillen tussen scores in tegenstelling tot een ordinale schaal wél gelijk. Het verschil tussen 10 en 11 op een test is net zo groot als het verschil tussen 50 en 51. Een intervalschaal heeft echter geen absoluut nulpunt. Daarom kun je niet zeggen hoeveel hoger een waarde is. Een goed voorbeeld hiervan is de Fahrenheit-schaal: 30 graden is niet twee keer zo warm als 15 graden.

    Een ratioschaal heeft dezelfde eigenschappen als een intervalschaal, maar een ratioschaal heeft wel een absoluut nulpunt. 50 centimeter is immers twee keer zo lang als 25 centimeter.

    Wat is een categorische variabele?

    Een categorische variabele is een variabele die geen getallen aanneemt, maar onderverdeeld wordt in categorieën. Het meest gebruikte voorbeeld is man/vrouw.

    Wat is een dichotome variabele?

    Een dichotome variabele is een variabele die slechts twee opties kent, zoals goed/fout.

    Aan welke regels dient een variabelenaam te voldoen?

    Elke vraag of item in je vragenlijst dient een unieke variabelenaam te krijgen. Er bestaat een aantal regels waar een variabelenaam aan moet voldoen:

    • elke variabele moet een andere naam krijgen en dient dus uniek te zijn

    • elke variabele moet beginnen met een letter (niet met een cijfer)

    • een variabele kan geen symbool (bijvoorbeeld !, ?) of spatie bevatten

    • een variabele kan geen woord bevatten die door IBM SPSS wordt gebruikt als commando (bijvoorbeeld all, ne, eq)

    • een variabele kan niet meer dan 64 karakters bevatten

    Hoe codeer je de respons?

    Elke uitkomst krijgt een numerieke code, bijvoorbeeld 1 voor vrouwen en 2 voor mannen.

    Hoe codeer je antwoorden op open vragen?

    Bij open vragen inventariseer je wat voor antwoorden het meest voorkomen. Bijvoorbeeld bij de vraag 'Waardoor ervaar je stress?' kun je de antwoorden indelen in werk = 1, relatie = 2, etc. Het is ook handig om een restcategorie te maken voor overige antwoorden (overig = 99).

    Hoe begin je met IBM SPSS? - Chapter 3 (6e druk)

    Hoe open je IBM SPSS?

    Er zijn verschillende manieren om IBM SPSS op te starten.

    • De meest eenvoudige manier is om op het SPSS icoon op je desktop te klikken. Plaats je cursor op het icoon en klik tweemaal.

    • Je kunt ook IBM SPSS openen door te klikken op Start, je cursor te plaatsen op Alle programma’s, en vervolgens naar de lijst van alle beschikbare programma’s. Kijk of je hier een map kunt vinden genaamd IBM SPSS Statistics, in dit geval IBM SPSS Statistics 24.

    • IBM SPSS zal ook opstarten als je tweemaal klikt op een IBM SPSS databestand in Window Explorer.

    Hoe open je een bestaand SPSS bestand?

    Als je een bestaand SPSS databestand wil openen, klik dan op File in het menu van IBM SPSS en kies vervolgens voor Open en Data. De Open file sectie stelt je in staat om te zoeken naar het gewenste bestand. Je kunt ook altijd een databestand openen vanuit de hard drive van je computer. Als je een databestand hebt staan op een usb-stick, kopieer deze dan eerst naar je computer. Vervolgens kun je het bestand openen door tweemaal op het icoon te klikken. Het bestand zal vervolgens openen in de Data Editor.

    Hoe werk je met SPSS-bestanden?

    Een databestand opslaan

    Het is belangrijk om altijd je data op te slaan als je ermee aan de slag bent. Het opslaan gebeurt namelijk niet automatisch in IBM SPSS. Om een bestand op te slaan ga je naar het File menu. Kies vervolgens voor Save. Je kunt ook op het icoon klikken dat lijkt op een floppydisk. Deze zie je linksboven in je scherm. Zorg er altijd voor dat je bestand wordt opgeslagen op je computer en niet op een externe schijf. Wanneer je het bestand voor het eerst opslaat dien je een naam aan te maken voor het bestand en een map te kiezen waar je het bestand wil opslaan. IBM SPSS zorgt er automatisch voor dat je bestand wordt opgeslagen met .sav op het eind.

    Een ander databestand openen

    Als je met een databestand bezig bent en je wil een nieuw bestand openen, klik dan op File en vervolgens voor Open en Data. Zoek de map waarin je bestand is opgeslagen. Klik op het gewenste bestand en klik dan op de Open knop. Vervolgens zal het tweede bestand worden geopend in een nieuw scherm.

    Een nieuw databestand maken

    Om een nieuw databestand te maken klik je op File en vervolgens op New en Data. Vervolgens kun je je variabelen gaan definiëren en nieuwe data invoeren.

    Hoe ga je om met verschillende schermen?

    IBM SPSS is een programma dat bestaat uit verschillende schermen of ‘windows’. Om deze schermen te openen dien je eerst een bestaand databestand te openen of een eigen databestand creëren. Om een bestaande dataset te openen klik je op ‘File’ in het menu en vervolgens op ‘open’. Vervolgens kies je bij ‘data’ voor je dataset. De belangrijkste schermen in SPSS zijn de ‘Data Editor’, de ‘Viewer’, de ‘Pivot Tabe Editor’, de ‘Chart Editor’ en de ‘Syntax Editor’.

    De Data Editor

    De Data Editor bestaat uit de inhoud van je databestand. In dit scherm kun je datasets maken en/of opslaan, veranderingen aanbrengen in bestaande data en statistische analyses uitvoeren.

    De Viewer Editor

    Wanneer je analyses uitvoert start de Viewer Editor (je output) automatisch. Dit scherm bestaat uit twee delen. Aan de linkerkant is een navigatie te zien waarop alle analyses staan die je hebt uitgevoerd. Aan de rechterkant zijn de resultaten van je analyses te zien, bijvoorbeeld tabellen en grafieken.

    Wanneer je de output van IBM SPSS opslaat gebeurt dit in een apart bestand eindigend op .spv. Databestanden eindigen altijd op .sav. Om de resultaten van je analyses op te slaan is het van belang het Viewer scherm geopend te hebben. Klik op File en vervolgens op Save. Kies de map waarin je de output wil opslaan en maak een nieuwe naam aan. Klik dan op Save.

    Het is belangrijk om te weten dat een output bestand alleen kan worden geopend in IBM SPSS. Wanneer je je bestand naar iemand anders stuurt die geen beschikking heeft over het programma IBM SPSS dan kan hij of zij jouw bestand niet openen. Om dit te verhelpen kun je je output exporteren. Selecteer hiervoor File en vervolgens Export. Je kunt nu het type kiezen, bijvoorbeeld pdf of Word. Kies dan de Browse knop om een map te maken waarin je het bestand in wil opslaan en kies een geschikte naam in de Save File regel. Klik dan op Save en OK.

    Je kunt de navigatiebalk (links in het scherm) gebruiken om bepaalde secties van je output uit te printen. Highlight de secties die je wil printen. Klik op de eerste sectie, houd vervolgens de Ctrl toets ingedrukt en klik op het File menu en op Print.

    De Pivot Table Editor

    De tabellen die je kunt zien in het Viewer scherm (de output) kun je aanpassen. Dit kan door middel van de Pivot Table Editor. Om een tabel aan te passen selecteer je de gewenste tabel en klik je tweemaal op de tabel. Vervolgens kun je de Pivot Table Editor gebruiken om bijvoorbeeld de grootte, het lettertype of de dimensies van de kolommen te wijzigen.

    Het Chart Editor scherm

    Wanneer je SPSS vraagt een grafiek te maken verschijnt deze eerst in het Viewer scherm. Als je de grafiek wil aanpassen dien je het Chart Editor scherm te activeren. Dit doe je door de desbetreffende grafiek te selecteren (dubbelklik).

    Het Syntax Editor scherm

    In het Syntax Editor scherm kun je de commando’s zien die SPSS gebruikt om bepaalde analyses uit te voeren. Wanneer je een analyse opnieuw wil uitvoeren kun je dit aangeven in je Syntax scherm. Je selecteert dan de gewenste commando en klikt vervolgens op ‘Run’. Wil je graag dat de commando van je analyse in het Syntax scherm verschijnt, dan klik je op ‘Paste’ in plaats van ‘OK’.

    Wat zijn dialoogvensters?

    Wanneer je een menuoptie selecteert wordt vaak verdere informatie gevraagd. Dit wordt gedaan in een dialoogvenster. Er bestaat bijvoorbeeld een dialoogvenster wanneer je de analyse ‘Frequencies’ gebruikt.

    Om de variabele te selecteren waarop je de analyse wil uitvoeren selecteer je de variabele en druk je vervolgens op de pijltjestoets (pijltje wijzend naar rechts). Als je meerdere variabelen wilt selecteren selecteer je deze door tegelijkertijd met de Ctrl toets ingedrukt te houden. Om eenvoudig de juiste variabelen te vinden selecteer je één van de variabelen en klik je met de rechtermuisknop. Kies vervolgens voor Sort Alphabetically. Nu worden de variabelen alfabetisch gesorteerd en kun je gemakkelijk de gewenste variabelen vinden. Om een variabele die je hebt geselecteerd weer uit de selectie te halen selecteer je de variabele in het dialoogvenster en klik je op de pijltjestoets (pijltje wijzend naar links).

    In het dialoogvenster vind je vaak steeds dezelfde knoppen terug.

    • OK: Klik op deze knop wanneer je je variabelen hebt geselecteerd en je klaar bent om de analyse uit te voeren.

    • Paste: Deze knop zorgt ervoor dat je analyse wordt getransporteerd naar de Syntax Editor. Dit kan handig zijn wanneer je een bepaald commando meerdere keren wilt uitvoeren.

    • Reset: Deze knop wordt gebruikt om het dialoogvenster leeg te maken.

    • Cancel: Als je op deze knop klikt worden alle commando’s die je hebt gegeven voor de techniek of procedure verwijderd.

    • Help: Als je op deze knop klikt verschijnt er extra informatie over de techniek of procedure die je wilt uitvoeren.

    Hoe sluit je IBM SPSS?

    Wanneer je IBM SPSS wilt afsluiten klik je op File en vervolgens op Exit. IBM SPSS zal je dan een herinnering laten zien om je bestand op te slaan voordat het programma wordt afgesloten. Het is van belang om dan zowel je databestand als je output op te slaan.

    Hoe maak je een bestand aan en voer je gegevens in SPSS in? - Chapter 4 (6e druk)

    Hoe verander je de opties?

    De opties kun je gebruiken voor allerlei mogelijkheden om variabelen weer te geven, het soort tabellen dat je als output wilt krijgen en meer. Options vind je onder Edit. Zorg dat je eerst in alle tabs selecteert wat je wilt, en vervolgens op OK klikt.

    General tabblad

    Hier kun je kiezen om variabelen alfabetisch weer te geven of in de volgorde waarop ze in het bestand verschijnen, het laatste is in de meeste gevallen meer in lijn met het onderzoek. Klik hiervoor op File bij Variable Lists. Voor een overzichtelijke weergave van getallen, klik bij Output op No scientific notation for small numbers in tables.

    Data tabblad

    Hierbij kies je hoe data wordt weergegeven.

    Output tabblad

    Hiermee kun je de naam van variabelen en labels customizen.

    Pivot tables tabblad

    Hier kun je de vormgeving van tabellen kiezen.

    Hoe definieer je de variabelen?

    De Data Editor (het hoofdscherm van SPSS) is onderverdeeld in twee verschillende tabbladen; Data View en Variabele View (deze tabbladen vind je linksonder in het scherm). Voordat je data kan invoeren moeten er eerst variabelen worden gecreëerd. In het tabblad 'Variabelen View' kun je je variabelen definiëren. In het tabblad ‘Data view’ voer je vervolgens al je data in. Wanneer je een analyse hebt uitgevoerd verschijnt het output scherm.

    Variabele View

    In dit tabblad kun je de variabelen aanmaken. Iedere rij staat voor een variabele. Je kan in elke kolom informatie over de variabele invoeren.

    • Name: De naam van de variabele

    • Type: Type data, vaak zijn dit gewoon nummers oftewel ‘numeric variables’. Ook kan het voorkomen dat er bijvoorbeeld data of letters worden gebruikt. Wil je het type invoeren, selecteer dan de cel en druk op het blauwe vierkantje met puntjes. Vervolgens kun je in een nieuw scherm het type variabele kiezen (bijvoorbeeld numeric, dollar, of date).

    • Width: Hoeveel posities er beschikbaar zijn

    • Decimals: Aantal decimalen

    • Labels: Tekst waarmee je de naam van de variabele kan toelichten

    • Values: Hier vul je de waarden van de labels in. Een voorbeeld kan zijn dat je variabele geslacht is en de code dan 0 voor man en 1 voor vrouw is. Om de waarden in te vullen selecteer je de cel en klik je op het blauwe vierkantje met de puntjes. Vervolgens schrijf je bij value bijvoorbeeld ‘0’ in en bij label ‘man’.

    • Missing: Hier kun je een waarde opgeven die je gebruikt hebt om 'geen antwoord' aan te geven. Ook hierbij selecteer je het blauwe vierkantje om de waarden in te voeren.

    • Columns: Breedte van de kolom in data-view.

    • Align: Uitlijning

    • Measure: Op welk level de data is gemeten: nominaal, ordinaal of schaal.

    • Role: De rol die de variabele speelt in je dataset. Je kunt hierbij selecteren of het om een afhankelijke variabele (‘target’) of onafhankelijke variabele (‘input’) gaat.

    Bij het bepalen van variabelen zijn er vier stappen:

    1. Variabelen aanmaken

    2. Labels toekennen aan de antwoord categorieën en de missing values

    3. Invoeren data

    4. Data opschonen

    Hoe voer je variabelen en data in?

    Er zijn twee manieren om een nieuwe variabele aan te maken. Bij de eerste manier wordt een nieuwe variabele gecreeërd door het invoeren van nieuwe data. Bij de tweede manier wordt een variabele gemaakt die is gebaseerd op bestaande data in de dataset. Er worden dan bijvoorbeeld twee variabelen gecombineerd om een nieuwe, derde, variabele te maken.

    Manier 1: Nieuwe variabele, data handmatig invoeren.

    1. Klik links onderin het scherm op ´Variable View´.

    2. Typ vervolgens bij de eerste rij de naam van je variabele. Je kunt bij ´Label´ aangeven wat de variabele precies meet. Bij ´Values´ kun je aangeven wat elke antwoordmogelijkheid betekent. Je hoeft dit dus niet bij open vragen in te voeren!

    3. Let op dat je bij ‘Measures’ goed aanvinkt welk meetniveau de variabele heeft.

    Manier 2: Nieuwe variabele, gebaseerd op bestaande variabelen

    Samengestelde samenvatting, gebaseerd op hoofdstuk 4 van SPSS Survival Manual van Pallant, 6e druk uit 2016.Voorbeeld in SPSS: gemiddelde maken van verschillende variabelen.

    1. Klik op ‘Transform’ → ‘Compute Variable’

    2. Voer bij ‘Target Variable’ de naam in voor de nieuwe variabele.

    3. Vervolgens kun je bij ‘Function group’ klikken op ‘Statistical’. Er verschijnen dan bij ‘Functions and Special Variables’ allerlei opties die je kunt doen. Als je bijvoorbeeld op ‘Mean’ klikt, kun je het gemiddelde van een paar variabelen samenvoegen in een nieuwe variabele. Er verschijnt in het blokje ‘Numeric Expression’ MEAN(?,?).

    4. Nu kun je uit de linker lijst de variabelen naar het blokje ‘Numeric Expression’ slepen, zodat de vraagtekens vervangen worden door de namen van de variabelen.

    Als je daarna op ‘OK’ klikt, kun je in de dataset de nieuw gemaakte variabele met de daarbij behorende waarden terugvinden.

    Hoe bewerk je bestaande data?

    Een proefpersoon verwijderen uit de data

    De ingevoerde data kun je aanpassen in de data editor. Om een proefpersoon te verwijderen selecteer je de rij van de desbetreffende proefpersoon en klik je op ‘delete’ (op het toetsenbord). Je kunt ook gebruik maken van SPSS door middel van de volgende stappen: Edit –→ Clear.

    Een proefpersoon toevoegen tussen de andere proefpersonen

    Beweeg je cursor naar een cel in de rij direct onder de rij waar je een nieuwe proefpersoon wil toevoegen. Klik op Edit en kies vervolgens voor Insert Cases. Vervolgens zal er een lege rij verschijnen waar je nieuwe data kan invoeren.

    Een variabele verwijderen

    Positioneer je cursor naar de sectie boven de kolom die je wil verwijderen. Klik eenmaal om de hele kolom te selecteren. Klik vervolgens op ‘delete’ op je toetsenbord. Je kunt ook klikken op Edit in het menu en vervolgens op Clear.

    Een variabele toevoegen tussen andere variabelenaam

    Positioneer je cursor in een cel in de kolom rechts naast de variabele waarnaast je een nieuwe variabele wil plaatsen. Klik op het Edit menu en kies Insert variable. Een lege kolom zal verschijnen waarin je data van de nieuwe variabele kunt invoeren.

    Een variabele verplaatsen

    Klik met je linkermuisknop op de variabele die je wilt verplaatsen, hou vast en sleep de variabele naar de nieuwe plek.

    Hoe voeg je data van Excel in?

    Het is ook mogelijk om data te exporteren uit een bestaand bestand uit Excel. Je kunt bijvoorbeeld je data voorbereiden in Excel en deze vervolgens in IBM SPSS zetten. Voer hiervoor de volgende stappen uit. Open IBSM SPSS. Klik vervolgens op File, Open, Data. In de sectie Files of type kies je voor Excel. Excelbestanden eindigen altijd op .xls of .xlsx. Vind het bestand naar jouw keuze. Klik op het bestand zodat deze in de File name verschijnt. Klik daarna op de Open knop. Er zal nu een scherm openen dat Opening Excel Data Source heet. Zorg ervoor dat Read variabel names from the first row of data aangevinkt is. Klik dan op Ok. Vervolgens kun je het nieuwe bestand opslaan als een IBM SPSS bestand. Kies File, daarna Save as. Type een nieuwe naam in. Let op dat de Save as Type is gezet op SPSS Statistics (*.sav). Klik dan op Save. In de Data Editor, Variable View, zul je nu extra informatie moeten toevoegen met betrekking tot Labels, Values en Measure. Ook zul je waarschijnlijk de breedte van de kolommen moeten wijzigen.

    Wat kun je nog meer met de data doen?

    Data splitten

    Soms is het handig om verschillende groepen te maken binnen je data om zo deze groepen te vergelijken. Op deze manier kun je bijvoorbeeld de data van mannen en vrouwen met elkaar vergelijken. Om dit te kunnen doen dien je je databestand in SPSS te splitsen. Je zorgt er dan voor dat bijvoorbeeld alle mannen in één groep komen te zitten (groep 1) en alle vrouwen (groep 2).

    Procedure

    Nu volgt de procedure voor het splitsen van je databestand.

    1. Ga naar Data en kies Split File.

    2. Klik op Compare groups en specificeer je groepsvariabele (in dit geval geslacht). Klik op OK.

    Je ziet nu vervolgens in je databestand (Data View) dat alle proefpersonen zijn gesorteerd op geslacht. Eerst zie je alle mannen, daarna alle vrouwen.

    Data selecteren

    Voor sommige analyses heb je slechts een deel van je steekproef nodig. Bijvoorbeeld: alleen maar de mannen. Je dient dan deze groep te selecteren in SPSS. Dit doe je door middel van de optie Select Cases. Wanneer je de groep mannen hebt geselecteerd worden alle vrouwen weggestreept in SPSS. Alle analyses die je vervolgens zal doen zullen alleen worden gedaan voor mannen.

    Procedure

    Nu volgt de procedure voor het selecteren van een deel van je steekproef (in dit geval mannen).

    1. Kies bij Data voor Select Cases.

    2. Klik op If condition is staisfied.

    3. Klik op de knop IF.

    4. Kies de variabele waarop je je groep wil selecteren (in dit geval geslacht).

    5. Klik op de pijltjestoets en sleep de variabele naar de sectie. Klik op de = toets van het toetsenbord op het scherm.

    6. Type de waarde in die correspondeert met de waarde voor mannen in je codeboek. Kijk hiervoor in je Variable View.

    7. Klik op Continue en op OK.

    8. Klik daarna op ‘If’ bij ‘If condition is satisfied’ -> selecteer dan de variabele

    In de Data View zie je nu dat alle vrouwen (geslacht = 1) zijn weggestreept. Alleen de mannen (geslacht = 0) zijn geselecteerd.

    Hoe voeg je bestanden samen?

    Soms is het nodig om databestanden samen te voegen. Als de bestanden dezelfde variabelen hebben en dezelfde variabelenamen gebruiken, kun je de bestanden samenvoegen door de gegevens toe te voegen. Het kan echter nodig zijn om eerst nieuwe variabelen toe te voegen.

    Bestanden samenvoegen door gegevens toe te voegen

    Nu volgt de procedure voor het samenvoegen van bestanden door gegevens toe te voegen.

    1. Open het bestand dat je toe wilt voegen.

    2. Ga naar Data en kies Merge Files en dan Add Cases.

    3. Klik in het dialoogvenster op An external SPSS data file.

    4. Klik op Continue, op OK en op File, save as om het bestand een eigen naam te geven.

    Bestanden samenvoegen door variabelen toe te voegen

    Nu volgt de procedure voor het samenvoegen van bestanden door gegevens toe te voegen.

    1. Sorteer de bestanden in oplopende volgorde via Data, klik Samengestelde samenvatting, gebaseerd op hoofdstuk 4 van SPSS Survival Manual van Pallant, 6e druk uit 2016.bij Sort Cases op ID en dan op OK.

    2. Ga naar Data, klik op Merge Files en dan Add Variables.

    3. Klik in het dialoogvenster op An external SPSS data file.

    4. Kijk in de Excluded variables box na of je de toegevoegde variabelen ziet. Zorg dat elke variabele een unieke naam heeft, zodat twee verschillende variabelen niet dezelfde naam hebben.
    5. Klik op de variabele die je toe wilt voegen, en dan op de box Match cases on key variables. Verplaats de variabele naar de Key variables box, en klik op OK.
    6. Sla het samengevoegde bestand op onder een nieuwe naam met File, save as.

    Hoe kun je data in SPSS screenen en opschonen? - Chapter 5 (6e druk)

    Typefouten

    Het is altijd heel belangrijk om je data even door te lopen op bijvoorbeeld typefouten. Je kan dan natuurlijk alle ingevoerde data nog een keer controleren aan de hand van de oorspronkelijke data, maar dit kost erg veel tijd. Een makkelijkere manier is het opvragen van Frequencies. Dit doet je door de volgende stappen te volgen: Analyze –→ Descriptive Statistics –→ Frequencies.

    Het screenen en opschonen van de data

    Voordat je je data kunt analyseren is het van belang om je databestand te controleren voor errors, mogelijke fouten. Als eerst is het belangrijk om te kijken of je typefouten hebt gemaakt (zie boven). Daarnaast is het essentieel om te onderzoeken of er andere fouten zijn met je data. Je volgt hiervoor de volgende stappen:

    • Stap 1: Het controleren op errors. Eerst is het noodzakelijk om alle scores na te gaan van alle variabelen. Je onderzoekt dan of er bepaalde scores zijn die buiten de normale range vallen.

    • Stap 2: Het vinden en controleren van error in het databestand. Vervolgens is het noodzakelijk om uit te zoeken waar de error zich bevindt in het databestand. Deze error dient dan of gecorrigeerd te worden of te worden verwijderd.

    Hoe controleer je op errors?

    Wanneer je je bestand controleert op errors ga je met name na of er waarden zijn die buiten de normale range van mogelijke scores vallen. Bijvoorbeeld: wanneer variabele ‘geslacht’ gecodeerd is met 0 of 1 (waarbij geldt 0 = man en 1 = vrouw), is het niet mogelijk om scores te vinden anders dan 0 of 1. Scores die een ander getal dan 0 of 1 hebben (bijvoorbeeld 2 of 3) dienen daarom te worden verwijderd of te worden aangepast. Er zijn verschillende manieren om errors te vinden met IBM SPSS. Deze kunnen grofweg worden verdeeld in twee methoden: één voor error bij categorische variabelen en één voor error bij continue variabelen.

    Het checken van categorische variabelen

    Volg de volgende procedure om error te controleren bij categorische variabelen.

    1. Klik op Analyze en vervolgens op Descsriptive Statistics en dan op Frequencies.

    2. Kies de variabelen die je wil checken (bijvoorbeeld geslacht). Om een variabele gemakkelijk te vinden kun je je variabelenlijst sorteren op alfabet.

    3. Klik op de pijltjestoets (wijzend naar rechts) om de gewenste variabelen te verschuiven naar het variabelenvenster.

    4. Klik vervolgens op Statistics. Vink Minimum en Maximum aan in de Disperson sectie.

    5. Klik vervolgens op Continue en dan op OK (of op Paste om alles op te slaan in de Syntax Editor).

    De syntax wordt als volgt gegenereerd:

    FREQUENCIES VARIABLES=geslacht

    /STATISTICS=MINIMUM MAXIMUM

    /ORDER=ANALYSIS.

    In dit voorbeeld zie je dat er één error is in het databestand. Er is namelijk één proefpersoon waarbij het geslacht is gecodeerd met cijfer 2 (in plaats van 0 of 1). Kijk daarom bij deze proefpersoon na of er sprake is van een mannelijk geslacht of vrouwelijk geslacht. Verander daarna de data van deze proefpersoon.

    Het kan ook voorkomen dat er bij een proefpersoon vergeten is om data in te voeren voor de desbetreffende variabele. In de tabel kun je deze vinden bij ‘Missing’.

    In dit voorbeeld is bijvoorbeeld te zien dat bij één proefpersoon de data voor variabele geslacht ontbreekt. Zoek deze proefpersoon op en kijk of je de data kunt corrigeren (zie hieronder).

    Hoe vind en corrigeer je errors in het databestand?

    Wat te doen wanneer je responsen hebt gevonden die buiten de normale range vallen? Dan is het belangrijk om deze proefpersonen op te sporen. Dit kun je doen door de volgende stappen te ondernemen:

    • Klik op Data en vervolgens kies je voor Sort Cases.

    • In het dialoogvenster kies je vervolgens de variabele waarvoor je wist dat er sprake was van error (in dit geval dus ‘geslacht’). Klik op de pijltjestoets (wijzend naar rechts) en verplaats de variabele naar het Sort By venster. Kies dan uit ascending (van laag naar hoog) of descending (van hoog naar laag). In ons voorbeeld willen we graag de proefpersoon vinden die bij geslacht antwoordoptie ‘2’ had. We kiezen in dit geval dus voor aflopend (descending).

    • Klik dan op OK.

    Het checken van continue variabelen

    Volg de volgende procedure om error te controleren bij continue variabelen.

    1. Klik op Analyze en vervolgens op Descriptive Statistics en dan op Descriptives.
    2. Kies de variabelen die je wil checken (bijvoorbeeld geslacht). Klik op de pijltjestoets (wijzend naar rechts) om de gewenste variabelen te verschuiven naar het variabelenvenster.
    3. Klik op Options. Je kunt zelf kiezen wat je wilt tonen: gemiddelde, standaarddeviatie, of minimum en maximum.
    4. Klik vervolgens op Continue en dan op OK (of op Paste om alles op te slaan in de Syntax Editor).

    De syntax wordt als volgt gegenereerd:

    DESCRIPTIVES

    VARIABLES=age

    /STATISTICS=MEAN STDDEV MIN MAX

    Bekijk of de minimum en maximum logisch zijn, bijvoorbeeld een leeftijd van 2 tot 82. Bekijk ook of het gemiddelde logisch is, of dat er bepaalde gegevens zijn die het gemiddelde sterk doen afwijken.

    Wat zijn case summaries?

    Summarize Cases geeft je een tabel met daarin specifieke informatie voor elke proefpersoon. Je volgt de volgende stappen om deze samenvatting te verkrijgen:

    1. Klik op Analyze, ga naar Reports en kies dan voor Case Summaries.

    2. Kies de variabelen waarin je geïnteresseerd bent (in dit geval geslacht, provincie en leeftijd).

    3. Klik op Statistics en verwijder Number of Case van het Cell Statistics venster. Klik dan op Continue.

    4. Klik op Options en verwijder Subheadings for totals.

    5. Klik op Continue en vervolgens op OK (of op Paste als je de analyse wil opslaan in de Syntax Editor).

    De syntax wordt als volgt gegenereerd:

    SUMMARIZE

    /TABLES=geslacht provincie leeftijd

    /FORMAT=VALIDLIST NOCASENUM NOTOTAL LIMIT=5

    /TITLE='Case Summaries'

    /MISSING=VARIABLE

    /CELLS=NONE.

    In het voorbeeld is alleen een samenvatting gegeven van de eerste vijf proefpersonen. Dit kun je aangeven door onder Display Cases bij Limit cases to first het aantal te noteren (in dit geval 5).

    Hoe gebruik je SPSS voor beschrijvende statistiek? - Chapter 6 (6e druk)

    Wanneer je er zeker van bent dat er geen sprake is van error in je databestand dan kun je beginnen met de beschrijvende fase van je data-analyse. Dit noemde we beschrijvende statistiek ofwel descriptive statistics. Deze hebben als doel:

    • Het beschrijven van de kenmerken van je steekproef in de methodesectie van je artikel

    • Het checken van je variabelen om te onderzoeken of je aan bepaalde assumpties voldoet behorende bij de statistiektechnieken die je wilt uitvoeren om je onderzoeksvragen te beantwoorden

    • Het stellen van specifieke onderzoeksvragen

    Wanneer het om onderzoek met menselijke proefpersonen gaat is het vrijwel noodzakelijk om algemene kenmerken te verzamelen. Denk hierbij aan het aantal mensen in de steekproef, het aantal of percentage mannen en vrouwen, de leeftijden, en opleidingsniveau.

    Voorbeelden van beschrijvende statistieken zijn het gemiddelde, de standaarddeviatie en de spreiding van de scores.

    Procedure voor het maken van een codeboek

    Als je alleen een snelle samenvatting wilt van de kenmerken van je variabelen in je databestand heb je waarschijnlijk genoeg aan een codeboek. Hier volgt de procedure om een codeboek te verkrijgen.

    1. Klik op Analyze en ga naar Reports en kies Codebook.

    2. Selecteer de variabelen die je wilt (bijvoorbeeld geslacht, leeftijd) en sleep deze variabelen naar het Codebook Variables venster.

    3. Klik op het Output blad en vink alle Opties uit, behalve Label, Value Labels and Missing Values, uit.

    4. Klik op Statistics en zorg ervoor dat alle opties in beide secties zijn aangevinkt.

    5. Klik op OK (of op Paste om alles op te slaan in de Syntax Editor).

    De syntax is dan als volgt:

    DATASET ACTIVATE DataSet1.

    CODEBOOK geslacht [n] leeftijd [s]

    /VARINFO LABEL VALUELABELS MISSING

    /OPTIONS VARORDER=VARLIST SORT=ASCENDING MAXCATS=200

    /STATISTICS COUNT PERCENT MEAN STDDEV QUARTILES.

    Deze output geeft je een snelle samenvatting van de proefpersonen in je databestand. Als je meer gedetailleerde informatie wilt hebben kun je deze verkrijgen door middel van Frequencies, Descriptive of Explore. Om informatie te verkrijgen van categorische variabelen kun je gebruikmaken van Frequencies.

    Wat is de procedure voor het verkrijgen van beschrijvende statistiek voor categorische variabelen?

    Om beschrijvende statistieken te krijgen van categorische variabelen maak je gebruik van de functie Frequencies. Deze vind je door de volgende stappen:

    1. Ga naar Analyze en vervolgens naar Descriptive Statistics en dan naar Frequencies.

    2. Kies vervolgens de categorische variabelen waarin je geïnteresseerd bent. Verschuif deze naar de variabelenbox.

    3. Klik dan op OK (of op Paste als je het wil opslaan op de Syntax Editor).

    De syntax die bij deze procedure hoort is:

    FREQUENCIES

    VARIABES = geslacht

    /ORDER = ANALYSIS

    Wat is de procedure voor het verkrijgen van beschrijvende statistiek voor continue variabelen?

    Voor continue variabelen (bijvoorbeeld leeftijd) is het makkelijker om Descriptives te gebruiken. Deze analyse verschaft de basis ‘samenvattende’ statistieken zoals het gemiddelde, de mediaan en de standaarddeviatie. Het betrouwbaarheidsinterval vind je door middel van Explore.

    De procedure behorende bij het verkrijgen van beschrijvende statistiek voor continue variabelen is:

    1. Klik op Analyze selecteer daarna Descriptive Statistics en vervolgens Descriptives.

    2. Klik alle continue variabelen aan waarvan je graag beschrijvende statistieken voor wilt verkrijgen. Klik vervolgens op de pijltjestoets (wijzend naar rechts) om deze variabelen te verschuiven naar de Variables sectie.

    3. Klik op Options. Zorg ervoor dat de volgende statistieken zijn aangevinkt: mean, standard deviation, minimum, maximum en klik vervolgens ook skewness en kurtosis aan.

    4. Klik op Continue en vervolgens op OK (of op Paste om de analyse op te slaan in de Syntax Editor).

    De syntax die bij deze procedure wordt gegenereerd is:

    DESCRIPTIVES

    VARIABLES = leeftijd

    /STATISTICS=MEAN STDDEV MIN MAX KURTOSIS SKEWNESS

    De Skewness functie geeft informatie over de symmetrie van de verdeling van de scores. Kurtosis geeft informatie over de piek van de verdeling. Als de verdeling van de scores perfect normaal verdeeld zouden zijn zouden zowel de Skewness als de Kurtosis negnoeg nul zijn. Een positieve waarde van skewness indiceert dat de scores zich met name aan de linkerkant bevinden. Negatieve waardes suggereren dat de scores zich met name aan de rechterkant begeven van het gemiddelde. Een Kurtosis van nagenoeg nul indiceert een verdeling die relaties vlak is (te veel proefpersonen in de extreme scores).

    Hoe ontdek je ontbrekende data?

    Bij het doen van onderzoek, in het bijzonder naar mensen, verkrijg je zelden van iedere casus alle gegevens. Daarom is het belangrijk dat bij het onderzoek ook gekeken wordt naar de ontbrekende data. Dit kan in SPSS met behulp van de Missing Value Analysis procedure (onderste optie in het Analyze menu). Tevens moet je beslissen hoe je tijdens het uitvoeren van statistische analyses met ontbrekende data omgaat. De Options-knop in veel van de statistische procedures in SPSS biedt diverse keuzemogelijkheden betreffende het omgaan met ontbrekende data. Het is belangrijk dat je hier zorgvuldig uit kiest, aangezien het grote gevolgen kan hebben op je resultaten. De verschillende opties voor het omgaan met ontbrekende data zijn:

    • De Exclude cases listwise-optie neemt alle casussen in de analyses mee, mits er geen sprake is van ontbrekende data. Een casus waarbij sprake is van ontbrekende data wordt volledig buiten de analyse gehouden.
    • De Exclude cases pairwise-optie (soms ook aangeduid als Exclude cases analysis by analysis) sluit alleen casussen uit indien de benodigde data voor een specifieke analyse ontbreekt. Ze worden wel meegenomen in een analyse waarvoor ze de benodigde informatie bevatten.
    • De Replace with mean-optie berekent de gemiddelde waarde voor de variabele en geeft elke missende casus deze waarde. Deze optie dient nooit te worden gebruikt, omdat het de resultaten van je analyse ernstig kan verstoren.

    Het wordt sterk aangeraden om de optie exclude cases pairwise te gebruiken, tenzij er een zeer dringende reden is anders te doen.

    Hoe meet je normaliteit?

    Hier volgt de procedure om normaliteit te meten door middel van Explore.

    1. Kies Analyze en selecteer Descriptive statistics en vervolgens Explore.

    2. Klik de variabelen aan waarin je geïnteresseerd bent. Klik op de pijltjestoets (wijzend naar rechts) en sleep deze variabelen naar de Dependent list.

    3. Plaats in de Labels Cases by je onafhankelijke variabele.

    4. In de Display sectie: zorg ervoor dat Both is geselecteerd.

    5. Klik op Statistics en klik Descriptives en Outliers aan. Klik daarna op Continue.

    6. Klik daarna op Plots en klik onder Descriptives aan: Histogram. Vervolgens vink je Stem-and-leaf uit. Klik Normality plots with tests aan en klik daarna op Continue.

    7. Klik op Options. In de Missing Values sectie klik je op Exclude cases pairwise. Klik daarna op Continue en op OK (of op Paste om de analyse op te slaan in de Syntax Editor).

    De syntax wordt als volgt gegenereerd:

    EXAMINE VARIABLES=leeftijd

    /ID=geslacht

    /PLOT BOXPLOT HISTOGRAM NPPLOT

    /COMPARE GROUPS

    /STATISTICS DESCRIPTIVES

    /CINTERVAL 95

    /MISSING PAIRWISE

    /NOTOTAL.

    Interpretatie van de output van normaliteit

    Bij het meten normaliteit komt er veel output uit. De output kun je als volgt interpreteren.

    Trimmed mean

    Deze functie haalt 5% van het bovenste en 5% van het onderste van de gegevens af, en berekent hiermee een nieuw gemiddelde, waarop de sterk afwijkende gegevens minder invloed hebben gehad. Als je dit nieuwe gemiddelde vergelijkt met het oorspronkelijke gemiddelde, kun je zien hoeveel invloed de meest afwijkende gegevens hebben. Je kunt de meest afwijkende gegevens zien bij Extreme Values.

    Skewness en kurtosis

    De Skewness functie geeft informatie over de symmetrie van de verdeling van de scores. Kurtosis geeft informatie over de piek van de verdeling. Tezamen geven de skewness en kurtosis informatie over de distributie van scores over de verschillende groepen.

    Kolmogorov-Smirnov

    De Kolmogorov-Smirnov test kan worden gebruikt om te onderzoeken of de resultaten normaal verdeeld zijn. Je voert deze toets uit met ‘Explore’. Je volgt dan de volgende stappen: Analyze –→ Descriptive statistics –→ Explore. Verevolgens kies je je afhankelijke variabele. Vervolgens ga je naar ‘Plots’. Bij ‘Boxplots’ vink je ‘None’ aan. Vervolgens vink je aan ‘Normality plots with tests’. Bij ‘Descriptive’ klik je ‘Stem-and-leaf’ uit en klink je ‘Histogram’ aan. Klik op ‘Continue’.

    Vervolgens kijk je in je output naar de ‘Tests of Normality’ tabel. Een niet-significant resultaat (p > .05) indiceert een normale verdeling. In de tabel is sprake van een significante p-waarde, waardoor niet kan worden voldaan aan de assumptie van normaliteit. Dit komt vaak voor bij grote steekproeven.

    Histograms

    De vorm van de verdeling per groep is te zien met Histograms. Hiermee kun je bekijken of er sprake is van een normale verdeling.

    Boxplot

    De Boxplot geeft met een rechthoek 50% van de gevallen weer. De lijntjes erbuiten geven de kleinste en grootste waarde weer.

    Soms worden in een Boxplot cirkels weergegeven, dit zijn de outliers.

    Hoe controleer je of er outliers zijn?

    ‘Outliers’, of uitbijters, bestaan uit proefpersonen die extreem hoge of extreem lage waarden hebben in vergelijking met de meerderheid van de dataset. Er zijn verschillende technieken mogelijk om outliers te controleren, namelijk door middel van een histogram, boxplot of informatie in de descriptives tabel. Wanneer je outliers hebt gevonden, kun je nieuwe variabelen aanmaken die geen outliers bevatten.

    1. Je kunt eerst de variabele los van elkaar bekijken door middel van Analyze –→ Descriptives –→ Frequencies.

    2. Je kan nu de functie recode gebruiken wanneer de data bijvoorbeeld alleen de waardes 1 t/m 10 kan hebben maar er ook 100 in voorkomen. Als dit het geval is kan je door middel van ‘Recode into different variabele’ een nieuwe variabele aan maken. Voor dit laatste: klik op ‘Analyze’ -> ‘Descriptive Statistics’ -> ‘Explore’

    3. Klik op de variabele waarin je geïnteresseerd bent.

    4. Klik dan op ‘Statistics’ en klik op ‘Outliers’ → ‘Continue’ → ‘OK’

    Welke grafieken gebruik je om data weer te geven? - Chapter 7 (6e druk)

    In SPSS zijn er verschillende soorten grafieken en diagrammen die je kunt gebruiken om data weer te geven. De weergaven die hier worden behandeld, zijn histogrammen, staafdiagrammen, lijngrafieken, spreidingsdiagrammen en boxplots.

    In het Graph menu in SPSS zijn er verschillende mogelijkheden om grafieken te maken, de makkelijkste methode is om de Chart Builder te gebruiken.

    Hoe maak je een histogram?

    Een histogram gebruik je in geval van een enkele continue variabele. Je maakt een histogram als volgt:

    1. Samengestelde samenvatting, gebaseerd op hoofdstuk 7 van SPSS Survival Manual van Pallant, 6e druk uit 2016.Selecteer in het Graph menu de Chart Builder en klik op OK.
    2. Selecteer onder Gallery de optie Histogram.
    3. Sleep de optie Simple Histogram naar de Chart Preview plek.
    4. Kies je variabelen in de lijst Variables en sleep het naar Chart Preview, naar de X-Axis zodat de variabele op de x-as wordt geprojecteerd.
    5. Je kunt per groep een histogram maken. Selecteer onder Groups/Point ID de optie Column Panels variable (voor grafieken naast elkaar) of Rows Panel variable (voor grafieken onder elkaar).
    6. Sleep de categorische variable voor de hele groep (bijvoorbeeld leeftijd) naar Panel (op de Chart Preview plek).
    7. Klik op OK, of op Paste om alles op te slaan in de Syntax Editor.

    Een histogram geeft in omhoog gerichte balken de output weer.

    Hoe maak je een staafdiagram?

    Een staafdiagram gebruik je in geval van continue variabelen voor verschillende categorieën, of als je het aantal gevallen van een bepaalde categorie wilt tonen. Voor een staafdiagram heb je een categorische variabele nodig en een continue variabele. Een staafdiagram maak je als volgt:

    1. Selecteer in het Graph menu de Chart Builder en klik op OK.
    2. Selecteer onder Gallery de optie Clustered Bar en sleep deze naar de Chart Preview.
    3. Klik onder Element Properties op Display error bars en klik op Apply.
    4. Sleep de categorische variable voor een groep (bijvoorbeeld leeftijd) naar Cluster on X: set colour (op de Chart Preview plek).
    5. Sleep de andere categorische variable (bijvoorbeeld haarkleur) naar de X-Axis zodat de variabele op de x-as wordt geprojecteerd.
    6. Sleep de continue variabele (bijvoorbeeld gewichtsverlies) naar de Y-Axis zodat de variabele op de y-as wordt geprojecteerd.
    7. Klik op OK, of op Paste om alles op te slaan in de Syntax Editor.

    Een staafdiagram geeft een vooraf bepaalde categorische variabele weer op de x-as en een continue variabele op de y-as. Voor een andere categorische variabele wordt de output weergegeven in balken (staven).

    Hoe maak je een lijngrafiek?

    Een lijngrafiek gebruik je voor het gemiddelde van een continue variabele bij verschillende waarden van een categorische variabele (bijvoorbeeld trimester 1, trimester 2, trimester 3). Ook eenweg of tweeweg ANOVA kun je weergeven met een lijngrafiek. Een lijngrafiek maak je als volgt:

    1. Selecteer in het Graph menu de Chart Builder en klik op OK.
    2. Selecteer onder Gallery de optie Multiple Line en sleep deze naar de Chart Preview.
    3. Sleep de continue variabele (bijvoorbeeld gewichtsverlies) naar de Y-Axis zodat de variabele op de y-as wordt geprojecteerd.
    4. Sleep een van de categorische variabelen (bijvoorbeeld leeftijd) naar Set Color en de andere categorische variabele (bijvoorbeeld haarkleur) naar X-Axis.
    5. Klik op OK, of op Paste om alles op te slaan in de Syntax Editor.

    Met een lijngrafiek toon je het verloop van de categorische variabelen op de x-as in de vorm van lijnen. De continue variabele wordt weergegeven op de y-as.

    Hoe maak je een spreidingsdiagram?

    Een spreidingsdiagram (scatterplot) gebruik je in geval van een verband tussen twee continue variabelen. Een spreidingsdiagram geeft de volgende informatie:

    • of de variabelen een lineair of gebogen (vloeiend) verband hebben
    • of de variabelen een positief verband hebben
    • hoe sterk het verband is

    Een spreidingsdiagram maak je als volgt:

    1. Selecteer in het Graph menu de Chart Builder en klik op OK.
    2. Selecteer onder Gallery de optie Scatter/Dot. Selecteer Grouped Scatter en sleep deze naar de Chart Preview.
    3. Sleep de continue onafhankelijke variabele (bijvoorbeeld gewichtsverlies) naar de X-Axis zodat de variabele op de x-as wordt geprojecteerd.
    4. Sleep de afhankelijke variabele (bijvoorbeeld cholesterolniveau) naar de Y-Axis zodat de variabele op de y-as wordt geprojecteerd.
    5. Groepen kun je tonen door elke categorische groepsvariabele (bijvoorbeeld leeftijd) naar Set Colour te slepen.
    6. Klik op OK, of op Paste om alles op te slaan in de Syntax Editor.

    Een spreidingsdiagram toont vele puntjes in een grafiek.

    Een spreidingsdiagram kun je maken voor twee variabelen, of een matrix van spreidingsdiagrammen voor een hele groep variabelen. Een matrix van meerdere spreidingsdiagrammen binnen een grafiek maak je met de optie Scatterplot Matrix in Gallery.

    Hoe maak je een boxplot?

    Een boxplot gebruik je om de distributies van resultaten te vergelijken. Een mogelijkheid is om de distributie van een continue variabele met de hele steekgroep te vergelijken, een andere mogelijkheid is om de resultaten op te breken in verschillende groepen. Een boxplot maak je als volgt:

    1. Selecteer in het Graph menu de Chart Builder en klik op OK.
    2. Selecteer onder Gallery de optie Simple Boxplot en sleep deze naar de Chart Preview.
    3. Kies je categorische variabelen (bijvoorbeeld leeftijd) in de lijst Variables en sleep deze naar Chart Preview, naar de X-Axis zodat de variabele op de x-as wordt geprojecteerd.
    4. Selecteer onder Groups/Point ID de optie Point ID label.
    5. Klik op OK, of op Paste om alles op te slaan in de Syntax Editor.

    Een boxplot toont de categorische variabele op de x-as, met per groep een lijn (genaamd whisker) met een blok (box) erin.

    Een boxplot geeft de volgende informatie:

    • de boxplot toont de distributie van de continue variabele en de invloed die de categorische variabele heeft
    • de box toont 50% van de gevallen
    • de horizontale lijn binnen de box toont de mediaan
    • de whiskers tonen de grootste en kleinste waarden
    • de outliers worden getoond in cirkels buiten de whiskers
    • extreme outliers, meer dan drie keer de lengte van de box buiten de box, worden getoond met een sterretje (*)
    • de boxplot toont variëteit binnen een groep en de verschillen tussen groepen

    Hoe pas je een grafiek of diagram aan?

    Met de Chart Editor kun je grafieken en diagrammen aanpassen. Hiermee kun je onder andere het volgende aanpassen:

    • de verwoording van labels
    • de positie en het beginpunt van de assen
    • de vormgeving van tekst, lijnen, kleuren, patronen etc.

    Hoe importeer je grafieken en diagrammen naar Word of andere tekstverwerkers?

    De gemaakte grafieken en diagrammen kun je in Microsoft Word importeren. In andere tekstverwerkers bestaat er soms ook een optie om uit SPSS te importeren, de procedure werkt dan ongeveer hetzelfde. Je plaatst grafieken en diagrammen in Word via de volgende procedure:

    1. Open in Word het bestand waarin je de grafiek wilt tonen. Klik op het IBM SPSS icoontje, deze bevindt zich afhankelijk van je versie van Word onderaan of bovenaan in het menu in Word.
    2. Open in SPSS het Viewer scherm.
    3. Klik op de grafiek, er verschijnt een rand omheen.
    4. Klik op Edit en dan op Copy, zodat de grafiek wordt gekopieerd om elders te kunnen plakken.
    5. Ga naar het Word document en klik op de plek waar je de grafiek wilt hebben, klik op Paste.
    6. Sla het bestand op.

    Hoe manipuleer je data in SPSS? - Chapter 8 (6e druk)

    Als de ruwe data accuraat in SPSS zijn ingevoerd, is de volgende stap het bewerken en klaarmaken van de data, zodat er later analyses kunnen worden uitgevoerd en hypothesen kunnen worden getest.

    Zorg dat je bij alles wat je aanpast ook gelijk het codeboek aanpast. Een alternatief is om de Syntax option te gebruiken, dit houdt in dat je alle uit te voeren acties bijhoudt in de Syntax Editor, zodat er een lijst vormt van wat er is aangepast.

    Hoe bereken je de grootte van de schaal?

    Er zijn twee stappen om de totale grootte van de schalen te berekenen:

    • Stap 1: Negatief verwoorde items positief omdraaien
    • Stap 2: Alle uitkomsten optellen

    Stap 1: Negatief verwoorde items positief omdraaien

    Vragen die negatief verwoord zijn (bijvoorbeeld 'Ik ben meestal slecht in statistiek' moeten worden omgezet naar een positieve verwoording (bijvoorbeeld 'Ik ben bijna nooit goed in statistiek') zodat alle uitkomsten dezelfde soort interpretatie krijgen. Dit is eenvouding om te zetten als er bijvoorbeeld een Likert-schaal is gebruikt, waarbij 1 absoluut oneens betekent en 5 heel erg eens. Je kunt dit in SPSS automatisch toepassen met de volgende procedure:

    1. Klik op Transform en selecteer Recode into different variables.
    2. Selecteer daarna de data die je wilt recoderen en verplaats ze naar Input Variable - Output Variable.
    3. Klik per variabele op de variabele en typ een nieuwe naam in Output Variable met Change.
    4. Recodeer nu de waarden of de variabelen. Typ 1 in Old Value en 5 in New Value. Herhaal dit voor alle variabelen.
    5. Hierna kan je op Continue klikken en daarna op OK of op Paste om alles op te slaan in de Syntax Editor).

    Kijk in Variable View na of de variabelen nu allemaal dezelfde soort interpretatie kunnen krijgen.

    Stap 2: Alle uitkomsten optellen

    Met de volgende procedure tel je de uitkomsten op om de schaalgrootte te berekenen:

    1. Klik op Transform en dan op Compute Variable.
    2. Typ een naam voor de totale schaalresultaten in Target Variable. Zorg dat je geen naam gebruikt die al eerder voor een andere variabele is gebruikt, want dan wis je de eerdere resultaten.
    3. Ga via Type and Label naar Label, voer een beschrijving van de schaal in (bijvoorbeeld gewichtstoename) en klik op Continue.
    4. Klik op het eerste item op de variabelenlijst links. Verplaats dit naar de Numeric Expression box.
    5. Klik op + in de rekenmachine.
    6. Herhaal dit tot alle mogelijke schaaluitkomsten in de box staan. Begin met de niet omgedraaide uitkomsten (bijvoorbeeld op4, op6) en ga daarna verder met de omgedraaide uitkomsten (Rop3, Rop5, Rop7).
    7. De numerieke expressie wordt dan: op1+op4+op6+Rop3+Rop5+Rop7.
    8. Klik op OK (of op Paste om het eerst in de Syntax Editor te plakken en daarna op Run).

    Kijk het geheel na om te controleren of het logischerwijze klopt met de resultaten van je onderzoek. Gebruik Descriptives om na te gaan of er geen extreme waarden in de output zitten. Vergelijk ook het gemiddelde met de resultaten uit andere onderzoeken en met je verwachtingen. Kijk de distributie na met skewness en kurtosis. Door een histogram te maken, kun je direct zien of de resultaten normaal verdeeld zijn.

    Hoe verdeel je een continue variable in groepen?

    Met de volgende procedure kun je een continue variabele (zoals gewicht) verdelen in gelijke groepen (bijvoorbeeld 0 tot 50 kilo, 51 tot 100 kilo, en 101 tot 150 kilo).

    1. Klik op Transform en dan op Visual Binning.
    2. Verplaats de continue variabele naar Variables to Bin en klik op Continue.
    3. Een histogram verschijnt in Visual Binning.
    4. Typ de naam voor de nieuwe categorische variabele die je aan het maken bent in Binned Variabele. Bij een groep met een gewicht van 0 tot 50 kilo, kun je bijvoorbeeld Weightgp1 gebruiken.
    5. Klik op Make Cutpoints en dan op Equal Percentiles Based on Scanned Cases. Voer in Number of Cutpoints een nummer in dat 1 minder is dan het aantal groepen dat je wilt maken. Kijk of de percentages die in Width verschijnen kloppen. Bij drie groepen is dit bijvoorbeeld 33.33% per groep. Klik op Apply.
    6. Klik op Make Labels.
    7. Klik op OK (of op Paste om het eerst in de Syntax Editor te plakken en daarna op Run).

    Hoe verdeel je een categorische variabele in categorieën?

    Bij sommige onderzoeken is het netter om de resultaten in categorieën op te delen, bijvoorbeeld als slechts een paar leden van de populatie met een bepaald afwijkend kenmerk sterk afwijkende resultaten veroorzaken. Ook bij logistische regressie kan dit nodig zijn. Hiervoor kun je de volgende procedure gebruiken:

    1. Klik op Transform en selecteer Recode into different variables.
    2. Selecteer de variabele die je wilt hercoderen en typ er een nieuwe naam voor in Name. In Label kun je eventueel een uitgebreide naam invoeren. Klik daarna op Change.
    3. Klik op Old and New Values.
    4. Hernoem elke Old Value naar een New Value. Je kunt waarden in dezelfde categorie stoppen door ze dezelfde waarde te geven, bijvoorbeeld als volgt: 1 blijft 1, 2 wordt 1, 3 wordt 2, 4 wordt 3, 5 wordt 4, 6 wordt 5 enzovoorts.
    5. Hierna kan je op Continue klikken en daarna op OK of op Paste om alles op te slaan in de Syntax Editor).
    6. Ga naar Data Editor en kies Variable View. Schrijf toepasselijke labels voor de nieuwe waarden.

    Kijk met Frequencies na of het geheel nog klopt.

    Hoe zet je tekst om in numerieke waarden?

    Het omzetten van tekst naar numerieke waarden is vooral van belang bij gebruik van databases, zoals Microsoft Access. De procedure is:

    1. Klik op Transform en selecteer Automatic Recode.
    2. Verplaats de variabele die is uitgedrukt in tekst, en verplaats deze naar Variable-New Name.
    3. Typ de nieuwe naam die je wilt gebruiken in New name en klik op Add New Name.
    4. Klik op OK.

    Hoe ga je om met perioden en tijdsaanduidingen?

    Met de Date and Time Wizard kun je perioden tussen metingen duidelijk maken, bijvoorbeeld hoeveel uren er zijn tussen twee data. Dit kan met de volgende procedure:

    1. Klik op Transform en selecteer Date and Time Wizard.
    2. Klik op Calculate with dates and times en op Next.
    3. Selecteer Calculate the number of time units between two dates en klik op Next.
    4. Verplaats de eerste datum naar Date1.
    5. Verplaats de tweede datum naar minus Date2.
    6. Selecteer de tijdseenheid in Unit en klik op Next.
    7. Typ in Result Variable een naam voor de variabele (bijvoorbeeld AantalDagenNietGestudeerd).
    8. Plaats de bewerking desgewenst eerst naar het syntax scherm of ga gelijk naar Execution en klik op Finish.

    Hoe transformeer je variabelen?

    Variabelen transformeren is een mogelijkheid die relatief vaak handig is, onder andere als de resultaten geen mooie normaalverdeling vormen. Een alternatief is om non-parametrische technieken te gebruiken, maar het is makkelijker om de variabelen te transformeren. Er is controverse rond het transformeren, dus denk goed na over in hoeverre je de resultaten wilt aanpassen. De procedure voor het transformeren is als volgt:

    1. Klik op Transform en selecteer Compute Variable.
    2. Typ in Target Variable een nieuwe naam voor de variabele.
    3. Kies in Functions de juiste bewerking. Mogelijke bewerkingen:
      • Een Square root is een boog aan het begin van de x-as en daarna alleen nog maar geleidelijke afname. Formule: new variable = SQRT (old variable).
      • Een Logarithm is een steile boog aan het begin van de x-as en daarna een steile daling. Formule: new variable = LG10 (old variable).
      • Een Inverse begint hoog op de y-as, gevolgd door eerst een steile en daarna een geleidelijke daling. Formule: new variable = 1 / (old variable).
      • Een Reflect and square root is een omgekeerde square root, die pas na een stuk van geen actie op de x-as aanvangt. Formule: new variable = SQRT (K - old variable) waarbij K = de hoogst mogelijke waarde + 1.
      • Een Reflect and logarithm is een omgekeerde Logarithm, die pas na een stuk van geen actie op de x-as aanvangt. Formule: new variable = LG10 (K - old variable) waarbij K = de hoogst mogelijke waarde + 1.
      • Een Reflect and inverse is een omgekeerde Inverse, die pas na een stuk van geen actie op de x-as aanvangt met een geleidelijke en vervolgens steile stijging. Formule: new variable = 1 / (K - old variable) waarbij K = de hoogst mogelijke waarde + 1.
    4. Bekijk de uiteindelijke formule in Numeric Expression en schrijf deze op in je codeboek naast de nieuwe variabelenaam.
    5. Klik op Type and Label en schrijf bij Label een korte omschrijving van de nieuwe variabele. Zorg dat de nieuwe variabele een unieke, niet eerder gebruikte naam heeft.
    6. Klik op OK (of op Paste om het eerst in de Syntax Editor te plakken en daarna op Run).
    7. Controleer in Analyze, Frequencies of de stijlheid (skewness) en kromheid (kurtosis) zijn verbeterd.
    8. Klik bij Frequencies op Charts en selecteer Histogram om te controleren of de distributie is verbeterd.

    Hoe controleer je de betrouwbaarheid van een schaal? - Chapter 9 (6e druk)

    De waarde van een onderzoek is in grote mate afhankelijk van de betrouwbaarheid van de gebruikte schaal. Een onderdeel van betrouwbaarheid is Interne consistentie (internal consistency): de mate waarin de items van een schaal met elkaar samenhangen. Deze kan bijvoorbeeld worden berekend met de Cronbach’s cofficient alpha in SPSS. Hierbij geldt dat een Cronbach’s alpha van .7 of groter duidt op een betrouwbare schaal. Bij korte schalen met weinig eenheden zijn er echter lage Cronbach waarden en zeggen deze niet zoveel.

    Hoe controleer je de betrouwbaarheid van een schaal?

    De procedure om de betrouwbaarheid van een schaal te controleren is als volgt:

    1. Controleer of alle negatief geformuleerde waarden al zijn omgezet naar positief geformuleerde waarden.
    2. Klik op Analyze, selecteer Scale en dan Reliability Analysis.
    3. Verplaats alle onderdelen van de schaal naar Items.
    4. Selecteer onder Model de optie Alpha.
    5. Typ de naam van de schaal in Scale label.
    6. Klik op Statistics. In Descriptives for, selecteer Item, Scale en Scale if item deleted. Selecteer in Inter-Item de optie Correlations. Selecteer ook in Summaries de optie Correlations.
    7. Hierna kan je op Continue klikken en daarna op OK of op Paste om alles op te slaan in de Syntax Editor).

    Welke conclusies trek je over de betrouwbaarheid aan de hand van de output?

    In de output moet je de volgende dingen nakijken om de betrouwbaarheid te verhogen:

    • Controleer het aantal gevallen en het aantal waarden.
    • Controleer nogmaals of er geen negatieve waarden zijn in de Inter-Item Correlation Matrix.
    • Controleer of de Cronbach waarden boven 0.7 liggen.
    • Controleer in Corrected Item-Total Correlation het verband tussen de uitkomsten en de totale uitkomst. Een mogelijkheid is om uitzonderlijk lage uitkomsten (lager dan 0.3) te verwijderen.
    • Controleer in Alpha if Item Deleted de impact van elke waarde. Als de impact van een enkele waarde zo hoog is dat het zelfs hoger is dan de final alpha value, kun je overwegen de waarde te verwijderen.
    • Controleer in Summaty Item Statistics de gemiddelde correlatie tussen waarde. Een sterke onderlinge samenhang geeft een hoge betrouwbaarheid aan. Bij veel onderzoeken, zeker in geval van weinig waarden, is deze samenhang echter niet erg sterk.

    Hoe geef je informatie over de betrouwbaarheid weer?

    Een open en transparant onderzoek geeft meestal informatie over de betrouwbaarheid van de schalen, in de meeste gevallen in het hoofdstuk of tekstdeel over methoden. Noem in ieder geval de interne consistentie, beschrijf de schaal en geef een samenvatting van informatie over de betrouwbaarheid van de schalen. Deze informatie biedt houvast om de resultaten van de steekproef meer te kunnen waarderen en beter te kunnen interpreteren.

    Hoe weet je welke methode je moet gebruiken in SPSS? - Chapter 10 (6e druk)

    Welke statistische methoden zijn er?

    In sommige onderzoeken wordt een enkele methode gebruikt, maar bij veel onderzoeken worden meerdere methoden gebruikt. In elk geval is het cruciaal om de juiste onderzoeksmethode te kiezen.

    Hieronder wordt nog niet behandeld hoe je de onderzoeksmethoden precies toepast. Het overzicht hieronder is namelijk bedoeld om een korte introductie te geven van onderzoeksmethoden, zodat je op basis daarvan een keuze kunt maken voor welke methode je nodig hebt.

    Welke methoden zijn er om verbanden tussen variabelen te onderzoeken?

    Als je de verbanden tussen verschillende variabelen wilt onderzoeken, bijvoorbeeld tussen leeftijd en drugsgebruik, zijn er verschillende methoden mogelijk. Deze methoden zijn ook handig voor het verwerken van de resultaten van de meeste soorten enquêtes.

    Introductie correlatie

    Een correlatieanalyse wordt gebruikt om de sterkte en de richting van een lineaire relatie tussen twee variabelen te beschrijven. Er zijn verschillende statistieken beschikbaar in IBM SPSS om een correlatie te meten, waaronder de Pearson productmoment correlation cofficient (r) en de Spearman Rank Order Correlation (rho). Pearson r wordt gebruikt bij variabelen op intervalniveau terwijl de Spearman rho wordt gebruikt bij variabelen op ordinaal niveau. Een correlatie geeft aan in hoeverre twee variabelen samenhangen, bijvoorbeeld het zijn van een man en het dragen van roze kleding.

    Positieve en negatieve correlaties

    Correlaties worden ook vaak gebruikt om data te beschrijven en de data te checken op assumpties. De correlatiecoëfficiënt kan zowel negatief als positief zijn en ligt altijd tussen -1 en 1. Een correlatie van -1 is een perfect negatieve correlatie. Hierbij is sprake van een verband tussen twee tegenovergestelde dingen. Denk hierbij aan het dragen van een bikini en het niet dragen van handschoenen. Een correlatie van 1 is een perfecte positieve correlatie. Hierbij is sprake van een verband tussen twee positieve of twee negatieve variabelen. Bijvoorbeeld: het dragen van een bikini en het eten van een ijsje. Een correlatie van 0 indiceert dat er geen sprake is van een relatie tussen twee variabelen.

    Voorbeeld van een onderzoeksvraag met correlaties

    Nu volgt een voorbeeld van een onderzoeksvraag naar een correlationeel verband.

    Onderzoeksvraag: Is er een verband tussen de hoeveelheid tentamenstress en de hoeveelheid alcoholconsumptie van studenten? Drinken mensen met meer tentamenstress meer alcohol of minder alcohol?

    • Wat heb je nodig: twee variabelen, allebei continue, of één continue en de ander dichotoom (twee waarden)
    • Wat doet het: correlatie beschrijft de relatie tussen twee continue variabelen van zowel de sterkte van de relatie als de richting van het verband.
    • Niet-parametrisch alternatief: Spearman Rank Order Correlation (rho).

    Introductie partiële correlatie

    Deze vorm van correlatie bouwt verder op Pearson correlatie. Partiële correlatie stelt je in staat om de effecten van een misleidende variable te beïnvloeden. Als een variabele zoals sociaal wenselijk antwoorden bijvoorbeeld je onderzoeksresultaten beïnvloedt, kun je deze effecten verwijderen.

    Introductie multipele regressie

    De multiple regressieanalyse kijkt of er een (voorspellend) verband is op basis van de correlatie van meerdere onafhankelijke variabelen met de afhankelijke variabelen. De multiple regressieanalyse maakt gebruik van continue of ordinale data maar kan daarnaast ook één of meerdere categorische variabelen meenemen als onafhankelijke variabelen.

    In principe kunnen factorial ANOVA en multipele regressie hetzelfde berekenen. Factorial ANOVA wordt in de praktijk vaker gebruikt voor experimenteel onderzoek en de multipele regressie meestal voor niet experimenteel onderzoek.

    Er bestaan drie soorten multipele regressie: standaard, hiërarchisch of stapsgewijs.

    Introductie factoranalyse

    Met factoranalyse kun je een grote hoeveelheid variabelen of schaaleenheden terugbrengen tot een behapbaar aantal factoren. Factoranalyse stelt je namelijk in staat om patronen in correlatie te zoeken en soortgelijke groepen te vinden. Deze methode wordt gebruikt om een onderliggende structuur bloot te leggen, schalen te ontwikkelen en meeteenheden te bepalen.

    Welke methoden zijn er om verschillen tussen groepen te onderzoeken?

    Als je wilt onderzoeken of er een significant verschil is tussen meerdere groepen, zijn er meerdere methoden die je kunt gebruiken. De parametrische versies van deze methoden zijn alleen geschikt als de data een normaalverdeling met interval geschaalde gegevens betreffen. In de overige gevallen zijn er non-parametrische alternatieven.

    Introductie t-tests

    T-toetsen ofwel t-tests gebruik je bij twee verschillende groepen of twee verschillende datasets en je de gemiddelde score van een continue variabele wilt vergelijken. Er bestaan verschillende soorten t-toetsen. De twee meest voorkomende zijn de onafhankelijke t-toets (independent-samples t-test) en de gepaarde t-toets (paired-samples t-test). De onafhankelijke t-toets wordt gebruikt wanneer de je de gemiddelde scores van twee verschillende groepen wilt vergelijken. De gepaarde t-toets gebruik je wanneer je de gemiddelde scores van dezelfde groep mensen wil vergelijken op verschillende momenten of wanneer je gematchte paren hebt.

    De non-parametrische alternatieven voor t-tests zijn de Mann-Whitney U Test en de Wilcoxon Signed Rank Test.

    Introductie eenweg ANOVA

    ANOVA is de afkorting voor Analysis of Variance. Een eenweg variantieanalyse (one-way analysis of variance) heeft één onafhankelijke variabele (deze wordt de factor genoemd) die verschillende niveaus heeft. Deze niveaus corresponderen met verschillende groepen of condities. Een voorbeeld is de invloed van de vorm van therapie op de mate van depressie. De vorm van therapie (psychotherapie, farmacotherapie, geen therapie) is hierbij de onafhankelijke variabele, bestaande uit drie niveaus. De afhankelijke variabele hierbij is de mate van depressie.

    De eenweg variantieanalyse heet zo, aangezien het de variantie (variabiliteit in scores) tussen verschillende goepen vergelijkt met de variantie binnen elke groep (mate van toeval). De eenweg variantieanalyse berekent vervolgens een F-ratio. Deze F-ratio staat voor de variantie tussen de groepen gedeeld door de variantie binnen de groepen. Een grote F-ratio indiceert meer variabiliteit tussen de groepen (veroorzaakt door de onafhankelijke variabele) dan binnen de groepen (de error). Een significante F-toets suggereert dat er sprake is van een verschil tussen de verschillende groepen. Het vertelt ons echter niet wat dit verschil precies is. Om dit te onderzoeken is een post-hoc toets vereist, met een post-hoc toets onderzoek je welke groepen precies significant verschillen van elkaar.

    Binnen eenweg variantieanalyse zijn er twee soorten: herhaalde metingen ANOVA ofwel repeated measures ANOVA (in geval van dezelfde mensen maar op meerdere momentopnames) en ANOVA tussen groepen ofwel between-groups ANOVA (resultaten bij twee of meer verschillende groepen mensen). De laastgenoemde soort kan ook worden toegepast bij onafhankelijke steekproeven.

    Het non-parametrische alternatief voor eenweg ANOVA zijn de Kruskal-Wallis Test en de Friedman Test.

    Introductie tweeweg ANOVA

    Met tweeweg variantieanalyse kun je de effecten van twee onafhankelijke variabelen op een afhankelijke variabele zichtbaar maken.

    Binnen tweeweg variantieanalyse zijn er twee soorten: herhaalde metingen ANOVA ofwel repeated measures ANOVA (in geval van dezelfde mensen maar op meerdere momentopnames) en ANOVA tussen groepen ofwel between-groups ANOVA (resultaten bij twee of meer verschillende groepen mensen). Bij sommige onderzoeken worden deze methoden gecombineerd, dit wordt 'Mixed Designs' of 'Split Plot' genoemd.

    Introductie MANOVA

    MANOVA is de afkorting voor Multivariate Analysis of Variance. Bij een MANOVA is in tegenstelling tot andere analyses een toets waarbij niet één afhankelijke variabele wordt voorspeld, maar meerdere afhankelijke variabelen. Een MANOVA vergelijkt groepen en vertelt of er sprake is van verschillen tussen de groepen met betrekking tot de combinatie van verschillende afhankelijke variabelen.

    Introductie ANCOVA

    ANCOVA is de afkorting voor Analysis of covariance. Met een ANCOVA kan men een variabele in twee of meer groepen met elkaar vergelijken en kijken of andere variabelen invloed hebben op deze relatie. Deze andere variabelen worden ook wel covariaten genoemd. Eigenlijk combineert de ANCOVA de ANOVA analyse en de regressieanalyse. Met de ANCOVA kan men kijken of een populatiegemiddelde van de afhankelijke variabele gelijk is over alle levels van de categorische onafhankelijke variabele en controleert tegelijkertijd de effecten van andere continue variabelen. Je kunt ANCOVA gebruiken als je de effecten van een bepaalde variabele wilt verwijderen.

    Hoe maak je een besluit?

    Het volgende stappenplan helpt bepalen welke methode je in SPSS gebruikt:

    1. Bepaal welke vragen je wilt beantwoorden. Formuleer de vragen zo specifiek mogelijk.
    2. Bepaal welke enquête-onderdelen en schalen je nodig hebt.
    3. Bepaal welke soort variabelen nodig zijn (afhankelijk/onafhankelijk, categorisch/ordinaal/continu).
    4. Maak per onderzoeksvraag een diagram, om voor jezelf te visualiseren welke resultaten je beoogt.
    5. Beslis of je een parametrische methode kunt gebruiken, of een non-parametrisch alternatief nodig hebt. Vraag jezelf af of er sprake is van een normaalverdeling, en of aan de andere assumpties voor specifieke parametrische methoden is voldaan.
    6. Maak het uiteindelijke besluit welke methode je gaat gebruiken. Gebruik het overzicht van benodigdheden hieronder.

    Wat is er nodig voor de meest gebruikte methoden in SPSS?

    Hier volgt per methode in SPSS wat ervoor nodig is qua variabelen etc., bij welke soort onderzoeksvragen de methode meestal wordt gebruikt, wat voor resultaten er uit het onderzoek komen, en hoe de output meestal wordt weergegeven.

    Chi-kwadraat bij onafhankelijke variabelen

    • Onderzoekssoort: verbanden tussen variabelen onderzoeken
    • Voorbeeldvraag: Wat is het verband tussen het aantal statistiekvakken en uitvalpercentages binnen de studie psychologie?
    • Benodigdheden: een categorische onafhankelijke variabele en een categorische afhankelijke variabele

    Correlatie

    • Onderzoekssoort: verbanden tussen variabelen onderzoeken
    • Voorbeeldvraag: Is er een verband tussen leeftijd en empathie? Worden mensen empathischer naarmate ze ouder worden?
    • Benodigdheden: twee continue variabelen

    Partiële correlatie

    • Onderzoekssoort: verbanden tussen variabelen onderzoeken
    • Voorbeeldvraag: Als de effecten gecorrigeerd zijn voor sociaal wenselijk antwoorden, is er dan nog steeds een verband tussen empathie en het hebben van een grote vriendenkring?
    • Benodigdheden: drie continue variabelen (waarvan een sociaal wenselijk antwoorden is)

    Multipele regressie

    • Onderzoekssoort: verbanden tussen variabelen onderzoeken
    • Voorbeeldvraag: Hoeveel variantie in sociaal zijn kan worden verklaard door: empathie, zelfvertrouwen en dominantie? Welke van deze variabelen heeft de grootste invloed op hoe sociaal iemand is?
    • Benodigdheden: een continue afhankelijke variabele en minstens twee continue onafhankelijke variabelen

    Onafhankelijke t-toets

    • Onderzoekssoort: verschillen tussen groepen onderzoeken
    • Voorbeeldvraag: Zijn mannen vaker verkouden dan vrouwen?
    • Benodigdheden: een categorische onafhankelijke variabele met slechts twee groepen, en een continue afhankelijke variabele

    Gepaarde t-toets

    • Onderzoekssoort: verschillen tussen groepen onderzoeken
    • Voorbeeldvraag: Helpt tien weken karatetraining bij het verminderen van depressie? Is er een verschil tussen tijdsopname 1 (voor de training) en tijdsopname 2 (na de training)?
    • Benodigdheden: een categorische onafhankelijke variabele (tijdsopname 1 en tijdsopname 2) en een continue afhankelijke variabele

    Eenweg ANOVA tussen groepen

    • Onderzoekssoort: verschillen tussen groepen onderzoeken
    • Voorbeeldvraag: Is er een verschil in empathie bij mensen onder 20, tussen 21 en 40, en 41 jaar en ouder?
    • Benodigdheden: een categorische onafhankelijke variabele en een continue afhankelijke variabele

    Tweeweg ANOVA tussen groepen

    • Onderzoekssoort:verschillen tussen groepen onderzoeken
    • Voorbeeldvraag: Wat is het effect van leeftijd op empathie bij mannen en bij vrouwen?
    • Benodigdheden: twee categorische onafhankelijke variabelen en een continue afhankelijke variabele

    Mixed ANOVA

    • Onderzoekssoort: verschillen tussen groepen onderzoeken
    • Voorbeeldvraag: Wat is effectiever in het stimuleren van een passie voor statistiek (een universitaire studie versus makkelijker bruikbare software in de toekomst), gemeten op drie momenten (voor de studie, na de studie, en tien jaar later wanneer software verder ontwikkeld is)?
    • Benodigdheden: een tussen-groepen onafhankelijke variabele, een binnen-groepen onafhankelijke variabele (de tijdsopnames) en een continue afhankelijke variabele (de passie voor statistiek)

    MANOVA

    • Onderzoekssoort: verschillen tussen groepen onderzoeken
    • Voorbeeldvraag: Hebben vrouwen eigenschappen waardoor ze meer effecten ervaren van verliefdheid dan mannen? (gemeten met betrekking tot optimisme, meegaandheid en hoeveelheid serotonine)?
    • Benodigdheden: een categorische onafhankelijke variabele en minstens twee continue afhankelijke variabelen

    ANCOVA

    • Onderzoekssoort: verschillen tussen groepen onderzoeken
    • Voorbeeldvraag: Is er een groter significant verschil in de uitkomsten van een tentamen statistiek, als mensen een universitaire studie hebben gevolgd of als software in de toekomst verder is ontwikkeld (gecorrigeerd voor de uitkomsten vooraf)?
    • Benodigdheden: een categorische onafhankelijke variabele, een continue afhankelijke variabele (de uitkomsten op tijdsopname 2) en minstens een continue covariabele (tijdsopname 1).

    Wanneer en hoe wordt een correlatieanalyse toegepast? - Chapter 11 (6e druk)

    Correlatieanalyse wordt toegepast om de sterkte en richting van een lineaire relatie tussen twee variabelen aan te duiden. In dit hoofdstuk worden twee correlatiecoëfficiënten genoemd: (1) Pearson r voor continue variabelen (op interval niveau) en in gevallen waarbij er sprake is van één continue en één dichotome variabele, en (2) Spearman rho voor variabelen op ordinaal niveau en in gevallen dat je data niet voldoet aan de criteria voor de Pearson correlatie. Deze tekst laat zien hoe je een bivariate Pearson r en een niet-parametrische Spearman rho uitrekent.

    Welke voorbereidende analyses moeten gedaan worden?

    Voordat je een correlatieanalyse uitvoert, is het handig om eerst een scatterplot te genereren; aan de hand hiervan kan je kijken of aan de assumptie van lineariteit en homoscedasticiteit is voldaan. Daarnaast geeft een scatterplot je een helderder beeld van de aard van de relatie tussen je variabelen.

    Procedure voor het genereren van een scatterplot:

    1. Klik in het menu bovenaan het scherm op Graphs en klik vervolgens op Legacy Dialogs.

    2. Klik op Scatter/Plot en kies Simple Scatter. Klik nu op Define.

    3. Klik op de eerste variabele (meestal de afhankelijke variabele) en verplaats deze naar de box van de y-as.

    4. Klik op de tweede variabele (meestal de onafhankelijke variabele) en verplaats deze naar de box van de x-as.

    5. In de Label Cases by box kun je je ID variabele zetten, zodat outliers kunnen worden geïdentificeerd.

    6. Klik op OK (of op Paste om de syntax editor te bewaren).

    Interpretatie van de scatterplot-output

    De scatterplot kan worden gebruikt om te controleren voor een aantal aspecten van de verdeling van twee variabelen:

    1. Controleren voor outliers, ofwel extreme data-waarden die afwijken van het cluster van data-waarden. Probeer te achterhalen waarom dit outliers zijn (is de data wel goed ingevoerd?). Wanneer je een outlier hebt geïdentificeerd en het ID-getal wil achterhalen, kan je gebruik maken van het Data Label Mode-icoon in de Chart Editor. Dubbelklik op de grafiek op de Chart Editor te activeren. Klik vervolgens op het icoon dat lijkt op de roos van een dartbord (of klik op Data Label Mode in het Elements-menu) en klik op punt in de grafiek dat je wilt identificeren, er verschijnt dan een getal; dit is het ID-getal.

    2. Inspectie van de verdeling van data-scores.

    3. Vaststellen van de richting van het verband (positief of negatief) tussen de variabelen.

    Wanneer je de verdeling van scores in het scatterplot hebt onderzocht en hebt vastgesteld dat er sprake is van een ruwweg lineaire relatie, kan je de Pearson r of Spearman rho correlatiecoëfficiënt gaan berekenen. Volg, voordat je met de volgende procedure begint, eerst deze stappen: (1) klik in het menu op Edit, selecteer Options en vervolgens op General. Zorg dat in het Output-gedeelte de box No scientific notation for small numbers in tables is aangevinkt.

    Procedure voor het berekenen van Pearson r of Spearman rho:

    1. Klik in het menu bovenaan het scherm op Analyze en selecteer vervolgens Correlate. Klik dan op Bivariate.

    2. Selecteer je twee variabelen en verplaats deze naar de Variabelen box.

    3. In het Correlation Coefficient-gedeelte is de Pearson-box de standaardoptie. Als je Spearman rho wilt uitrekenen, vink dan de Spearman-box aan.

    4. Klik op Opties. Klik voor missende waarden de Exclude Cases Pairwise aan. Onder Opties kan je ook gemiddelden en standaardafwijkingen aanvinken.

    5. Klik op Continue en vervolgens op OK (of op Paste om de syntax editor te bewaren).

    Hoe interpret correlatie-output?

    De resultaten van Pearson r vind je in de bovenste tabel (correlations) en die van Spearman rho in de onderste tabel (nonparametric correlations). De output van beide tests interpreteer je op dezelfde manier.

    • Stap 1: Controleer de steekproefinformatie (N); klopt dit getal? Als er veel data ontbreekt, zoek dan uit hoe dit komt. Ben je bijvoorbeeld vergeten de Exclude cases pairwise box aan te vinken?

    • Stap 2: Stel de richting van het verband vast; is er sprake van een positieve of negatieve correlatie?

    • Stap 3: Stel de sterkte van het verband vast; dit kan je aflezen aan de waarde van de correlatiecoëfficiënt. Een correlatie van 0 betekent dat er geen correlatie is. Een waarde van -1 betekent een perfecte negatieve correlatie en een waarde van +1 wijst op een perfecte positieve correlatie. Om de waarden te interpreteren kun je het best gebruik maken van de richtlijnen van Cohen:

      • Klein: r = .10 tot .29 (of -.10 tot -.29)

      • Gemiddeld: r = .30 tot .49 (of -.30 tot -.49)

      • Groot: r = .50 tot 1.0 (of -.50 tot -1.0)

    • Stap 4: Bereken de determinatiecoëfficiënt. Dit geeft je een idee van de gedeelde variantie van je twee variabelen. De determinatiecoëfficiënt bereken je door de r-waarde te kwadrateren. Wil je deze omzetten naar het percentage gedeelde variantie, hoef je de determinatiecoëfficiënt alleen maar te vermenigvuldigen met 100.

    • Stap 5: Achterhaal het significantieniveau (Sig. 2 tailed). Het statistisch significantieniveau geeft een indicatie van de mate waarin we kunnen vertrouwen op de verkregen resultaten.

    Hoe worden de correlatieresultaten weergegeven?

    Wanneer je de correlatie tussen twee variabelen vermeld, kan dit in een lopende tekst (zie p. 140 voor een voorbeeld). Echter, correlatie wordt vaak gebruikt om de relatie tussen groepen variabelen te onderzoeken (in plaats van slechts twee variabelen). In dit geval is het onhandig om dit in een lopende tekst te rapporteren; je kunt in dit geval de resultaten het beste in een tabel zetten.

    Hoe bereken je de correlatiecoëfficiënten tussen groepen variabelen?

    Als je de relaties tussen meerdere variabelen wilt achterhalen, kan je alle variabelen in de Variables box plaatsen. Dit kan echter resulteren in een enorme correlatiematrix die lastig te lezen en interpreteren is. Als je slechts naar een aantal correlaties op zoek bent, kan je gebruik maken van de Syntax Editor.

    Procedure voor verkrijgen van correlatiecoëfficiënten tussen twee groepen variabelen

    1. Klik in het menu bovenaan het scherm op Analyze en selecteer vervolgens Correlate. Klik dan op Bivariate.

    2. Verplaats de variabelen waarin je geïnteresseerd bent naar de Variables box. Selecteer de eerste groep variabelen, gevolgd door de tweede groep variabelen. In de output zal de eerste groep variabelen als rijen in de tabel gepresenteerd worden, en de tweede groep variabelen als kolommen. Plaats dus eerst de variabelen met langere namen, zodat de tabel niet te breed wordt.

    3. Klik op Paste; hiermee open je de Syntax Editor.

    4. Plaats je cursor tussen de eerste en tweede groep variabelen. Type hier het woord with.

    5. Om deze nieuwe syntax te activeren, moet je de tekst vanaf CORRELATIONS tot en met het eind selecteren.

    6. Klik vervolgens op de groene pijl/driehoek (>) of ga naar het menu en klik op Run en vervolgens op Selection.

    Op welke manier kunnen de correlatiecoëfficiënten van twee groepen vergeleken worden?

    Je kan ook de sterkte van de correlatie tussen twee afzonderlijke groepen achterhalen.

    Procedure voor het vergelijken van correlatiecoëfficiënten van twee groepen

    Stap 1: splits de steekproef.
    1. Klik in het menu bovenaan het scherm op Data en vervolgens op Split File.

    2. Klik op Compare Groups.

    3. Plaats de groepeer variabele naar de box Groups based on. Klik op OK (of Paste om de Syntax Editor op te slaan).

    Stap 2: Correlatie.
    1. Volg de stappen in het eerdere gedeelte van dit hoofdstuk voor het verkrijgen van de correlatie tussen de variabelen waarin je geïnteresseerd bent. De resultaten worden afzonderlijk van elkaar weergeven per groep.

    Belangrijk: vergeet niet de Split File optie uit te zetten als je klaar bent. Dit doe je door in het Data Editor venster te klikken op Data, Split File en vervolgens op Analyze all cases, do not create groups.

    Hoe werkt het testen van de statistische significantie van het verschil tussen correlatiecoëfficiënten?

    In dit gedeelte wordt de procedure beschreven die je kan volgen om te achterhalen of de correlaties tussen twee groepen significant verschillen. Eerst zullen r-waarden worden omgezet naar z-scores. Vervolgens wordt een vergelijking gebruikt om de geobserveerde waarde van z (zobs waarde) te berekenen. De verkregen waarde zal worden berekend met behulp van een vaste besluitregel om vast te stellen wat de kans is dat het verschil in de correlatie tussen de twee groepen te wijten is aan toeval.

    Eerst dient gecontroleerd te worden voor een aantal assumpties. Er wordt vanuit gegaan dat de r-waarden van de twee groepen zijn verkregen uit willekeurige steekproeven en dat de twee groepen onafhankelijk zijn (dus dat dezelfde participanten niet twee keer zijn getest). De scoreverdeling voor de twee groepen moet normaal zijn. Ook moet iedere groep bestaan uit minsten 20 casussen.

    • Stap 1: Zet iedere r-waarde om naar een z-score.

    • Stap 2: Zet deze waarden om naar de vergelijking om zobs te berekenen. Dit doe je aan de hand van de volgende formule: zobs = z1 – z2 / √ 1/N1-2 + 1/N2-3

    • Stap 3: Stel vast of de zobs-waarde statistisch significant is. Als besluitregel geldt: als -1,96 obs obs kleiner is dan of gelijk is aan -1.96 of groter of gelijk aan 1.96, dan zijn de coëfficiënten significant verschillend.

    Wat is het verschil tussen correlatie en partiële correlatie? - Chapter 12 (6e druk)

    De partiële correlatie lijkt op Pearson r, met als verschil dat je bij de partiële correlatie kan controleren voor een aanvullende (confound) variabele.

    Wat is de procedure voor de partiële correlatie?

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Correlate en daarna Partial.

    2. Klik op de twee continue variabelen die je wilt correleren. Klik op de pijl om deze variabelen naar de Variables box te verplaatsen.

    3. Klik op de variabele waarvoor je wilt controleren en verplaats deze naar de Controlling for box.

    4. Klik op Options.

      • Klik in het Missing Values gedeelte op Exclude cases pairwise.

      • Klik in het Statistics gedeelte op Zero order correlations.

    5. Klik op Continue en daarna op OK (of op Paste om de Syntax Editor op te slaan).

    Hoe interpreteer je output van partiële correlatie?

    In de output staat een tabel die bestaat uit twee gedeelten. In de bovenste helft vind je de normale Pearson product-moment correlatiematrix waarbij niet wordt gecontroleerd voor de mogelijke confound variabele. In de tweede helft van de tabel worden dezelfde correlatieanalyses herhaald, maar nu wordt wel gecontroleerd voor de mogelijke confound variabele. Door de twee correlatiecoëfficiënten met elkaar te vergelijken kun je achterhalen of het rekening houden met de aanvullende variabele invloed heeft gehad op de relatie tussen je twee variabelen.

    Hoe voer je meervoudige regressie uit in SPSS? - Chapter 13 (6e druk)

    Hieronder wordt uitgelegd hoe je SPSS kunt gebruiken bij meervoudige regressieanalyses. Meervoudige regressie is niet slechts één techniek, maar een verzameling technieken die gebruikt kan worden om de relatie tussen een continue afhankelijke variabele en meerdere onafhankelijke variabelen of voorspellers (meestal continu) te onderzoeken. Het is gebaseerd op correlatie, maar biedt een meer verfijnde analyse van de relatie tussen een reeks variabelen. Meervoudige regressie kan bij verschillende onderzoeksvragen worden toegepast, waaronder:

    • Hoe goed een reeks variabelen in staat is een bepaalde uitkomst te voorspellen.

    • Welke variabele binnen een reeks variabelen de beste voorspeller van een bepaalde uitkomst is.

    • Of een bepaalde voorspellende variabele nog steeds de uitkomst kan voorspellen wanneer gecontroleerd wordt voor de invloed van een andere variabele.

    Wat zijn de belangrijkste soorten meervoudige regressie?

    Er zijn verschillende soorten meervoudige regressieanalyses die je, afhankelijk van je onderzoeksvraag, kan toepassen. De drie belangrijkste meervoudige regressieanalyses zijn:

    1. Standaard of simultaan

    2. Hiërarchisch of sequentieel

    3. Stapsgewijs

    Standaard meervoudige regressie

    Samengestelde samenvatting, gebaseerd op hoofdstuk 13 van SPSS Survival Manual van Pallant, 6e druk uit 2016.In de standaard meervoudige regressie worden alle onafhankelijke (of voorspellende) variabelen tegelijkertijd vergeleken. Iedere variabele wordt geëvalueerd in termen van zijn voorspellende waarde vergeleken met die van de andere onafhankelijke variabelen. Deze analyse gebruik je als je een reeks variabelen hebt en wil weten in welke mate ze als groep de variantie in een afhankelijke variabele kunnen verklaren.

    Hiërarchische meervoudige regressie

    In de hiërarchische meervoudige regressie (ook wel sequentiële regressie genoemd) worden de onafhankelijke variabelen aan de vergelijking toegevoegd in de volgorde die door de onderzoeker is vastgesteld op basis van een theoretisch kader. Variabelen of reeksen variabelen worden in stappen toegevoegd. Iedere variabele wordt gemeten in termen van wat het toevoegt aan de voorspelling van de afhankelijke variabele nadat is gecontroleerd voor de overige variabelen.

    Stapsgewijze meervoudige regressie

    In de stapsgewijze regressie levert de onderzoeker een lijst van onafhankelijke variabelen en laat vervolgens het programma, op basis van een reeks statistische criteria, selecteren welke variabelen worden toegevoegd en in welke volgorde deze worden toegevoegd aan de vergelijking. Er zijn drie verschillende versies van deze benadering: (1) voorwaartse selectie, (2) achterwaartse schrapping (backward deletion), en (3) stapsgewijze regressie.

    Welke assumpties horen bij meervoudige regressie?

    Steekproefgrootte

    Het is belangrijk dat je steekproef niet te klein is, omdat de resultaten anders niet (voldoende) generaliseerbaar zijn. Tabachnick en Fidell kwamen met een formule om de benodigde steekproefgrootte uit te rekenen: N > 50 + 8m (m = aantal onafhankelijke variabelen). Je hebt meer casussen nodig als de variabele scheef (skewed) is. Voor stapsgewijze regressie heb je een ratio van 40 casussen per onafhankelijke variabele nodig.

    Multicollineariteit en singulariteit

    Dit verwijst naar de relatie tussen de onafhankelijke variabelen. Van multicollineariteit is sprake wanneer de onafhankelijke variabelen sterk met elkaar correleren (r = .9 en hoger). Van singulariteit is sprake wanneer een onafhankelijke variabele eigenlijk een combinatie is van andere onafhankelijke variabelen. Geen van beide draagt bij aan een goed regressiemodel.

    Outliers

    Meervoudige regressie is erg gevoelig voor outliers (extreem hoge of lage scores). Controleer dus alle variabelen (zowel de afhankelijke, als de onafhankelijke) op outliers. Outliers kunnen worden verwijderd uit de dataset, of ze kunnen een score krijgen die hoog/laag is, maar niet teveel afwijkt van de overige scores. Tabachnick en Fidell definiëren outliers als scores met gestandaardiseerde residuele waarden > 3.3 of

    Normaliteit, lineariteit, homoscedasticiteit en onafhankelijkheid van residuen

    Al deze termen verwijzen naar verschillende aspecten van de verdeling van scores en de aard van de onderliggende relatie tussen de variabelen. Deze assumpties kunnen worden afgelezen in de residuen scatterplots. Residuen zijn de verschillen tussen de verkregen en voorspelde afhankelijke variabele (AV) scores. Aan de hand van de residuen scatterplots kan je de volgende assumpties controleren:

    • normaliteit: de residuen moeten normaal verdeeld zijn over de voorspelde AV-scores.

    • lineariteit: de residuen moeten een lineaire relatie hebben met de voorspelde AV-scores.

    • homoscedasticiteit: de variantie van de residuen over de voorspelde AV-scores zou voor alle voorspelde scores hetzelfde moeten zijn.

    Hoe ziet de standaard meervoudige regressie er uit?

    In het geval van de standaard meervoudige regressie worden alle onafhankelijke variabelen tegelijkertijd in het model ingevoerd. De resultaten geven een indicatie hoe goed deze reeks variabelen in staat is om de afhankelijke variabele te voorspellen. Ook laat het zien hoeveel unieke variantie elk van de onafhankelijke variabelen kan verklaren ten opzichte van de overige onafhankelijke variabelen.

    Procedure voor standaard meervoudige regressie

    Klik voordat je met de volgende procedure begint op Edit in het menu. Selecteer vervolgens Options en zorg dat de box No scientific notification for small numbers in tables is aangevinkt.

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Regression en daarna Linear.

    2. Klik op je continue afhankelijke variabele en verplaats deze naar de Dependent box.

    3. Klik op je onafhankelijke variabelen en klik op de pijl om ze te verplaatsen naar de Independent box.

    4. Zorg dat voor de Methode Enter is geselecteerd.

    5. Klik op de Statistics knop. Selecteer het volgende: Estimates, Confidence Intervals, Model fit, Descriptives, Part and partial correlations en Collinearity diagnostics. Selecteer in het Residuals gedeelte Casewise diagnostics en Outliers outside 3 standard deviations. Klik vervolgens op Continue.

    6. Klik op Options en selecteer in het Missing Values gedeelte Exclude cases pairwise. Klik op Continue.

    7. Klik op de Plots knop. Klik op *ZRESID en de pijl om deze te verplaatsen naar de Y-box. Klik op *ZPRED en de pijl om deze te verplaatsen naar de X-box. Vink in het Standardized Residual Plots de optie Normal probability plot aan en klik op Continue.

    8. Klik op Save. Vink in het Distances gedeelte Mahalanobis box en Cook’s aan. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Hoe interpreteer je de standaard meervoudige regressie output?

    Stap 1: Controleer de assumpties

    Multicollineariteit

    De correlaties tussen de variabelen in je model staan in de tabel Correlations. Controleer of je onafhankelijke variabelen ten minste enige relatie met je afhankelijke variabele vertonen (het liefst > .3). Controleer ook of de correlatie tussen je onafhankelijke variabelen niet te groot is (het liefst een bivariate correlatie

    SPSS voert als onderdeel van de meervoudige regressieprocedure ook ‘collineariteitsdiagnostiek’ uit op je variabelen. Dit kan problemen met betrekking tot multicollineariteit ondervangen die niet in de correlatiematrix zichtbaar zijn. Deze resultaten staan in de tabel Coefficients. Hier worden twee waarden gegeven: Tolerance en VIF. Tolerance is een indicator van hoeveel van de variabiliteit van de gespecificeerde onafhankelijke variabele niet verklaard wordt door de overige onafhankelijke variabelen in het model. Als deze waarde erg laag is (

    Outliers, normaliteit, lineariteit, homoscedasticiteit en onafhankelijkheid van residuen

    Een manier waarop deze assumpties kunnen worden gecheckt is door de Normal Probability Plot (P-P) of the Regression Standardised Residual en de Scatterplot te inspecteren. Deze staan aan het eind van de output. In de Normal P-P Plot hoop je dat de punten van links onder naar rechts boven een redelijk rechte diagonale lijn vormen. Dit suggereert dat er geen grote afwijkingen van normaliteit zijn. In de Scatterplot van de gestandaardiseerde residuen (het tweede plot) hoop je dat de residuen ruwweg rechthoekig verdeeld zijn, waarbij de meeste scores in het midden liggen (rond het 0-punt). Aan de hand van de Scatterplot kun je tevens outliers identificeren. Outliers kunnen ook worden geïdentificeerd door de Mahalanobis afstanden te inspecteren. Deze zijn niet zichtbaar in de output, maar zijn aan het eind van de data file als extra variabele toegevoegd. Om te achterhalen welke scores outliers zijn, heb je een kritieke chi-square waarde nodig. Tabachnik en Fidell suggereren het gebruik van een alfa-waarde van .001.

    Stap 2: Evalueren van het model

    Kijk in de Model Summary box en controleer de waarde onder het kopje R Square; dit vertelt je hoeveel van de variantie in de afhankelijke variabele verklaard wordt door het model. Het valt je misschien op dat er ook een Adjusted R Square-waarde in de output staat. Wanneer je een kleine steekproef hebt, is de R square-waarde vaak een optimistische overschatting van de echte populatiewaarde. De Adjusted R Square-statistiek ‘corrigeert’ deze waarde en voorziet van een betere schatting van de echte populatiewaarde. Dus als je een kleine steekproef hebt, kan je beter deze waarde rapporteren. Om de statistische significantie van de resultaten te achterhalen, moet je in de ANOVA-tabel kijken; deze test de nulhypothese dat meervoudige R in de populatie gelijk is aan 0.

    Stap 3: Evalueren van alle onafhankelijke variabelen

    Het volgende dat je wil weten is welke van de variabelen in het model bijdraagt aan de voorspelling van de afhankelijke variabele. We vinden deze informatie in de output-box, genaamd Coefficients. Kijk in Beta-kolom onder Standardized Coefficients. Om de verschillende variabelen met elkaar te kunnen vergelijken is het belangrijk dat je kijkt naar de gestandaardiseerde coëfficiënten en niet de ongestandaardiseerde (B); deze laatste gebruik je alleen als je een regressievergelijking wilt opstellen.

    Controleer voor alle onafhankelijke variabelen de waarde in de Sig.-kolom; dit vertelt je of deze variabele een significante unieke bijdrage levert aan de vergelijking. Dit is erg afhankelijk van welke variabelen opgenomen zijn in de vergelijking en hoeveel overlap er is tussen de onafhankelijke variabelen. Als de Sig.-waarde kleiner is dan .05 (.01, .001, etc.), levert de variabele een significante unieke bijdrage aan de voorspelling van de afhankelijke variabele.

    Een ander potentieel nuttig informatieonderdeel in de coëfficiëntentabel is de Part correlatiecoëfficiënten (soms ook wel semipartial correlation coefficients genoemd). Als je deze waarde kwadrateert, krijg je een indicatie van de bijdrage van die variabele aan de totale R-square. Met andere woorden, het vertelt je hoeveel van de totale variantie in de afhankelijke variabele uniek verklaard wordt door die variabele en hoeveel R-square zou zakken als deze variabele niet in je model opgenomen zou zijn.

    Wat is hiërarchische meervoudige regressie?

    Bij deze vorm van meervoudige regressie worden de variabelen in stappen in een vooraf bepaalde volgorde toegevoegd.

    Procedure voor hiërarchische meervoudige regressie

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Regression en daarna Linear.

    2. Kies je continue afhankelijke variabele en verplaats deze naar de Dependent box.

    3. Verplaats de variabelen waarvoor je wilt controleren naar de Independant box; deze vormen het eerste blok die ingevoerd zullen worden in de analyse.

    4. Klik op Next, dit levert een tweede onafhankelijke variabelen box op waarin je het tweede blok variabelen aan toe kunt voegen.

    5. Kies je volgende blok onafhankelijke variabelen.

    6. Zorg dat dit op default staat in de Method box (Enter).

    7. Klik op Statistics en vink de volgende opties aan: Estimates, Model fit, R squared change, Descriptives, Part and partial correlations en Collinearity diagnostics. Klik op Continue.

    8. Klik op Options. Klik in het Missing Values gedeelte op Exclude cases pairwise en klik op Continue.

    9. Klik op de Plots knop.

    10. Klik op *ZRESID en de pijl om deze te verplaatsen naar de Y-box.

    11. Klik op *ZPRED en de pijl om deze te verplaatsen naar de X-box.

    12. Vink in het Standardized Residual Plots de optie Normal probability plot aan en klik op Continue.

    13. Klik op Save. Vink in het Distances gedeelte Mahalanobis box en Cook’s aan. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Hoe interpreteer je de hiërarchische meervoudige regressie output?

    De output van deze regressieanalyse lijkt op die van de standaard meervoudige regressie, met hier en daar wat extra informatie. In de Model Summary box vind je twee modellen. Model 1 verwijst naar het eerste blok variabelen die is toegevoegd en Model 2 omvat alle variabelen die in beide blokken zijn toegevoegd.

    Stap 1: Evalueren van het model

    Controleer de R Square-waarden in de eerste Model Summary box. Let op! De tweede R square-waarde omvat alle variabelen van beide blokken en dus niet alleen de variabelen die tijdens de tweede stap zijn toegevoegd. Om te achterhalen hoeveel van de totale variantie wordt verklaard door de variabelen waarin je geïnteresseerd bent, kijk je in de kolom R Square change en de bijbehorende Sig. F change.

    Stap 2: Evalueren van alle onafhankelijke variabelen

    Om te achterhalen hoe goed alle variabelen bijdragen aan de uiteindelijke vergelijking, moet je kijken in de Coefficients tabel in de Model 2 rij. Dit vat de resultaten samen waarbij alle variabelen in de vergelijking zijn opgenomen. In de Sig. kolom zie je of de variabelen een unieke statistisch significante bijdrage leveren.

    Op welke manier kan je resultaten uit meervoudige regressie presenteren?

    Afhankelijk van het type analyse dat je hebt uitgevoerd en de aard van de onderzoeksvraag, zijn er een aantal verschillende manieren waarop de resultaten van meervoudige regressie kunnen worden gepresenteerd. Je moet minstens de volgende informatie noemen: (1) wat voor soort analyse je hebt uitgevoerd (standaard of hiërarchisch), (2) gestandaardiseerde (beta) waarden in het geval van een theoretisch onderzoek of ongestandaardiseerde (B) coëfficiënten in het geval van een toegepast onderzoek. Indien je een hiërarchische meervoudige regressie hebt uitgevoerd, dien je tevens de R square waarde veranderingen (value changes) voor iedere stap te noemen, samen met de waarschijnlijkheidswaarden (probability values).

    Hoe voer je logistische regressie uit in SPSS? - Chapter 14 (6e druk)

    Aan de hand van logistische regressie kun je modellen testen waarmee je categorische uitkomsten – bestaande uit twee of meerdere categorieën – kunt voorspellen. Aan de hand van logistische regressie kan je meten hoe goed jouw verzameling voorspellende variabelen in staat is om jouw categorische afhankelijke variabele te voorspellen of verklaren. Het biedt je een indicatie van de toereikendheid van je model door de ‘goodness of fit’ in kaart te brengen. Je onafhankelijke variabele kan zowel categorisch als continu zijn, of een combinatie van beide. Hier wordt getoond hoe je een binomiale (ook wel binaire) logistische regressie uitvoert met een dichotome afhankelijke variabele (dus met slechts twee categorieën of waarden). Indien je afhankelijke variabele bestaat uit meerdere categorieën, zal je een multinomiale logistische regressie moeten uitvoeren. Deze wordt hier niet behandeld, maar is uiteraard wel beschikbaar in SPSS (zie het Help-menu).

    Welke assumpties horen bij logistische regressie?

    Steekproefgrootte

    Net als bij alle andere analyses is het belangrijk dat je steekproefgrootte voldoende is. Voer altijd Descriptive Statistics uit over elk van je onafhankelijke variabelen en overweeg om categorieën met te weinig casussen te verwijderen.

    Multicollineariteit

    Controleer altijd of er hoge intercorrelaties tussen je onafhankelijke variabelen zijn. Maar hiervoor gebruik van door collinearity diagnostics op te vragen onder de Statistics-knop. Negeer de rest van de output en richt je enkel op de Coefficients tabel en de kolommen genaamd Collinearity Statistics. Zeer lage tolerance waarden (

    Outliers

    Het is belangrijk voor outliers te controleren. Dit kan door de residuen te inspecteren.

    Wat is de procedure bij logistische regressie?

    Om de resultaten van logistische regressie te kunnen interpreteren, is het belangrijk dat je de codering van responsen van elk van je variabelen nauwkeurig opstelt. Voor de dichotome afhankelijke variabele moet je de responsen coderen als 0 en 1. De 0-waarde wijs je toe aan responsen waaruit een gebrek of afwezigheid blijkt van het kenmerk waarin je geïnteresseerd bent. De 1-waarde wijs je toe aan responsen waaruit aanwezigheid blijkt van het kenmerk waarin je geïnteresseerd bent. Voor je categorische onafhankelijke variabelen voer je een soortgelijke procedure uit. Voor continue onafhankelijke variabelen koppel je hoge waarden aan de waarden van het kenmerk waarin je geïnteresseerd bent (bijv. 0 uur slaap krijgt waarde 0 en 10 uur slaap, waarde 10).

    Procedure voor logistische regressie

    Voor je met de onderstaande procedure begint, ga eerst naar Edit in het hoofdmenu. Selecteer daar Options en zorg dat de box No scientific notation for small numbers in tables is aangevinkt.

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Regression en daarna Binary Logistic.

    2. Verplaats je categorische afhankelijke variabele naar de Dependent box. Verplaats je onafhankelijke variabelen naar de Covariates box. Zorg dat bij Method de Enter-optie vertoond wordt.

    3. Als je categorische (nominaal of ordinaal) onafhankelijke variabelen hebt, klik dan op de Categorical-knop. Markeer alle categorische variabelen en verplaats ze naar de Categorical covariates box. Markeer weer al je categorische variabelen en klik op de First-knop in het Change contrast gedeelte. Klik op Change en je ziet het woord (first) verschijnen achter de naam van de variabele. Herhaal dit voor alle categorische variabelen. Klik op Continue.

    4. Klik op Options. Selecteer de volgende opties: Classification plots, Hosmer-Lemeshow goodness of fit, Casewise listing of residuals en CI for Exp(B).

    5. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Hoe interpreteer je de logistische regressie output?

    Het eerste waar je in je output naar moet kijken zijn de details met betrekking tot je steekproefgrootte. Deze vindt je in de Case Processing Summary tabel. Zorg ervoor dat hier het aantal proefpersonen in staan dat je hebt ingevoerd. De volgende tabel, Dependent Variable Encoding, laat zien hoe SPSS je afhankelijke variabele heeft gecodeerd. Controleer in de tabel die daarna volgt (Categorical Variables Coding) de codering van je onafhankelijke variabelen. Controleer ook in de Frequency kolom het aantal casussen per categorie; je wilt geen groepen met zeer kleine aantallen.

    Het volgende output gedeelte (Block 0) betreft de resultaten van de analyse zonder dat een van de onafhankelijke variabelen in het model is opgenomen; dit dient als baseline om te vergelijken met het model waarin de variabelen wel zijn opgenomen. Ga nu eerst naar het volgende gedeelte; Block 1. Hier wordt je model (met daarin de onafhankelijke variabelen) getoetst. De Omnibus Tests of Model Coefficients biedt een algemene indicatie van hoe goed het model presteert, vergeleken met de resultaten uit Block 0, waar geen van de onafhankelijke variabelen in het model zijn opgenomen. Dit wordt ook wel de ‘goodness of fit’ toets genoemd. Hier wil je een hoge significante waarde (Sig. waarde Hosmer and Lemeshow Test bieden ondersteuning voor de goodness of fit van je model. Let wel op dat deze test heel anders geïnterpreteerd wordt dan de omnibus test. Voor de Hosmer and Lemeshow Goodness of Fit Test wordt een slechte fit aangeduid met een significantiewaarde kleiner dan .05, wat betekent dat je hier dus juist een hoge significantiewaarde wil zien.

    Ook de tabel Model Summary geeft informatie over de bruikbaarheid van het model. De Cox & Snell R Square en de Nagelkerke R Square waarden bieden een indicatie van de hoeveelheid variatie in de afhankelijke variabele die door het model wordt verklaard (variërend van 0 tot 1).

    De Classification Table voorziet van een indicatie van hoe goed het model in staat is om voor iedere casus de juiste categorie te voorspellen. Deze tabel kan je vergelijken met de Classification Table uit Block 0 om te achterhalen hoeveel verbetering er optreedt in het model wanneer de onafhankelijke variabelen zijn opgenomen.

    De sensitiviteit van het model is het percentage van de groep die het kenmerk bevat waarin je geïnteresseerd bent en die correct door het model zijn vastgesteld (‘true positives’). De specificiteit van het model is het percentage van de groep die niet het kenmerk bevat waarin je geïnteresseerd bent en correct zijn vastgesteld (‘true negatives’). De positief voorspellende waarde is het percentage casussen waarvan het model stelt dat ze over het kenmerk beschikken en die ook daadwerkelijk over dit kenmerk beschikken. De negatief voorspellende waarde is het percentage casussen waarvan het model stelt dat ze niet over het kenmerk beschikken en die ook daadwerkelijk niet over dit kenmerk beschikken.

    De Variables in the Equation tabel geeft aan de hand van de Wald test informatie over de bijdrage of het belang van elk van je onafhankelijke variabelen; deze kun je aflezen in de Wald-kolom. Ga nu in de Sig.-kolom op zoek naar waarden kleiner dan .05; dit zijn de variabelen die significant bijdragen aan de voorspellende waarde van het model. Kijk of de B-waarden positief of negatief zijn; dit zegt iets over de richting van het verband. Als je alle variabelen correct gecodeerd hebt, betekenen negatieve B-waarden dat een toename in de onafhankelijke variabele-score zal resulteren in een verminderde kans dat de casus een score van 1 op de afhankelijke variabele zal hebben. Voor positieve B-waarden geldt het tegenovergestelde. Nog een ander nuttig informatieonderdeel in de Variables in the Equation tabel vindt je in de Exp(B)-kolom; deze waarden zijn de odds ratios (OR) voor elk van je onafhankelijke variabelen. Volgens Tabachnick en Fidell representeren de OR “the change in odds of being in one of the categories of outcome when the value of a predictor increases by one unit”. OR kleiner dan 1 zetten we het liefst om (1 gedeeld door de waarde) wanneer we deze rapporteren ten behoeve van de interpretatie.

    Voor elk van de OR wordt een 95% betrouwbaarheidsinterval gegeven (95% CI for EXP(B)); deze dien je te noemen in je resultaten.

    De laatste tabel in de output (Casewise List) biedt informatie over casussen in je steekproef voor wie het model niet goed past. Casussen met ZResid-waarden boven 2.5 of onder -2.5 zijn outliers en moeten daarom nauwkeuriger worden onderzocht.

    Hoe voer je factoranalyse uit in SPSS? - Chapter 15 (6e druk)

    Factoranalyse verschilt van veel van de andere technieken in SPSS. Het is niet ontworpen om hypothesen te toetsen of om aan te geven of de ene groep significant verschilt van de andere groep. In plaats daarvan neemt het een grote reeks variabelen en zoekt naar een manier om de data te ‘reduceren’ of samen te vatten door het gebruik van een kleinere verzameling factoren of componenten. Dit wordt gedaan door te zoeken naar clusters of groepen tussen de intercorrelaties van een verzameling variabelen. Er zijn twee kernbenaderingen van de factoranalyse: (1) exploratieve factoranalyse – vaak gebruikt tijdens de vroege onderzoekstadia om informatie over de relaties tussen een verzameling variabelen te verzamelen – en (2) confirmatieve factoranalyse – later in het onderzoeksproces toegepast om specifieke hypothesen of theorieën betreffende de onderliggende structuur van een verzameling variabelen te toetsen.

    De term ‘factoranalyse’ omvat een verscheidenheid aan verschillende gerelateerde technieken. Een van de belangrijkste onderscheidingen is die tussen de principale componentenanalyse (PCA) en factoranalyse (FA). Deze twee technieken lijken in veel opzichten op elkaar; beide trachten een kleiner aantal lineaire combinaties van de oorspronkelijke variabelen te produceren op een wijze die het grootste deel van de variabiliteit in het correlatiepatroon omvat (of deze kan verklaren). Uiteraard zijn er ook verschillen; bij PCA worden de oorspronkelijke variabelen getransformeerd naar een kleinere verzameling lineaire combinaties waarbij gebruik wordt gemaakt van alle variantie in de variabelen, terwijl bij FA de factoren worden geschat met behulp van een wiskundig model waarbij enkel de gedeelde variantie wordt geanalyseerd.

    Hier wordt de PCA gedemonstreerd.

    In welke stappen wordt een factoranalyse gedaan?

    Stap 1: Assessment van de geschiktheid van de data (assumpties)

    <

    p>Er zijn twee belangrijke kwesties waar je rekening mee dient te houden tijdens het bepalen van de geschiktheid van je dataset voor factoranalyse: steekproefgrootte en de sterkte van de relatie tussen je variabelen (of items). Voor de steekproefgrootte zijn niet echt duidelijke richtlijnen. Over het algemeen geldt; hoe groter, hoe beter. Mocht je een kleine steekproef (<150) of heel veel variabelen hebben, zoek dan meer informatie op over factoranalyse.

    De tweede kwestie betreft de sterkte van de intercorrelaties tussen de items. Tabachnick en Fidell raden aan dat correlatiecoëfficiënten een waarden van groter dan .3 hebben. SPSS biedt twee statistische metingen die kunnen helpen met het bepalen van de ‘factorability’ van de data: (1) Bartlett’s test voor sphericiteit, en (2) Kaiser-Meyer-Olkin (KMO) meting voor steekproef adequatie. Bartlett’s test moet significant zijn (p

    Stap 2: Factorextractie

    Factorextractie omvat het vaststellen van het kleinste aantal factoren die het best kunnen worden gebruikt om de interrelaties tussen de verzameling variabelen te representeren. Er zijn verschillende benaderingen die kunnen worden toegepast om het aantal onderliggende factoren of dimensies te identificeren, waarvan PCA de meest gebruikte is. Het is aan de onderzoeker om het aantal factoren vast te stellen dat volgens hem/haar de beste weergave is van de onderliggende relatie tussen de variabelen. Technieken die kunnen worden toegepast om te helpen bij het vaststellen van het aantal factoren zijn:

    1. Kaiser’s criterium: ook wel bekend als de eigenwaarde-regel. Aan de hand van deze regel worden alleen factoren met een eigenwaarde van 1.0 of meer gebruikt voor verder onderzoek.

    2. Catell’s scree test: bij deze test worden alle eigenwaarden van de factoren geplot en wordt in dit plot vervolgens gezocht naar het punt waarop de vorm van de curve van richting verandert en horizontaal wordt. Catell adviseert om alle factoren boven dit punt te behouden.

    3. Horn’s parallelle analyse: dit omvat het vergelijken van de grootte van de eigenwaarden met de eigenwaarden die zijn verkregen uit een willekeurig gegenereerde dataset van dezelfde grootte. Alleen de eigenwaarde die de corresponderende waarden van de willekeurige dataset overschrijven, worden behouden. Deze benadering blijkt het meest accuraat (Kaiser’s criterium en Catell’s scree test zijn geneigd het aantal componenten te overschatten).

    Stap 3: Factorrotatie en interpretatie

    Nadat het aantal factoren is bepaald, moeten deze geïnterpreteerd worden. Om dit proces te vergemakkelijken, worden de factoren ‘geroteerd’. SPSS laat zien welke variabelen samenklonteren; het is aan jou om hier mogelijke interpretaties aan te geven.

    Er zijn twee algemene rotatiebenaderingen die resulteren in orthogonale (niet gecorreleerde) of oblieke (gecorreleerde) factoroplossingen. In de praktijk resulteren deze twee benaderingen vaak in soortgelijke resultaten, vooral wanneer het correlatiepatroon tussen de items helder is. Pallant adviseert om te beginnen met oblieke rotatie om de mate van correlatie tussen je factoren te onderzoeken.

    Binnen de twee brede categorieën van rotatiebenaderingen zijn er in SPSS een aantal verschillende technieken beschikbaar. De meest gebruikte orthogonale techniek is de Varimax methode; deze tracht het aantal variabelen met hoge ladingen op iedere factor te minimaliseren. De meest gebruikte oblieke techniek is Direct Oblimin.

    Wat is de procedure voor Factoranalyse?

    Voor je met de onderstaande procedure begint, ga eerst naar Edit in het hoofdmenu. Selecteer daar Options en zorg dat de box No scientific notation for small numbers in tables is aangevinkt.

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Dimension Reduction en daarna Factor.

    2. Selecteer alle benodigde variabelen (of items) en verplaats ze naar de Variables box.

    3. Klik op de Descriptives-knop. Zorg dat in het Statistics gedeelte Initial Solution aangevinkt is. Selecteer in het Correlation Matrix gedeelte de opties Coefficients en KMO and Bartlett’s test of sphericity. Klik op Continue.

    4. Klik op de Extraction-knop.
      Zorg dat in het Method gedeelte Principal components wordt getoond, of kies een van de andere factorextractietechnieken (bijv. Maximum likelihood). Selecteer in het Analyze gedeelte de Correlation matrix. In het Display gedeelte moeten Screeplot en de Unrotated factor solution worden geselecteerd. Selecteer in het Extraction gedeelte de optie Based on Eigenvalue of klik op Fixed number of factors indien je een specifiek aantal factoren wil specificeren en type het aantal gewenste factoren in. Klik op Continue.

    5. Klik op de Rotation-knop. Kies Direct Oblimin en klik op Continue.

    6. Klik op de Options-knop en selecteer in het Missing Values gedeelte de optie Exclude cases pairwise. Selecteert in het Coefficient Display Format gedeelte de opties Sorted by size en Surpress small coefficients. Type in de box naar Absolute value below de waarde van .3 in. Dit betekent dat alleen factorladingen met een waarde groter dan .3 vertoond zullen worden, wat de output makkelijker te interpreteren maakt.

    7. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Hoe interpreteer je de van factoranalyse output? Deel 1

    Stap 1: geschiktheid van je dataset beoordelen

    Kijk of de Kaiser-Meyer-Olkin Measure of Sampling Adequacy (KMO) waarde .6 of hoger is en dat de waarde van Bartlett’s test of sphericity significant (.05 of kleiner) is om te verifiëren of je dataset geschikt is voor factoranalyse. Zoek in de Correlation Matrix tabel naar correlatiecoëfficiënten van .3 of hoger.

    Stap 2: Factorextractie met behulp van Kaiser’s criterium

    Om vast te stellen hoeveel componenten aan het criterium van een eigenwaarde van 1 of hoger voldoen, moet je kijken in de Total Variance Explained tabel. Kijk naar de waarden in de eerste reeks kolommen (Initial Eigenvalues). In de Cumulative % kolom zie je hoeveel procent van de variantie de componenten verklaren.

    Stap 3: Factorextractie met behulp van Catell’s scree test

    Kaiser’s criterium geeft vaak teveel componenten. Daarom is het belangrijk ook naar de Screeplot te kijken. Zoek naar het punt waarop de vorm van de curve van richting verandert en horizontaal wordt. Alle factoren boven dit punt moet je behouden.

    Stap 4: Factorextractie met behulp van parallelle analyse

    Voor parallelle analyse, de derde manier om het aantal factoren vast te stellen, moet je gebruik maken van de lijst met eigenwaarden in de Total Variance Explained tabel en extra informatie die je aan de hand van een ander statistisch programma (verkrijgbaar via de website van dit boek) kunt verkrijgen. Volg de link naar de Additional Material site en download de zip-file (parallel analysis.zip) op je computer. Unzip dit bestand op je harde schijf en klik op de file MonteCarloPA.exe. Het programma Monte Carlo PCA for Parallel Analysis wordt nu gestart, waarin je vervolgens de volgende informatie moet invoeren: (1) het aantal variabelen dat je wilt analyseren, (2) het aantal participanten in je steekproef, en (3) het aantal replicaties). Klik op Calculate. Vervolgens moet je de eerste eigenwaarde die je in SPSS hebt verkregen systematisch vergelijken met de eerste waarde uit de resultaten van de parallelle analyse. Indien je waarde groter is dan de criteriumwaarde uit de parallelle analyse, behoud je deze factor; als je waarde kleiner is, verwerp je deze.

    Stap 5: Factorladingen inspecteren

    In de tabel Component Matrix vind je de ongeroteerde ladingen van elk van de items op de verschillende componenten. SPSS gebruikt Kaiser’s criterium als standaard techniek.

    Stap 6: Inspecteer de geroteerde factoroplossing

    Voor je een definitief besluit maakt betreffende het aantal factoren, dien je te kijken naar de geroteerde factoroplossing in de Pattern Matrix tabel: deze toont de itemladingen op de verschillende factoren. Idealiter wil je minstens drie itemladingen per component. Indien dit niet het geval is, zal je een oplossing met minder factoren moeten vinden. Volg in dit geval de onderstaande procedure:

    1. Herhaal alle stappen die eerder in dit hoofdstuk worden genoemd. Let op: wanneer je nu op de Extraction-knop klikt, selecteer dan Fixed number of factors. In de box naast Factors to extract type je het aantal factoren in dat je wilt extraheren.

    2. Klik op Continue en vervolgens op OK.

    Hoe interpreteer je de van factoranalyse output? Deel 2

    Het eerste dat je moet checken, is het percentage variantie dat door de nieuwe factoroplossing wordt verklaard; dit staat in de Total Variance Explained tabel. Na rotatie van de nieuwe factoroplossing, vind je aan het eind van je output drie nieuwe tabellen waar je naar moet kijken. Allereerst de Component Correlation Matrix (aan het eind van je output); deze laat de sterkte van de relatie tussen de factoren zien. Dit geeft je informatie voor je besluit of het redelijk was om ervan uit te gaan dat de componenten niet gerelateerd zijn aan elkaar (en dus de Varimax rotatie toegepast kan worden), of dat de Oblimin rotatie oplossing toegepast en gerapporteerd moet worden.

    Oblimin rotatie levert twee tabellen van factorladingen op. De Pattern Matrix geeft de factorladingen van elk van de variabelen weer. Zoek naar de hoogst geladen items op elk component om zo het component te identificeren en een naam te geven. De Structure Matrix tabel levert informatie op over de correlatie tussen variabelen en factoren. Indien je de Oblimin rotatie oplossing in je output moet presenteren, moet je beide tabellen weergeven.

    Eerder in de output vind je de tabel genaamd Communalities; deze tabel geeft informatie over hoeveel variantie in elk item verklaard wordt. Lage waarden (

    Op welke manier worden de resultaten gerapporteerd?

    De informatie die je in je resultaten weergeeft is afhankelijk van je vakgebied, het soort verslag dat je schrijft en waar je verslag gepresenteerd zal worden. Indien je je onderzoek wil publiceren binnen het vakgebied van de psychologie en het onderwijs zijn er redelijk strikte eisen wat je in je artikel plaatst wanneer je gebruik heb gemaakt van factoranalyse. Allereerst moet je de details weergeven van de factorextractiemethode die je hebt gebruikt; dus de gebruikte criteria om het aantal factoren te bepalen, het type rotatietechniek, de totale verklaarde variantie, de oorspronkelijke eigenwaarden en de eigenwaarden na rotatie. In je verslag dien je een tabel met factorladingen op te nemen met daarin alle waarden (dus niet alleen waarden > .3). In het geval van de Varimax geroteerde oplossing moet de tabel ‘pattern/structure coefficients’ worden genoemd. In het geval van de Oblimin rotatie moeten zowel de Pattern Matrix, als de Structure Matrix coëfficiënten volledig worden gepresenteerd, samen met de informatie over de correlaties tussen de factoren.

    Hoe gebruik je SPSS voor niet-parametrische statistiek? - Chapter 16 (6e druk)

    Niet-parametrische statistieken zijn ideaal wanneer je data is gemeten op een nominale of ordinale schaal. Ze zijn ook handig wanneer je beschikt over zeer kleine steekproeven en wanneer je data niet voldoet aan de assumpties van de parametrische technieken.

    IBS SPSS geeft diverse niet-parametrische technieken voor verschillende situaties. Hieronder worden de meest gebruikte niet-parametrische technieken uitgelegd.

    Welke niet-parametrische technieken zijn er?

    Niet-parametrische techniek

    Parametrisch alternatief

    Chi-square test voor goodness of fit

    Geen

    Chi-square test voor onafhankelijkheid

    Geen

    McNemar’s Test

    Geen

    Cochran’s Q Test

    Geen

    Kappa Measure of Agreement

    Geen

    Mann-Whitney U Test

    T-toets voor onafhankelijke steekproeven

    Wilcoxon Signed Rank Test

    T-toets voor gepaarde steekproeven

    Kruskal-Wallis Test

    One-way between-groups ANOVA

    Friedman Test

    One-way repeated measures ANOVA

    Assumpties voor niet-parametrische technieken

    Algemene assumpties van niet-parametrische technieken waarvoor gecontroleerd moet worden, zijn:

    • Willekeurige steekproeven

    • Onafhankelijke observaties (met uitzondering van de technieken waarbij herhaalde metingen worden uitgevoerd).

    Verder hebben sommige technieken nog aanvullende assumpties; deze zullen per techniek besproken worden.

    Hoe voer je de chi-square test voor goodness of fit uit?

    Deze test, ook wel de one-sample chi-square genoemd, wordt vaak gebruikt om de proportie casussen uit een steekproef te vergelijken met hypothetische waarden of eerder verkregen waarden uit vergelijkbare populaties. Het enige dat je in de data-file nodig hebt, is één categorische variabele en een specifieke proportie waartegen je de geobserveerde frequenties wilt toetsen.

    Procedure voor chi-square test voor goodness of fit

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Non-parametric Tests, daarna Legacy Dialogs en vervolgens Chi-square.

    2. Verplaats de categorische variabele naar de Test Variable List box. Klik in het Expected Values gedeelte op de Values-optie. In de Values box moet je de waarden van je variabelen invullen: De eerste waarde correspondeert met de verwachte proportie voor de eerste gecodeerde waarde van de variabele (bijv. 1 = ja). Klik op Add. De tweede waarde is de verwachte proportie voor de tweede gecodeerde waarde (bijv. 2 = nee). Klik op Add. Etc.

    3. Klik op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    In de eerste tabel vind je de geobserveerde frequenties van de huidige data-file. In de Test Statistics tabel staan de resultaten van de Chi-Square Test – welke de verwachte en geobserveerde waarden met elkaar vergelijkt – gerapporteerd.

    Rapporteren van de resultaten

    In de resultaten moet je de chi-square waarde, de vrijheidsgraden (df) en de p-waarde (Asymp. Sig.) opnemen.

    Hoe voer je de chi-square test voor onafhankelijkheid uit?

    Deze test wordt gebruikt wanneer je de relatie tussen twee categorische variabelen wilt onderzoeken. Elk van deze variabelen kunnen twee of meerdere categorieën hebben. De chi-square test voor onafhankelijkheid vergelijkt de geobserveerde frequenties of proporties casussen die in elk van de categorieën voorkomen met de waarden die verwacht worden indien er geen associatie is tussen de gemeten variabelen. Wanneer SPSS een 2x2 tabel tegenkomt (2 categorieën in elke variabele), omvat de output een aanvullende correctiewaarde (Yates’ Correction for Continuity); deze waarde is ontworpen om te compenseren voor wat sommige onderzoekers beschouwen als een overschatting van de chi-square waarde wanneer deze wordt gebruikt in een 2x2 tabel.

    Aanvullende assumpties

    De laagst verwachte frequentie moet voor iedere cel minstens 5 zijn. Als je een 2x2 tabel hebt, wordt aangeraden een minimale verwachte frequentie van 10 te hebben. Als je een 2x2 tabel hebt die deze assumptie schendt, zou je moeten overwegen om in plaats daarvan Fisher’s Exact Probability Test te rapporteren.

    Procedure

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Descriptive Statistics en daarna Crosstabs.

    2. Klik op de variabele(n) die je je rij-variabele(n) wil maken en verplaats deze naar de Row(s) box.

    3. Klik op de andere variabele(n) die je je kolom-variabele(n) wil maken en verplaats deze naar de Column(s) box.

    4. Klik op de Statistics-knop. Vink Chi-square en Phi and Cramer’s V aan en klik op Continue.

    5. Klik op de Cells-knop. Zorg dat in de Counts box de optie Observed is aangevinkt. Ga dan naar het Percentage gedeelte en klik de Row box aan. Klik bij Residuals op Adjusted standardized.

    6. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output


    Om te beginnen is het van belang om te kijken of er assumpties zijn geschonden als het gaat om de chi-square ‘minimaal verwachte celfrequentie’. Deze moet 5 of groter zijn.

    De belangrijkste waarde waarin je geïnteresseerd bent is de Pearson Chi-Square waarde; deze vind je in de Chi-Square Tests. Als je een 2x2 tabel hebt, gebruik je de waarde uit de tweede rij (Continuity Correction). Dit is de continuïteitscorrectie van Yates.

    Voor meer gedetailleerde informatie uit een onderzoek kan ook gebruik worden gemaakt van kruisverwijzingen in een Crosstabulation.

    Er zijn in de Crosstabs procedure verschillende soorten statistieken beschikbaar om de effectgrootte te berekenen. De twee meest voorkomende zijn:

    • phi coëfficiënt: dit is een correlatiecoëfficiënt die kan variëren tussen 0 en 1. Hoe hoger de waarde, des te sterker is de associatie tussen de twee variabelen. De phi coëfficiënt wordt veelal gebruikt bij 2 bij 2 tabellen.

    • Cramer’s V: deze statistiek geeft de waarde weer van tabellen die groter zijn dan 2 bij 2. Hierbij wordt ook rekening gehouden met het aantal vrijheidsgraden (df).

    Hoe voer je McNemar’s test uit?

    Bij gelijke of herhaalde metingen kunnen geen chi-square tests worden gebruikt. In een dergelijk geval wordt gebruikt gemaakt van de test van McNemar. Ook je data is anders. Bij gelijke of herhaalde metingen heb je twee variabelen; de eerste is gemeten op tijdstip 1 (voorafgaand aan een interventie) en de tweede op tijdstip 2 (na een interventie). Beide variabelen zijn categorisch en brengen dezelfde informatie in kaart.

    Procedure voor McNemar’s test

    1. Klik in het menu bovenaan het scherm op Analyze, selecteer vervolgens Nonparametric tests en dan Related samples.

    2. Klik bij “What is your objective?” op Customize analysis.

    3. Ga naar Fields. Selecteer de twee variabelen en verplaats ze naar de Test Fields box.

    4. Klik bij Settings op Customize tests.

    5. Klik op de box om McNemar's test (2 samples) te selecteren. Klik op Define Success en vervolgens op OK.

    6. Klik op Run (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    Als de p-waarde (Sig.) kleiner is dan .05, betekent dit dat er een significant verschil is tussen je twee variabelen.

    
De McNemar test is alleen toepasbaar wanneer je twee responscategorieën hebt (bijv. ja/nee of aanwezig/afwezig). Echter, wanneer je drie of meer categorieën hebt, kan de McNemar’s test nog steeds gebruikt worden. SPSS genereert dan automatische de resultaten van de McNemar-Bowker symmetrietest.

    Hoe voer je Cochran’s Q test uit?

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Nonparametric Tests, daarna op Related Samples.

    2. Klik bij “What is your objective?” op Customize analysis.

    3. Klik op de variabelen die de verschillende tijdsmomenten representeren en verplaats ze naar de Test Fields box.

    4. Klik bij Settings op Customize tests.

    5. Klik op Cochran’s Q (k samples). Zorg dat bij Multiple comparisons de optie All pairwise is geselecteerd.

    6. Klik op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    Om vast te stellen of er een significant verschil is tussen de variabelen/tijdsmomenten, kijk je naar de p-waarde (Asymp. Sig.); deze moet kleiner zijn dan .05.

    Hoe meet je de overeenstemming tussen twee tests met Kappa?

    Kappa’s maat van overeenstemming (measure of agreement) wordt veelal toegepast wanneer de interbeoordelaarsbetrouwbaarheid moet worden vastgesteld. Kappa is een schatting van de mate van overeenstemming tussen twee beoordelaars/tests. Hierbij wordt rekening gehouden met de mate van overeenstemming die zich toevallig zou kunnen hebben voorgedaan.

    De waarde die wordt verkregen uit Kappa’s maat van overeenstemming wordt beïnvloed door de prevalentie van de positieve waarde. Dit betekent dat bij studies waar het interessedomein zeldzaam is, de kappa-statistiek zeer laag kan zijn, ondanks hoge niveaus van algemene overeenstemming.

    Een aanvullende assumptie van deze benadering, is dat ervan uit wordt gegaan dat beoordelaar/test 1 en beoordelaar/test 2 hetzelfde aantal categorieën heeft.

    Procedure voor Kappa: maat van overeenstemming

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Descriptive Statistics en daarna op Crosstabs.

    2. Klik op de variabele die je in de output-tabel in de rij wil hebben staan en verplaats deze naar de Row(s) box.

    3. Klik op de andere variabele die je in de output-tabel in de kolom wil hebben staan en verplaats deze naar de Column(s) box.

    4. Klik op de Statistics-knop, selecteer Kappa en klik op Continue.

    5. Klik op de Cells-knop.

    6. Zorg dat in de Counts box de optie Observed is aangevinkt.

    7. Klik in het Percentage gedeelte op Column. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    De belangrijkste informatie is terug te vinden in de tabel Symmetric Measures. Een waarde van .5 betekent een gemiddelde overeenkomst. Een Kappa-waarde van .7 en hoger betekent een goede overeenkomst en een waarde van .8 geeft een zeer goede overeenkomst weer.

    Sensitiviteit en specificiteit

    De frequenties en percentages zoals die worden weergegeven in de Crosstabulation tabel kunnen ook gebruikt worden om de sensitiviteit en specificiteit van een meting of een test te berekenen.

    Sensitiviteit geeft het aandeel weer van de casussen met een ziekte of stoornis die correct zijn gediagnosticeerd. Specificiteit geeft het aandeel weer van de casussen zonder de ziekte of stoornis die correct zijn geclassificeerd.

    Hoe voer je de Mann-Whitney U test uit?

    De Mann-Whitney U Test wordt gebruikt om de verschillen te toetsen tussen twee onafhankelijke groepen op een continue schaal. Deze test is het niet-parametrische alternatief voor de t-test voor onafhankelijke steekproeven. De Mann-Whitney U Test vergelijkt medianen van de twee groepen. Het converteert de scores van de continue variabele om de twee groepen te rangschikken. Vervolgens kijkt de test of de rangen van de twee groepen significant verschillen.

    Procedure voor Mann-Whitney U Test

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Nonparametric Tests, dan op Independent Samples.

    2. Klik bij “What is your objective?” op Customize analysis.

    3. Ga naar Fields.

    4. Verplaats de categorische (onafhankelijke) variabele naar Groups.

    5. Verplaats de continue (afhankelijke) variabele naar de Test Fields box.

    6. Klik bij Settings op Customize tests. Klik op Mann-Whitney U (2 samples).

    7. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    De belangrijkste waarden in je output zijn de Z-waarde en het significantieniveau welke wordt weergegeven als Asymp. Sig. (2-tailed). Als je steekproef groter is dan 30, zal SPSS de waarde geven voor een Z-benaderingstest.

    Wanneer er statistisch significante verschillen tussen de groepen zijn, moet de richting van het verschil worden vastgesteld. Ofwel: welke groep is hoger? Dit kan je aflezen uit de Ranks tabel onder de kolom Mean Rank. Bij de rapportage van de resultaten is het van belang de mediaanwaarden van elke groep afzonderlijk weer te geven. Hiervoor moet je de volgende stappen volgen:

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Compare Means en kies dan Means.

    2. Verplaats je continue variabele naar de Dependent List box.

    3. Verplaats je categorische variabele naar de Independent List box.

    4. Klik op Options. Klik in het Statistics gedeelte op Median en verplaats deze naar de Cell Statistics box, Klik op Mean en Standard Deviation en verwijder deze uit de Cell Statistics box.

    5. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Effectgrootte

    SPSS voorziet niet in een statistische weergave van de effectgrootte. Met behulp van de z-waarde (zoals blijkt uit de output) kan de geschatte waarde van r worden berekend:

    r = z / √N, waarbij N het aantal casussen is.

    Hoe voer je de Wilcoxon Signed Rank test uit?

    De ‘rangschikkingstest’ van Wilcoxon is ontworpen om herhaaldelijk metingen te verrichten. Bijvoorbeeld wanneer deelnemers worden gemeten op twee verschillende momenten of onder twee verschillende condities. Het is het niet-parametrische alternatief voor de t-toets voor herhaalde metingen (ofwel t-toets voor gepaarde steekproeven). De Wilcoxon rangschikkingstest converteert de scores tot niveaus en vergelijkt deze met elkaar op tijdstip 1 en tijdstip 2.

    Procedure voor de Wilcoxon Signed Rank Test

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Nonparametric Tests, daarna op Legacy Dialogs en kies vervolgens 2 Related Samples.

    2. Klik op de variabelen die de scores op tijdstip 1 en 2 representeren en verplaats deze naar de Test Pairs box.

    3. Zorg dat in het Test Type gedeelte de Wilcoxon optie is aangevinkt.

    4. Klik op Options en selecteer daar Quartiles (dit levert de mediaan op voor ieder tijdstip).

    5. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    De twee uitkomsten waarin je geïnteresseerd bent zijn de Z-waarde en de bijbehorende significante niveaus (weergegeven als Asymp. Sig. (2-delig)). Wanneer het significantieniveau gelijk is aan of lager is dan 0.5, dan is er sprake van een statistisch significant verschil tussen de twee scores.

    Effectgrootte

    Voor de rangschikkingstest van Wilcoxon kan de effectgrootte op een soortgelijke manier worden berekend als voor de Mann-Whitney U-test; namelijk door de z-waarde te delen door de vierkantswortel van N, waarbij N in dit geval staat voor het aantal observaties over de twee tijdstippen genomen en dus niet het aantal casussen.

    Hoe voer je de Kruskal-Wallis test uit?

    Het niet-parametrische alternatief voor een one-way between-groups variantieanalyse is de Kruskal-Wallis test (of Kruskal-Walles H test). Deze test maakt het mogelijk om de scores te vergelijken van een variabele bestaande uit drie of meer groepen. Omdat het een analyse betreft tussen verschillende groepen, moeten er in elke verschillende groep, verschillende mensen zitten.

    Procedure voor Kruskal-Wallis Test

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Nonparametric Tests, daarna op Independent Samples.

    2. Klik bij “What is your objective?” op Customize analysis.

    3. Ga naar Fields.

    4. Verplaats de continue afhankelijke variabele naar de Test Fields box.

    5. Verplaats de categorische onafhankelijke variabele naar Groups.

    6. Klik bij Settings op Customize tests. Klik op Kruskal Wallis 1-way ANOVA. Zorg dat bij Multiple comparisons de optie All pairwise is geselecteerd.

    7. Klik op Run (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    De belangrijkste informatie die je nodig hebt uit de output van de Kruskal-Wallis Test zijn de waarde van de Chi-square, de vrijheidsgraden (df) en het significantieniveau (weergegeven als Asymp. Sig.).

    Als het significantieniveau lager is dan .05, wijst dat op een statistisch significant verschil in je continue variabele tussen de drie groepen. Voor de drie groepen kan dan gekeken worden naar de Mean Rank, welke staat weergegeven in de eerste outputtabel. Hieruit valt af te lezen welke groep gemiddeld het hoogste scoort.

    Post-hoc tests en effectgrootte

    Na het uitvoeren van de Kruskal-Wallis Test weet je nog niet zeker welke groepen statistisch significant van elkaar verschilen. Daarvoor zijn er follow-up Mann-Whitney U tests tussen paren van groepen nodig. Om Type 1 fouten voor te zijn, is een Bonferroni-aanpassing aan de alfawaarden nodig wanneer je de groepen met elkaar wilt vergelijken.

    De Bonferroni-aanpassing houdt in dat het alfa-niveau van .05 wordt gedeeld door het aantal tests dat je wilt gaan toepassen en dat je het herziene alfa-niveau gaat gebruiken als criterium om de significantie te bepalen.

    Hoe voer je de Friedman test uit?

    Het niet-parametrische alternatief voor een one-way repeated measures variantieanalyse is de Friedman Test. Deze test kan gebruikt worden wanneer dezelfde steekproeven neemt en deze op drie of meer tijdstippen meet onder drie of meer verschillende condities.

    Procedure voor Friedman Test

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Nonparametric Tests, daarna op Legacy Dialogs en vervolgens op K Related Samples.

    2. Verplaats de variabelen die de metingen representeren naar de Test Variables box.

    3. Zorg dat in het Test Type gedeelte de Friedman-optie is geselecteerd.

    4. Klik op Statistics en vink de optie Quartiles aan.

    5. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Post-hoc tests en effectgrootte

    Wanneer is vastgesteld dat er een statistisch significant verschil is ergens op de drie tijdspunten, dan zou de volgende stap zijn om een post-hoc test uit te voeren om de tijdspunten waarin je geïnteresseerd bent te vergelijken.

    Welke t-toetsen kunnen in SPSS gebruikt worden? - Chapter 17 (6e druk)

    Er zijn verschillende t-toetsen beschikbaar in SPSS, hier zullen de volgende twee besproken worden:

    • T-toets voor onafhankelijke steekproeven (independent-samples t-test): deze toets wordt gebruikt om de gemiddelden van twee verschillende groepen mensen of condities te vergelijken.

    • T-toets voor gepaarde steekproeven (paired-samples t-test): deze toets wordt gebruikt om de gemiddelden van dezelfde groep mensen te vergelijken op twee verschillende momenten of wanneer er sprake is van gelijke (matched) paren.

    Als er sprake is van meer dan twee groepen of condities kunnen deze toetsen niet gebruikt worden; in dat geval moet er een variantieanalyse gedaan worden.

    Hoe ziet T-toets voor onafhankelijke steekproeven er uit?

    Een independent-samples t-test wordt gebruikt wanneer je de gemiddelde score op een continue variabele van twee groepen deelnemers wilt vergelijken. Aan de hand van deze toets kan je bepalen of er sprake van een statistisch significant verschil tussen de gemiddelden van twee groepen. In statistische bewoording: er wordt getoetst wat de waarschijnlijkheid is dat twee reeksen scores afkomstig zijn van dezelfde populatie.

    Het niet-parametrische alternatief voor deze toets is de Mann-Whitney U Test.

    Procedure voor de t-toets voor onafhankelijke steekproeven

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Compare Means en dan op Independent Samples T Test.

    2. Verplaats de afhankelijke (continue) variabele naar de Test variable box.

    3. Verplaats de onafhankelijke (categorische) variabele naar het Grouping variable gedeelte.

    4. Klik op Define Groups en vul het aantal getallen in dat in de dataset wordt gebruikt om iedere groep te coderen. Mocht je niet kunnen onthouden welke waarden voor welke groep worden gebruikt, klik dan met de rechtermuisknop op de naam van de variabele en klik op de optie Variable Information. Er komt dan een pop-up box tevoorschijn waarin de waarden en labels voor deze variabele vermeld staan. Nadat je de waarden hebt ingevoerd, sluit je de pop-up box en klik je op Continue.

    5. Klik op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    Stap 1: Controleer de informatie over de groepen: Controleer het gemiddelde, de standaarddeviatie en de groepsgrootte (N) van beide groepen, te vinden in de tabel van de Group Statistics.

    Stap 2: Check of aan de assumpties is voldaan: Controleer het resultaat van de Levene’s test (in het eerste gedeelte van de Independent Samples Test output box). Deze toets bepaalt of de variantie van de scores voor de twee groepen gelijk is. De uitslag bepaalt welke door SPSS gegenereerde t-waarde gebruikt moet worden. Als de significantie waarde (p) namelijk groter is dan .05, dan moet de eerste regel van de tabel worden afgelezen (Equal variances assumed). Als het significantie nivea gelijk aan of lager dan .05 is, dan schendt de data de assumptie van gelijke variantie en moet de tweede regel van de tabel worden afgelezen (Equal variances not assumed).

    Stap 3: Breng de verschillen tussen de groepen in kaart: Lees de significantie waarde af onder Sig.(2-tailed) die te vinden is onder t-test for Equality of Means. Of je deze waarde af moet lezen voor equal variances assumed of not assumed blijkt dus uit stap 2. Bij een waarde gelijk aan of lager dan .05 is er sprake van een significant verschil tussen de gemiddelde scores op je afhankelijke variabele voor alle twee de groepen. Bij een waarde hoger dan .05 is er dus geen significant verschil tussen beide groepen.

    Berekenen van de effectgrootte

    SPSS produceert geen effectgroottes. Eta kwadraat kan met de hand berekend worden aan de hand van de informatie uit de output, met behulp van de volgende formule:

    η2 = t2 / t2 + (N1 + N2 – 2)

    Met de richtlijnen van Cohen kan de effectgrootte bepaald worden:

    0,01 is een klein effect

    0,06 is een gemiddeld/gematigd effect

    0,14 is een groot effect.

    Hoe ziet de T-toets voor gepaarde steekproeven er uit?

    Een paired-samples t-test (ook wel repeated measures genoemd) wordt gebruikt als je data wilt verzamelen van slechts één groep mensen op twee verschillende momenten of onder twee verschillende condities. Hier is bijvoorbeeld sprake van bij een pre-test/post-test experimenteel design. Ook wordt de test gebruikt wanneer er sprake is van matched pairs participanten (iedere deelnemer wordt gematched met een andere deelnemer op basis van een specifiek criterium); De één wordt blootgesteld aan Interventie 1 en de ander aan Interventie 2. Voor ieder paar worden vervolgens de scores op een continue meting vergeleken.

    Met deze toets kun je bepalen of er statistisch significant verschil is tussen de gemiddelde scores op tijdstip 1 en tijdstip 2. De basis assumpties voor t-testen zijn hierbij van toepassing. Een aanvulling hierop is de assumptie dat het verschil tussen de twee scores van iedere deelnemer normaal is verdeeld. Bij een steekproefgrootte van groter dan 30 is het onwaarschijnlijk dat een schending van deze assumptie serieuze problemen zal veroorzaken.

    Het niet-parametrische alternatief voor deze toets is de Wilcoxon Signed Rank Test.

    Procedure voor de t-toets voor gepaarde steekproeven

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Compare Means en dan op Paired Samples T Test.

    2. Verplaats de twee variabelen die je voor iedere deelnemer met elkaar wilt vergelijken naar de Paired Variables box.

    3. Klik op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    Stap 1: Bepaal de algemene betekenis: in de Paired Samples Test tabel moet in de laatste kolom (Sig (2-tailed)) gekeken worden naar de p (probability) waarde. Als deze waarde lager is dan .05, dan is er sprake van een significant verschil tussen beide scores.

    Stap 2: Vergelijk de gemiddelden: nadat er vastgesteld is of er sprake is van een significant verschil, moet er uitgezocht worden welke reeks scores hoger is. Hiervoor moet gekeken worden naar de Mean scores in de Paired Samples Statistics tabel.

    Berekenen van de effectgrootte

    SPSS produceert geen effectgroottes. Eta kwadraat kan met de hand berekend worden aan de hand van de volgende formule:

    η2 = t2 / t2 + (N – 1)

    Met de richtlijnen van Cohen kan de effectgrootte bepaald worden. Dit zijn dezelfde richtlijnen als bij de t-toets voor onafhankelijke steekproeven.

    Hoe gebruik je eenweg ANOVA in SPSS? - Chapter 18 (6e druk)

    T-toetsen worden gebruikt om de scores van twee verschillende groepen of condities te vergelijken. In veel onderzoekssituaties zijn we echter geïnteresseerd in het vergelijken van gemiddelde scores van meer dan twee groepen. In dat geval wordt gebruik gemaakt van variantieanalyse (ANOVA). Variantieanalyse wordt zo genoemd omdat de variantie (variabiliteit in scores) tussen de verschillende groepen (waarvan verwacht wordt dat deze verklaard kan worden door de onafhankelijke variabele) wordt vergeleken met de variabiliteit binnen elk van de groepen (waarvan verwacht wordt dat deze wordt veroorzaakt door toeval). De F-ratio – ofwel de variantie tussen de groepen gedeeld door de variantie binnen de groepen – wordt berekend. Een significante F-waarde betekent dat de nulhypothese, namelijk dat de populatiegemiddelden gelijk zijn, verworpen kan worden. Omdat het niks zegt over welke groepen van elkaar verschillen, dienen nog post-hoc toetsen te worden uitgevoerd. Een alternatief voor post-hoc toetsen is het uitvoeren van specifieke vergelijkingen (ofwel planned comparisons).

    Hieronder worden twee soorten one-way ANOVA’s besproken, namelijk: (1) between-groups ANOVA, welke wordt gebruikt wanneer je te maken hebt met verschillende deelnemers/casussen in elk van je groepen (ook wel het independent groups design genoemd); en (2) repeated measures ANOVA, welke wordt gebruikt wanneer je dezelfde deelnemers onder verschillende condities/tijdstippen vergelijkt (ook wel het within-subjects design genoemd).

    Wanneer gebruik je post-hoc toetsen bij ANOVA?

    De one-way between-groups ANOVA wordt toegepast wanneer je één categorische onafhankelijke (grouping) variabele hebt met minimaal drie niveaus (groepen) en één continue afhankelijke variabele.

    Het niet-parametrische alternatief van de one-way between-groups ANOVA is de Kruskal-Wallis Test.

    Procedure voor one-way between-groups ANOVA met post-hoc toetsen

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Compare Means en daarna op One-way ANOVA.

    2. Verplaats je afhankelijke variabele naar de Dependent List box.

    3. Verplaats je onafhankelijke variabele naar de Factor box.

    4. Klik Options aan en selecteer Descriptive, Homogenity of variance test, Brown-Forsythe, Welch en Means Plot.

    5. Zorg dat bij Missing values de optie Exclude cases analysis by analysis is aangevinkt en klik op Continue.

    6. Klik op Post Hoc en selecteer Tukey.

    7. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    Check altijd eerst de Descriptives tabel; hierin vind je informatie over iedere groep. Kijk vervolgens in de Test of Homogeneity of Variances tabel, waar je Levene’s test voor gelijke varianties vindt. Als de significantiewaarde (Sig.) groter is dan .05 is de assumptie van gelijke varianties niet geschonden. Mocht dit wel het geval zijn, raadpleeg dan de tabel Robust Tests of Equality Means. De twee tests die hier staan (Welch en Brown-Forsythe) zijn in dat geval beter om te gebruiken.

    In de ANOVA tabel ben je voornamelijk geïnteresseerd in de Sig.-kolom; hier vind je de p-waarde. Wanneer deze kleiner is dan .05, is er sprake van een significant verschil tussen de gemiddelde scores van je afhankelijke variabele voor de verschillende groepen. Het vertelt je niet welke groepen van elkaar verschillen. De statistische significantie van de verschillen tussen iedere paar groepen staan in de Multiple Comparisons tabel, waarin je de resultaten van de post-hoc toetsen vindt. De gemiddelden van iedere groep staan in de Descriptives tabel. Kijk alleen naar de Multiple Comparisons tabel wanneer je een significante waarde hebt gevonden in je algemene ANOVA (zie de ANOVA tabel). Kijk naar de kolom Mean Difference en zoek naar asterisken (*) naast de waarden. Wanneer je een asterisk ziet, betekent dit dat de twee groepen die met elkaar worden vergeleken significant van elkaar verschillen met een p-waarde Sig.-kolom.

    De Means plot is een eenvoudige manier om de gemiddelde scores van de verschillende groepen met elkaar te vergelijken. Deze plots kunnen misleidend zijn, dus kijk altijd goed naar de waarden op de y-as.

    Berekenen van de effectgrootte

    Hoewel SPSS geen effectgrootte genereert, kan deze wel worden berekend met behulp van de informatie uit de ANOVA tabel. Gebruik daarbij de volgende formule:

    η2 = som van de kwadraten tussen groepen / totale kwadratensom

    Wanneer gebruik je geplande vergelijkingen bij ANOVA?

    Geplande vergelijkingen gebruik je wanneer je geïnteresseerd bent in vergelijkingen tussen specifieke groepen. Deze techniek is meer sensitief in het detecteren van verschillen. Post-hoc toetsen, daarentegen, stellen strengere significantieniveaus om het risico op Type 1 fouten te reduceren. Je moet besluiten of je gebruik maakt van post-hoc toetsen of geplande vergelijkingen voor je aan je analyse begint.

    Specificeren van coëfficiëntwaarden

    Eerst moet je je groepen indelen op basis van de verschillende waarden van de onafhankelijke variabele (bijv. leeftijdscategorieën). Vervolgens moet je beslissen welke groepen je wilt vergelijken en welke je wilt negeren. De som van de coëfficiëntwaarden moet altijd 0 zijn. Coëfficiënten met verschillende waarden worden met elkaar vergeleken. Wanneer je een van de groepen wilt negeren, geef je deze de waarde 0.

    Procedure voor one-way between-groups ANOVA met geplande vergelijkingen

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op Compare Means en daarna op One-way ANOVA.

    2. Verplaats je afhankelijke (continue) variabele naar de Dependent List box.

    3. Verplaats je onafhankelijke variabele naar de Factor box.

    4. Klik Options aan en selecteer Descriptive, Homogenity of variance test, Brown-Forsythe, Welch en Means Plot.

    5. Zorg dat bij Missing values de optie Exclude cases analysis by analysis is aangevinkt en klik op Continue.

    6. Klik op Contrasts. Vul in de Coefficients box de coëfficiënt voor de eerste groep in en klik op Add. Vul de coëfficienten voor de tweede groep in en klik op Add. Doe dit voor al je groepen. Het Coefficient Total onder aan de tabel moet 0 zijn wanneer je alle coëfficiënten juist hebt ingevuld.

    7. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    De Descriptives en Test of homogeneity of variances tabellen zien er hetzelfde uit als die van de one-way ANOVA met post-hoc toetsen. Hier wordt alleen de output besproken die relevant is voor de geplande vergelijkingen.

    Stap 1: In de Contrast Coefficients tabel staan de coëfficiënten die je voor iedere groep hebt ingevuld. Controleer of dit klopt.

    Stap 2: De belangrijkste resultaten waarin je geïnteresseerd bent staan in de Contrast Tests tabel. Als Levene’s test niet significant is, is er sprake van gelijke varianties en dus moet je kijken naar de eerste rij in deze tabel. Wanneer het significantieniveau van het contrast dat je hebt gespecificeerd significant (gelijk aan of kleiner dan .05) is, betekent dit dat er een statistisch significant verschil is tussen de betreffende groep en de andere groepen. Zoals je zal zien, levert de geplande vergelijkingsanalyse een t-waarde op in plaats van een F-waarde. Om de F-waarde te verkrijgen hoef je alleen maar de t-waarde te kwadrateren. Om de resultaten te rapporteren heb je ook de vrijheidsgraden nodig. De eerste waarde (voor alle geplande vergelijkingen) is 1; de tweede staat in de tabel naast de t-waarde (onder df).

    Hoe ziet de One-way repeated measures ANOVA er uit?

    In een one-way repeated measures ANOVA design wordt iedere deelnemer aan twee of meerdere condities blootgesteld of op drie of meer tijdstippen op dezelfde continue schaal gemeten. De techniek kan tevens worden toegepast om de responsen van deelnemers op twee of meer verschillende vragen of items te vergelijken. Belangrijk hierbij is dat de vragen op dezelfde schaal moeten worden gemeten (bijv. 1 = helemaal mee oneens, tot 5 = helemaal mee eens).

    Het niet-parametrische alternatief voor deze toets is de Friedman Test.

    Procedure voor one-way repeated measures ANOVA

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op General Linear Model en daarna op Repeated Measures.

    2. Vul in de Within Subject Factor Name box een naam in die je onafhankelijke variabele representeert. Dit is niet de daadwerkelijke variabele naam, maar slechts een label dat je koppelt aan je onafhankelijke variabele.

    3. Vul in de Number of Levels box het aantal niveaus of groepen in.

    4. Klik op Add.

    5. Klik op de Define-knop.

    6. Selecteer de variabelen die je herhaalde metingen variabele representeren en verplaats ze naar de Withing Subjects Variable box.

    7. Klik Options aan.

    8. Vink in het Display gedeelte de opties Descriptive Statistics en Estimates of effect sizes aan. Als je post-hoc toetsen wilt opvragen, selecteer dan de naam van je onafhankelijke variabele in het Factor and Factor Interactions gedeelte en verplaats deze naar de Display Means for box. Vink Compare Main effects aan. Klik in het Confidence interval adjustment gedeelte op pijl die naar beneden wijst en kies voor de optie Bonferroni.

    9. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Interpretatie van de output

    In de eerste output box zie je de beschrijvende statistieken van je verzameling scores (Mean, Standard deviation, N). Controleer of dit klopt.

    In de volgende tabel (Multivariate tests) ben je geïnteresseerd in de waarde van Wilk’s Lambda en de bijbehorende significantiewaarde (onder de Sig.-kolom). Wanneer de p-waarde gelijk is aan of kleiner dan .05 kan je concluderen dat er sprake is van een significant verschil. Om de effectgrootte te achterhalen, moet je kijken naar de Partial Eta Squared-kolom in de Multivariate Tests tabel. Zie de tabel in Deel 5 voor de effectgrootte-richtlijnen.

    Wanneer je een significant verschil hebt gevonden, betekent dit dat er ergens tussen je groepen een verschil is. Het vertelt je echter niet welke groepen of scores van elkaar verschillen; dit kun je aflezen uit de Pairwise Comparison tabel, waarin ieder paar groepen wordt vergeleken en wordt aangegeven of het verschil tussen de groepen significant is (zie de Sig.-kolom).

    Hoe gebruik je tweeweg ANOVA in SPSS? - Chapter 19 (6e druk)

    Two-way wil zeggen dat er twee onafhankelijke variabelen zijn. Between-groups geeft aan dat er in elk van de groepen verschillende deelnemers zitten. Aan de hand van de two-way between-groups ANOVA kan gekeken worden naar de individuele en gezamenlijke invloed van twee onafhankelijke variabelen op één afhankelijke variabele. Je kan dus niet alleen het hoofdeffect voor iedere onafhankelijke variabele toetsen, maar ook kijken of er mogelijk sprake is van een interactie-effect. Dit laatste effect vindt plaats wanneer de invloed van een onafhankelijke variabele op de afhankelijke variabele afhankelijk is van een tweede onafhankelijke variabele.

    Hoe voer je tweeweg ANOVA uit?

    1. Klik in het menu bovenaan het scherm op Analyze, vervolgens op General Linear Model en daarna op Univariate.

    2. Verplaats je afhankelijke (continue) variabele naar de Dependent variable box.

    3. Verplaats je onafhankelijke (categorische) variabelen naar de Fixed Factors box.

    4. Klik op Options en vervolgens op Descriptive Statistics, Estimates of effect size en Homogeneity of tests. Klik daarna op Continue.

    5. Klik op Post Hoc. Selecteer uit de Factors die aan de linkerkant staan de onafhankelijke variabelen waarin je geïnteresseerd bent en verplaats deze naar het Post Hoc Tests for gedeelte. Kies welke toets je wilt gebruiken (bijv. Tukey) en klik op Continue.

    6. Klik op de Plots-knop. Verplaats de onafhankelijke variabele met de meeste groepen naar de Horizontal box. Verplaats de overige onafhankelijke variabelen naar de Separate Lines box. Klik op Add. Als het goed is zie je nu in het Plots gedeelte je twee variabelen.

    7. Klik op Continue en vervolgens op OK (of op Paste om de Syntax Editor op te slaan).

    Hoe interpreteer je de resultaten van tweeweg ANOVA?

    Controleer in de Descriptive Statistics tabel of je beschrijvende statistieken (gemiddelde scores, standaarddeviaties en aantal deelnemers (N)) juist zijn.

    Check in de Levene’s Test of Equality of Error Variances of aan de assumpties is voldaan. Je wilt dat de significantiewaarde groter is dan .05. Een significant resultaat suggereert namelijk dat de variantie van je afhankelijk niet hetzelfde is over de verschillende groepen. Mocht dit het geval zijn, dan wordt aangeraden om een strenger significantieniveau (bijv. .01) te stellen om je resultaten van je two-way ANOVA te evalueren.

    De belangrijkste output van de two-way ANOVA vindt je in de tabel genaamd Tests of Between-Subjects. Het eerste dat je doet is kijken of er sprake is van een interactie-effect. Wanneer hier namelijk sprake van is, wordt het lastiger om de hoofdeffecten te interpreteren. Kijk in de output naar de variabele1 * variabele 2 significantiewaarde (onder de Sig.-kolom); wanneer deze kleiner is dan of gelijk aan .05 (of een andere vastgestelde alfawaarde), is er sprake van een significant interactie-effect. Wanneer je geen interactie-effect vindt, kan je de hoofdeffecten zonder zorgen interpreteren. In de linker kolom vind je de variabelen waarin je geïnteresseerd bent. Kijk naar de Sig.-kolom naast iedere variabele om vast te stellen of er sprake is van een hoofdeffect voor elke onafhankelijke variabele. Wanneer de significantiewaarde kleiner is dan of gelijk aan .05 (of een andere vastgestelde alfawaarde), is er sprake van een significant hoofdeffect voor die onafhankelijke variabele.

    De effectgrootte vind je terug in de Partial Eta Squared-kolom. Maak bij de interpretatie hiervan gebruik van de richtlijnen van Cohen.

    Als je significante verschillen hebt gevonden, moet je vervolgens kijken waar deze verschillen zich bevinden; dit doe je aan de hand van post-hoc toetsen. Deze toetsen zijn alleen relevant wanneer je onafhankelijke variabele uit meer dan twee niveaus/groepen bestaat. De resultaten van de post-hoc toetsen staan in de Multiple Comparisons tabel. De Tukey Honestly Significant Difference (HSD) test is een van de meest gebruikte tests. Zoek in de Sig.-kolom naar waarden kleiner dan .05. Significante resultaten staan ook aangeduid met een kleine asterisk in de Mean Difference kolom.

    Aan het eind van je output vind je een plot van de scores van de verschillende groepen. Aan de hand hiervan krijg je een overzichtelijk visueel beeld van de relatie tussen je variabelen. Kijk altijd wel goed naar de schaal wanneer je de plots interpreteert.

    Welke aanvullende analyses zijn nodig in geval van een significant interactie-effect?

    Wanneer je een significant interactie-effect vindt, is het raadzaam om follow-up toetsen uit te voeren om deze relatie nauwkeuriger te onderzoeken (alleen als een van je variabelen bestaat uit minimaal drie niveaus). Dit kan bijvoorbeeld aan de hand van een simpele effectenanalyse. Dit betekent dat je de resultaten van elk van de subgroepen afzonderlijk gaat bekijken. Hiervoor moet je de steekproef opsplitsen in groepen volgens een van je onafhankelijke variabelen en afzonderlijke one-way ANOVA’s uitvoeren om het effect van de andere variabele te kunnen onderzoeken. Volg hiervoor de volgende procedure:

    1. Klik in het menu bovenaan het scherm op Data en vervolgens op Split File.

    2. Klik op Organize output by groups.

    3. Plaats de groepeer variabele naar de Groups based on box. Dit splitst de steekproef op basis van deze variabele en herhaalt alle analyses die voor deze twee groepen volgen afzonderlijk.

    4. Klik op OK.

    Voer, nadat je je file hebt gesplitst, een one-way ANOVA uit. Let op: Als je klaar bent met de analyse, vergeet dan niet de Split File-optie uit te zetten. Ga hiervoor weer naar Data en selecteer Split File. Vink de eerste optie (Analyse all cases, do not create groups) aan en klik op OK.

    Book summary of SPSS Survival Manual by Pallant - 6th edition

    Book summary of SPSS Survival Manual by Pallant - 6th edition


    How do you design a study that uses SPSS? - Chapter 1

    Introduction: What is SPSS?

    SPSS is a statistical computer program used by scientists to collect, analyze and process data. It is mainly used to investigate research results. The abbreviation SPSS stands for Statistical Package for the Social Sciences. The program is therefore used in particular in social science.

    Three important situations in which you can use SPSS:

    1. Checking the reliability of a sample. If you want to do a research in the Netherlands, it is of course not feasible to test every resident. For this reason, we almost always use a sample (a selection of people from the population). It is important that this sample is as representative as possible for the entire population so that the outcome results can be well generalized (after all, you want to say something about the entire population and not just about the sample).

    2. Checking the reliability of your results. SPSS can provide information as to whether the connection you have found (for example, men vote for SGP (i.e., a Dutch political party) more often than women) is a coincidence or whether the difference has something to do with something else.

    3. Visualize data. It can be useful to visualize your results through graphs and tables. You can do this by using SPSS.

    General information related to research

    SPSS can answer research questions by doing analyzes; tests. An example of a research question is: do men more often choose a technical profession than women? The first step is to collect your data (what percentage of men choose a technical profession and what percentage of women). This data is mentioned in SPSS data . When you have collected your data (for example by means of questionnaires) you can enter this data in SPSS. You can then have SPSS perform a test that examines whether there is actually a difference between the data of men and women.

    How to plan the set up of a study?

    A good research study is highly dependent on a detailed planning. The book gives the following tips when starting an study:

    • Choose the design of your research (for example, experiment, questionnaire, observational). Weigh all the pros and cons of each method.

    • If you opt for an experiment: decide whether you opt for an between-groups design (different test subjects in each experimental condition) or a repeated measures design (all test subjects in all conditions).

    • If you choose an experiment: make sure you have enough levels in your independent variable.

    • Always select more test subjects than necessary (given the high risk of dropping out).

    • If possible, randomly assign test subjects to each experimental condition. It is important that these groups do not differ in other matters (check this with a covariance analysis).

    • Choose reliable and valid dependent variables.

    • Anticipate possible confounding variables. These are variables other than the independent variable that can provide a possible explanation for your result. If possible, check variables for these confounding.

    • If you choose a questionnaire study (survey), check in advance whether the instructions, questions and scales are clear. You do this through pilot testing.

    How to choose the appropriate scales and methods?

    When choosing the right scale and method, two concepts are important: reliability and validity. Both terms can influence the quality of your data.

    Reliability

    The reliability of a scale indicates to what extent the scale is free from random error. There are two types of reliability:

    1. Test-retest reliability: this is measured by offering the relevant scale to two different people in two different situations and then calculating the correlation between these two scores. The higher this correlation, the greater the test-retest reliability.

    2. Internal consistency: the extent to which the items of a scale are interrelated. This can for example be calculated with the Cronbach's cofficient alpha in SPSS. A Cronbach's alpha of .7 or greater indicates a reliable scale.

    Validity

    The validity of a scale refers to the extent to which the methods measure what they are intended to measure. There are different forms of validity:

    1. Content validity: the degree of accuracy with which the method or scale covers the intended domain or content.

    2. Criterion Validity: the relationship between different scales and a specified measurement criterion.

    3. Construct validity: the relationship with other constructs, both related constructs (convergent validity) and unrelated constructs (discriminant validity).

    How to prepare a questionnaire?

    When drawing up a questionnaire, it is important to keep in mind which statistical methods you need to analyze the data. Depending on the statistical technique you have to ask a specific question in a specific way.

    Types of questions

    Many questions can be classified into two groups: open questions and closed questions. A closed question gives respondents multiple answer options. Closed questions can be quickly converted into a numerical format in SPSS. For example, answer 'yes' can be coded with number 1 and answer 'no' with number 2. The answers to open questions can be divided into different categories, for example work or relationships. A combination of open and closed questions often works best in an study.

    Format of answers

    It is important to choose the right scale when drawing up answer formats. For example, if you want to calculate a correlation, you need to know the exact ages. In addition, it is often useful to use a Likert-type scale. People do not simply answer whether or not they agree with the question, but to what extent (for example, on a scale of 1 to 6).

    SPSS is a statistical computer program used by scientists to collect, analyze and process data. It is mainly used to investigate research results. The abbreviation SPSS stands for Statistical Package for the Social Sciences. The program is therefore used in particular in social science.

    Three important situations in which you can use SPSS:

    1. Checking the reliability of a sample. If you want to do a research in the Netherlands, it is of course not feasible to test every resident. For this reason, we almost always use a sample (a selection of people from the population). It is important that this sample is as representative as possible for the entire population so that the outcome results can be well generalized (after all, you want to say something about the entire population and not just about the sample).

    2. Checking the reliability of your results. SPSS can provide information as to whether the connection you have found (for example, men vote for SGP (i.e., a Dutch political party) more often than women) is a coincidence or whether the difference has something to do with something else.

    3. Visualize data. It can be useful to visualize your results through graphs and tables. You can do this by using SPSS.

    How do you make a codebook for SPSS? - Chapter 2

    How to prepare SPSS data?

    Before you can enter all information from questionnaires and experiments in IBM SPSS it is necessary to make a codebook. This is a summary of the instructions that you will use to convert the information of each test subject into a format that IBM SPSS can understand. Preparing a codebook consists of (1) defining and labeling each variable, and (2) assigning numbers to all possible answers.

    A codebook basically consists of four columns:

    1. The abbreviated name of the variable (for example 'ID' for 'identification number)
    2. The written name of the variable (for example 'identification number')
    3. An explanation of how the possible answers are taught (for example 1 = men, 2 = women)
    4. The measurement scale (for example nominal)

    What is a variable?

    A variable is an element that can assume a certain value. It is an element that you would like to measure and analyze. Examples of a variable are 'gender', 'age', 'education level' and 'IQ'. With SPSS you can investigate whether your variables are interdependent (for example education level and IQ) or whether a certain variable predicts another variable (for example: do men achieve higher IQ scores than women?).

    The dependent variable

    The dependent variable is the variable about which you make a prediction or the outcome of your measurement. An example is intelligence. You can then investigate which factors (independent variables) influence intelligence (the dependent variable). The outcome of the dependent variable therefore depends on other variables (hence the name).

    The independent variable

    The independent variable is a factor for which you will measure whether it causes a change in the dependent variable. For example, if one wants to do a research on the influence of drinking alcohol on exam results, the independent variable is the amount of alcohol and the dependent variable is the exam result.

    What are measurement scales?

    It is important to know from which measurement level your variable is, and then make a good choice for your statistical test (the method with which you want to investigate your research question). There are roughly four measurement scales: nominal, ordinal, interval and ratio. These scales are discussed below.

    Discrete variables (nominal and ordinal)

    A discrete variable can only assume a few fixed values. This includes the nominal scale and the ordinal scale. First, the nominal scale is a qualitative measurement scale with separate categories, for example gender (male / female). Second, measurements at ordinal level have a natural order. The order is clear, but the differences cannot be interpreted. An example are the selective Dutch secondary educational levels (i.e., VMBO-HAVO-VWO). The differences between these educational levels are not all the same. That is, the difference between VMBO and HAVO is not equal to the difference between HAVO and VWO.

    Continuous variables (interval and ratio)

    A continuous variable is a variable that can be measured in numbers, with the intervening values ​​having meaning. This includes the interval scale and the ratio scale. With an interval scale, the differences between scores as opposed to an ordinal scale are the same. The difference between 10 and 11 on a test is just as large as the difference between 50 and 51. However, an interval scale does not have an absolute zero. That is why you cannot say how much higher a value is. A good example of this is the Fahrenheit scale: 30 degrees is not twice as hot as 15 degrees. A ratio scale has the same characteristics as an interval scale, but a ratio scale does have an absolute zero. After all, 50 centimeters is twice as long as 25 centimeters.

    Categorical and dichotomous variables

    A categorical variable is a variable that does not assume numbers, but is subdivided into categories. The most commonly used example is male / female.

    A dichotomous variable is a variable that only has two options, such as right / wrong.

    Which rules should be met for naming a variable?

    Every question or item in your questionnaire must be given a unique variable name. There are a number of rules that a variable name must meet:

    • Each variable must be given a different name and must therefore be unique.
    • Each variable must start with a letter (not with a number).
    • A variable cannot contain a symbol (for example!,?) or space.
    • A variable cannot contain a word that is used by IBM SPSS as a command (for example, all, ne, eq).
    • A variable cannot contain more than 64 characters

    How to code the response?

    Each result is given a numerical code, for example 1 for women and 2 for men.

    With open questions you make an inventory of the most common answers. For example with the question 'What makes you experience stress?' you can divide the answers into work = 1, relation = 2, etc. It is also useful to create a residual category for other answers (other = 99).

    Before you can enter all information from questionnaires and experiments in IBM SPSS it is necessary to make a codebook. This is a summary of the instructions that you will use to convert the information of each test subject into a format that IBM SPSS can understand. Preparing a codebook consists of (1) defining and labeling each variable, and (2) assigning numbers to all possible answers.

    A codebook basically consists of four columns:

    1. The abbreviated name of the variable (for example 'ID' for 'identification number)
    2. The written name of the variable (for example 'identification number')
    3. An explanation of how the possible answers are taught (for example 1 = men, 2 = women)
    4. The measurement scale (for example nominal)

    How do you start with IBM SPSS? - Chapter 3

    How to open IBM SPSS?

    There are different ways to start IBM SPSS.

    • The simplest way is to click on the SPSS icon on your desktop. Place your cursor on the icon and click twice.

    • You can also open IBM SPSS by clicking Start, placing your cursor on All Programs, and then going to the list of all available programs. See if you can find a folder here called IBM SPSS Statistics, in this case IBM SPSS Statistics 24.

    • IBM SPSS will also start up if you double-click an IBM SPSS data file in Window Explorer.

    How to open an existing SPSS file?

    If you want to open an existing SPSS data file, click on File in the IBM SPSS menu and then choose Open and Data. The Open file section allows you to search for the desired file. You can also always open a data file from the hard drive of your computer. If you have a data file on a USB stick, first copy it to your computer. You can then open the file by clicking the icon twice. The file will then open in the Data Editor.

    How to work with SPSS files?

    Save a data file

    It is important to always save your data when you are working with it. Saving does not happen automatically in IBM SPSS. To save a file, go to the File menu, then choose Save. You can also click on the icon that looks like a floppy disk. You can see this at the top left of your screen. Always ensure that your file is saved on your computer and not on an external drive. When you save the file for the first time, you must create a name for the file and choose a folder where you want to save the file. IBM SPSS automatically ensures that your file is saved with .sav at the end.

    Open another data file

    If you are working on a data file and you want to open a new file, click on File and then Open and Data. Find the folder where your file is stored. Click on the desired file and then click on the Open button. The second file will then be opened in a new screen.

    Create a new data file

    To create a new data file, click on File and then on New and Data. You can then define your variables and enter new data.

    How to deal with different screens?

    IBM SPSS is a program that consists of different screens or 'windows'. To open these screens you first have to open an existing data file or create your own data file. To open an existing dataset, click on 'File' in the menu and then on 'open'. Then choose 'datas' for your dataset. The most important screens in SPSS are the 'Data Editor', the 'Viewer', the 'Pivot Tabe Editor', the 'Chart Editor' and the 'Syntax Editor'.

    The Data Editor

    The Data Editor consists of the content of your data file. In this screen you can create and / or save datasets, make changes to existing data and perform statistical analyzes.

    The Viewer Editor

    When you perform analyzes, the Viewer Editor (your output) starts automatically. This screen consists of two parts. On the left is a navigation showing all the analyzes that you have performed. On the right side you can see the results of your analyzes, for example tables and graphs.

    When you save the output of IBM SPSS, this is done in a separate file ending in .spv. Data files always end with .sav. To save the results of your analyzes it is important to have the Viewer screen open. Click on File and then on Save. Choose the folder where you want to save the output and create a new name. Then click Save.

    It is important to know that an output file can only be opened in IBM SPSS. If you send your file to someone else who does not have the IBM SPSS program, he or she cannot open your file. To remedy this, you can export your output. Select File and then Export. You can now choose the type, for example PDF or Word. Then choose the Browse button to create a folder in which you want to save the file and choose a suitable name in the Save File line. Then click Save and OK.

    You can use the navigation bar (left in the screen) to print out certain sections of your output. Highlight the sections you want to print. Click on the first section, then hold down the Ctrl key and click on the File menu and on Print.

    The Pivot Editor

    You can adjust the tables that you can see in the Viewer screen (the output). This is possible through the Pivot Editor. To adjust a table, select the desired table and click twice on the table. You can then use the Pivot Editor to, for example, change the size, font or dimensions of the columns.

    The Chart Editor screen

    When you ask SPSS to make a graph, it first appears in the Viewer screen. If you want to adjust the graph, you must activate the Chart Editor screen. You do this by selecting the relevant graph (double click).

    The Syntax Editor screen

    In the Syntax Editor screen you can see the commands that SPSS uses to perform certain analyzes. If you want to perform an analysis again, you can indicate this in your Syntax screen. You then select the desired command and then click on Run. If you would like the command of your analysis to appear in the Syntax screen, click on Paste instead of OK.

    What are dialog boxes?

    When you select a menu option, further information is often requested. This is done in a dialog. For example, there is a dialog box when you use the "Frequencies" analysis.

    To select the variable on which you want to perform the analysis, select the variable and then press the arrow key (arrow pointing to the right). If you want to select multiple variables, select them by holding down the Ctrl key simultaneously. To easily find the right variables, select one of the variables and right-click. Then choose Sort Alphabetically . Now the variables are sorted alphabetically and you can easily find the desired variables. To remove a variable that you have selected from the selection, select the variable in the dialog box and click the arrow key (arrow pointing to the left).

    You will often find the same buttons in the dialog box.

    • OK: Click this button when you have selected your variables and you are ready to perform the analysis.

    • Paste: This button ensures that your analysis is transported to the Syntax Editor. This can be useful when you want to execute a certain command multiple times.

    • Reset: This button is used to clear the dialog.

    • Cancel: If you click on this button, all commands you have given for the technique or procedure will be deleted.

    • Help: If you click on this button, additional information about the technique or procedure you want to perform will appear.

    How to close IBM SPSS?

    If you want to close IBM SPSS, click on File and then on Exit. IBM SPSS will then show you a reminder to save your file before closing the program. It is important to save both your data file and your output.

    There are different ways to start IBM SPSS.

    • The simplest way is to click on the SPSS icon on your desktop. Place your cursor on the icon and click twice.

    • You can also open IBM SPSS by clicking Start, placing your cursor on All Programs, and then going to the list of all available programs. See if you can find a folder here called IBM SPSS Statistics, in this case IBM SPSS Statistics 24.

    • IBM SPSS will also start up if you double-click an IBM SPSS data file in Window Explorer.

    How do you create a file and enter your data in SPSS? - Chapter 4

    How to change the options?

    You can use the options for all kinds of options to display variables, the type of tables you want to get as output and more. Options can be found under Edit. Make sure you first select what you want in all tabs, and then click OK.

    General tab

    Here you can choose to display variables alphabetically or in the order in which they appear in the file, the latter being more in line with research in most cases. To do this, click on File under Variable Lists. For a clear overview of numbers, click on Output at No scientific notation for small numbers in tables.

    Data tab

    Here you choose how data is displayed.

    Output tab

    This allows you to customize the name of variables and labels.

    Pivot tables tab

    Here you can choose the design of tables.

    How to define the variables?

    The Data Editor (the main SPSS screen) is subdivided into two different tabs; Data View and Variable View (these tabs can be found at the bottom left of the screen). Before you can enter data, variables must first be created. In the Variables View tab you can define your variables. You then enter all your data in the Data view tab. When you have performed an analysis, the output screen appears.

    Variable View

    You can create the variables in this tab. Each row represents a variable. You can enter information about the variable in each column.

    • Name: The name of the variable

    • Type: Type of data, often these are just numbers or numeric variables. It is also possible that data or letters are used, for example. If you want to enter the type, select the cell and press the blue square with dots. You can then choose the type of variable in a new screen (for example, numeric, dollar, or date).

    • Width: How many positions are available

    • Decimals: Number of decimals

    • Labels: Text with which you can explain the name of the variable

    • Values: Enter the values ​​of the labels here. An example may be that your variable is gender and the code is 0 for men and 1 for women. To enter the values, select the cell and click on the blue square with the dots. Then you write '0' for value and 'man' for the label.

    • Missing: Here you can specify a value that you used to indicate 'no answer'. Here too, select the blue square to enter the values.

    • Columns: Width of the column in data view.

    • Align: Alignment

    • Measure: At which level the data was measured: nominal, ordinal or scale.

    • Role: The role that the variable plays in your data set. You can select here whether it is a dependent variable ('target') or an independent variable ('input').

    There are four steps in determining variables:

    1. Create variables
    2. Assign labels to the answer categories and the missing values
    3. Entering data
    4. Clean up data

    How to enter variables and data?

    There are two ways to create a new variable. In the first way, a new variable is created by entering new data. In the second way, a variable is created that is based on existing data in the data set. For example, two variables are then combined to create a new, third variable.

    Method 1: New variable, enter data manually.

    1. Click on Variable View at the bottom left of the screen.

    2. Then type the name of your variable at the first row. You can indicate at Label what exactly the variable measures. At Values you can indicate what each answer means. You do not have to enter this for open questions!

    3. Make sure that you check well with Measures which measurement level the variable has.

    Method 2: New variable based on existing variables

    Compiled summary, based on Chapter 4 of Pallant's SPSS Survival Manual, 6th edition from 2016. Example in SPSS: averaging different variables.

    1. Click on Transform Compute Variable

    2. Enter the name for the new variable under Target Variable.

    3. You can then click on Statistical under Function group. All kinds of options that you can do appear under Functions and Special Variables. For example, if you click on Mean, you can merge the average of a few variables into a new variable. MEAN (?,?) Appears in the Numeric Expression block.

    4. Now you can drag the variables from the list on the left to the Numeric Expression block, so that the question marks are replaced by the names of the variables.

    If you then click on OK, you can find the newly created variable with the associated values ​​in the dataset.

    How to edit existing data?

    Remove a test subject from the data

    You can adjust the entered data in the data editor. To delete a test subject, select the row of the test subject in question and click on delete (on the keyboard). You can also use SPSS through the following steps: Edit Clear

    Add a test subject among the other test subjects

    Move your cursor to a cell in the row directly below the row where you want to add a new test subject. Click on Edit and then choose Insert Cases. An empty row will then appear where you can enter new data.

    Delete a variable

    Position your cursor to the section above the column that you want to delete. Click once to select the entire column. Then click on delete on your keyboard. You can also click on Edit in the menu and then on Clear.

    Add a variable between another variable name

    Position your cursor in a cell in the column to the right of the variable next to which you want to place a new variable. Click on the Edit menu and choose Insert variable. An empty column will appear in which you can enter data from the new variable.

    Move a variable

    Left click on the variable you want to move, hold and drag the variable to the new location.

    How to insert Excel data?

    It is also possible to export data from an existing file from Excel. For example, you can prepare your data in Excel and then put it in IBM SPSS. To do this, complete the following steps. Open IBSM SPSS. Then click on File, Open, Data. In the Files or type section you choose Excel. Excel files always end with .xls or .xlsx. Find the file of your choice. Click on the file so that it appears in the File name. Then click on the Open button. A screen called Opening Excel Data Source will open. Make sure Read variable names from the first row or data is checked. Then click OK. You can then save the new file as an IBM SPSS file. Choose File, then Save as. Type a new name. Note that the Save as Type is set to SPSS Statistics (* .sav). Then click Save. In the Data Editor, Variable View, you will now have to add extra information regarding Labels, Values and Measure. You will also probably have to change the width of the columns.

    What else can you do with the data?

    Split data

    Sometimes it is useful to create different groups within your data to compare these groups. This way you can, for example, compare the data of men and women with each other. To be able to do this, you must split your data file into SPSS. You then ensure that, for example, all men are in one group (group 1) and all women (group 2).

    Procedure

    Now follow the procedure for splitting your data file.

    1. Go to Data and choose Split File.

    2. Click on Compare groups and specify your group variable (in this case gender). Click OK.

    You now see in your data file (Data View) that all test subjects are sorted by gender. First you see all men, then all women.

    Select data

    For some analyzes you only need a part of your sample. For example: only the men. You must then select this group in SPSS. You do this by using the Select Cases option. When you have selected the group of men, all women are deleted in SPSS. All analyzes that you will subsequently do will only be done for men.

    Procedure

    Now follow the procedure for selecting a part of your sample (in this case men).

    1. Choose Data for Select Cases.

    2. Click on If condition is satisfied.

    3. Click the IF button .

    4. Choose the variable on which you want to select your group (in this case gender).

    5. Click on the arrow button and drag the variable to the section. Click the = key of the keyboard on the screen.

    6. Type in the value that corresponds to the value for men in your codebook. Look for this in your Variable View.

    1. Click Continue and OK.

    2. Then click on If at If condition is satisfied -> then select the variable

    In the Data View you can now see that all women (gender = 1) have been deleted. Only the men (gender = 0) are selected.

    How to merge files?

    Sometimes it is necessary to merge data files. If the files have the same variables and use the same variable names, you can merge the files by adding the data. However, it may be necessary to add new variables first.

    Merge files by adding data

    The following is the procedure for merging files by adding data.

    1. Open the file that you want to add.

    2. Go to Data and choose Merge Files and then Add Cases.

    3. Click in the dialog on An external SPSS data file.

    4. Click Continue, OK and File, save as to give the file its own name.

    Merge files by adding variables

    The following is the procedure for merging files by adding data.

    1. Sort the files in ascending order via Data, click Composite summary, based on Chapter 4 of Pallant's SPSS Survival Manual, 6th edition from 2016. at Sort Cases, click ID and then OK.

    2. Go to Data, click on Merge Files and then Add Variables.

    3. Click in the dialog on An external SPSS data file.

    4. Check in the Excluded variables box if you see the added variables. Make sure that each variable has a unique name, so that two different variables do not have the same name.

    5. Click on the variable that you want to add, and then on the box Match cases on key variables. Move the variable to the Key variables box, and click OK.

    6. Save the merged file under a new name with File, save as.

    How do you screen and clean up data in SPSS? - Chapter 5

    Typing errors

    It is always very important to run through your data for example on typing errors. You can of course check all entered data again with the original data, but this takes a lot of time. An easier way is to request Frequencies. You do this by following the following steps: Analysis Descriptive Statistics Frequencies.

    Screening and cleaning up the data

    Before you can analyze your data it is important to check your data file for errors, possible errors. First, it is important to see if you have made typos (see above). In addition, it is essential to investigate whether there are other errors with your data. For this you follow the following steps:

    • Step 1: Checking for errors. First it is necessary to check all scores of all variables. You then investigate whether there are certain scores that fall outside the normal range.

    • Step 2: Finding and checking error in the data file. It is then necessary to find out where the error is in the data file. This error must then be corrected or removed.

    How to check for errors?

    When you check your file for errors, you particularly check whether there are values ​​that fall outside the normal range of possible scores. For example: when variable 'gender' is coded with 0 or 1 (where 0 = male and 1 = female), it is not possible to find scores other than 0 or 1. Scores that have a number other than 0 or 1 ( for example 2 or 3) should therefore be removed or adjusted. There are different ways to find errors with IBM SPSS. These can be roughly divided into two methods: one for error with categorical variables and one for error with continuous variables.

    Checking categorical variables

    Use the following procedure to check error with categorical variables.

    1. Click on Analyze and then on Descriptive Statistics and then on Frequencies.

    2. Choose the variables that you want to check (for example, gender). To find a variable easily, you can sort your variable list by alphabet.

    3. Click on the arrow button (pointing to the right) to move the desired variables to the variables window.

    4. Then click Statistics. Check Minimum and Maximum in the Dispersion section.

    5. Then click Continue and then OK (or Paste to save everything in the Syntax Editor).

    The syntax is generated as follows:

    FREQUENCIES VARIABLES = gender
    / STATISTICS = MINIMUM MAXIMUM
    / ORDER = ANALYSIS.

    In this example you see that there is one error in the data file. There is one test subject where the gender is coded with number 2 (instead of 0 or 1). Therefore, check with this test subject whether there is a male or female gender. Then change the data of this test subject.

    It can also happen that a test subject has forgotten to enter data for the relevant variable. You can find this in the table under Missing.

    In this example it can be seen, for example, that the data for variable gender is missing in one test subject. Find this test subject and see if you can correct the data (see below).

    How to find and correct errors in the data file?

    What to do when you have found responses that fall outside the normal range? Then it is important to trace these test subjects. You can do this by taking the following steps:

    • Click on Data and then choose Sort Cases.

    • In the dialog you then choose the variable for which you knew that there was an error (in this case, 'gender'). Click on the arrow button (pointing to the right) and move the variable to the Sort By window. Then choose ascending (from low to high) or descending (from high to low). In our example we would like to find the test subject who had the answer option '2' at gender. In this case we opt for descending.

    • Then click OK.

    Checking continuous variables

    Follow the following procedure to check error with continuous variables.

    1. Click on Analyze and then on Descriptive Statistics and then on Descriptives.

    2. Choose the variables that you want to check (for example, gender). Click on the arrow button (pointing to the right) to move the desired variables to the variables window.

    3. Click on Options. You can choose what you want to show: average, standard deviation, or minimum and maximum.

    4. Then click Continue and then OK (or Paste to save everything in the Syntax Editor).

    The syntax is generated as follows:

    DESCRIPTIVES
    VARIABLES = age
    / STATISTICS = MEAN STDDEV MIN MAX

    View whether the minimum and maximum are logical, for example an age of 2 to 82. Also check whether the average is logical, or whether there are certain data that make the average deviate considerably.

    What are case summaries?

    Summarize Cases gives you a table with specific information for each test subject. You follow the following steps to obtain this summary:

    1. Click on Analyze, go to Reports and then choose Case Summaries.

    2. Choose the variables that you are interested in (in this case gender, province and age).

    3. Click Statistics and remove Number of Case from the Cell Statistics window. Then click Continue.

    4. Click on Options and remove Subheadings for totals.

    5. Click Continue and then OK (or Paste if you want to save the analysis in the Syntax Editor).

    The syntax is generated as follows:

    SUMMARIZE
    / TABLES = gender province age
    / FORMAT = VALIDLIST NOCASENUM NOTOTAL LIMIT = 5
    / TITLE = 'Case Summaries'
    / MISSING = VARIABLE
    / CELLS = NONE.

    In the example only a summary is given of the first five test subjects. You can indicate this by noting the number under Display Cases under Limit cases to first (in this case 5).

    It is always very important to run through your data for example on typing errors. You can of course check all entered data again with the original data, but this takes a lot of time. An easier way is to request Frequencies. You do this by following the following steps: Analysis Descriptive Statistics Frequencies.

    How do you use SPSS for descriptive statistics? - Chapter 6

    When you are sure that there is no error in your data file, you can start with the descriptive phase of your data analysis. We called this descriptive statistics. These have as purpose:

    • Describe the characteristics of your sample in the method section of your article

    • Checking your variables to investigate whether you meet certain assumptions associated with the statistical techniques you want to implement to answer your research questions

    • Asking specific research questions

    When it comes to research with human subjects, it is almost necessary to collect general characteristics. Consider the number of people in the sample, the number or percentage of men and women, the ages, and level of education.

    Examples of descriptive statistics are the average, the standard deviation and the distribution of the scores.

    Procedure for creating a codebook

    If you only want a quick summary of the characteristics of your variables in your data file, you probably need a codebook. The following is the procedure for obtaining a codebook.

    1. Click Analyze and go to Reports and choose Codebook.

    2. Select the variables you want (for example, gender, age) and drag these variables to the Codebook Variables window.

    3. Click on the Output sheet and uncheck all Options except Label, Value Labels and Missing Values.

    4. Click on Statistics and make sure that all options in both sections are checked.

    5. Click OK (or Paste to save everything in the Syntax Editor).

    The syntax is then as follows:

    DATASET ACTIVATE DataSet1.
    CODEBOOK gender [n] age [s]
    / VARINFO LABEL VALUELABELS MISSING
    / OPTIONS VARORDER = VARLIST SORT = ASCENDING MAXCATS = 200
    / STATISTICS COUNT PERCENT MEAN STDDEV QUARTILES.

    This output gives you a quick summary of the test subjects in your data file. If you want more detailed information you can get it through Frequencies, Descriptives or Explore. You can use Frequencies to obtain information from categorical variables .

    What is the procedure for obtaining descriptive statistics for categorical variables?

    To get descriptive statistics of categorical variables you use the Frequencies function. You can find this by following these steps:

    1. Go to Analyze and then to Descriptive Statistics and then to Frequencies.

    2. Then choose the categorical variables that you are interested in. Move this to the variable box.

    3. Then click OK (or Paste if you want to save it in the Syntax Editor).

    The syntax associated with this procedure is:

    FREQUENCIES
    VARIABES = gender
    / ORDER = ANALYSIS

    What is the procedure for obtaining descriptive statistics for continuous variables?

    For continuous variables (for example age) it is easier to use Descriptives. This analysis provides the basic 'summary' statistics such as the average, the median and the standard deviation. You can find the confidence interval through Explore.

    The procedure associated with obtaining descriptive statistics for continuous variables is:

    1. Click on Analyze then select Descriptive Statistics and then Descriptives.

    2. Click on all continuous variables for which you would like to obtain descriptive statistics. Then click on the arrow button (pointing to the right) to move these variables to the Variables section.

    3. Click on Options. Make sure the following statistics are checked: mean, standard deviation, minimum, maximum and then also click on skewness and kurtosis.

    4. Click Continue and then OK (or Paste to save the analysis in the Syntax Editor).

    The syntax generated with this procedure is:

    DESCRIPTIVES
    VARIABLES = age
    / STATISTICS = MEAN STDDEV MIN MAX KURTOSIS SKEWNESS

    The Skewness function provides information about the symmetry of the distribution of the scores. Kurtosis provides information about the peak of distribution. If the distribution of the scores were perfectly normal, both the skewness and the kurtosis would be zero. A positive value of skewness indicates that the scores are mainly on the left. Negative values ​​suggest that the scores are on the right side of the mean. A kurtosis of almost zero indicates a distribution that relationships are flat (too many test subjects in the extreme scores).

    How to discover missing data?

    When conducting research, in particular on people, you rarely get all the information from every case. That is why it is important that the research also looks at the missing data. This is possible in SPSS using the Missing Value Analysis procedure (bottom option in the Analyze menu). You must also decide how to deal with missing data when performing statistical analyzes. The Options button in many of the statistical procedures in SPSS offers various options regarding dealing with missing data. It is important that you choose carefully, since it can have major consequences for your results. The different options for dealing with missing data are:

    • The Exclude cases listwise option includes all cases in the analyzes, provided there is no missing data. A case involving missing data is completely excluded from the analysis.

    • The Exclude cases pairwise option (sometimes also referred to as Exclude cases analysis by analysis) only excludes cases if the data required for a specific analysis is missing. They are included in an analysis for which they contain the required information.

    • The Replace with mean option calculates the average value for the variable and gives this value to every missing case. This option should never be used because it can seriously disrupt the results of your analysis.

    It is strongly advised to use the exclude cases pairwise option , unless there is a very urgent reason to do otherwise.

    How to measure normality?

    The following is the procedure for measuring normality through Explore.

    1. Choose Analyze and select Descriptive statistics and then Explore.

    2. Click on the variables in which you are interested. Click on the arrow button (pointing to the right) and drag these variables to the Dependent list.

    3. Place Cases in the Labels by your independent variable.

    4. In the Display section: make sure Both is selected.

    5. Click on Statistics and click on Descriptives and Outliers. Then click Continue.

    6. Then click on Plots and under Descriptives on: Histogram. Then uncheck Stem-and-leaf. Click on Normality plots with tests and then click on Continue.

    7. Click on Options. In the Missing Values section you click on Exclude cases pairwise. Then click Continue and OK (or Paste to save the analysis in the Syntax Editor).

    The syntax is generated as follows:

    EXAMINE VARIABLES = age
    / ID = gender
    / PLOT BOXPLOT HISTOGRAM NPPLOT
    / COMPARE GROUPS
    / STATISTICS DESCRIPTIVES
    / CINTERVAL 95
    / MISSING PAIRWISE
    / NOTOTAL.

    Interpretation of the output of normality

    A lot of output comes from measuring normality. You can interpret the output as follows.

    Trimmed mean

    This function removes 5% of the upper and 5% of the lower of the data, and calculates a new average on which the strongly deviating data have had less influence. If you compare this new mean with the original mean, you can see how much influence the most deviating data have. You can see the most abnormal data in Extreme Values.

    Skewness and kurtosis

    The Skewness function provides information about the symmetry of the distribution of the scores. Kurtosis provides information about the peak of distribution. The skewness and kurtosis functions together provide information about the distribution of scores across the different groups.

    Kolmogorov-Smirnov

    The Kolmogorov-Smirnov test can be used to investigate whether the results are normally distributed. You perform this test with 'Explore'. You then follow the following steps: Analysis Descriptive statistics Explore. Then choose your dependent variable. Then go to Plots. At Boxplots you check None. Then check Normality plots with tests. Under Descriptive you click Stem-and-leaf and click on Histogram. Click on Continue.

    You then look at the Tests of Normality table in your output. A non-significant result (p> .05) indicates a normal distribution. There is a significant p-value in the table, which means that the assumption of normality cannot be met. This is often the case with large samples.

    Histograms

    The form of the distribution per group can be seen with Histograms. This allows you to see if there is a normal distribution.

    Box plot

    The Boxplot represents 50% of the cases with a rectangle. The lines outside represent the smallest and largest value. Sometimes circles are displayed in a boxplot, these are the outliers.

    How to check whether there are outliers?

    Outliers consists of test subjects who have extremely high or extremely low values ​​in comparison with the majority of the data set. Various techniques are possible to check for outliers, for example by means of a histogram, box plot or information in the descriptives table. When you have found outliers, you can create new variables that do not contain outliers.

    1. You can first view the variable separately by means of AnalyzeDescriptivesFrequencies.

    2. You can now use the recode function if, for example, the data can only have the values ​​1 to 10 but also contains 100. If this is the case, you can create a new variable by means of 'Recode into different variable'. For the latter: click on Analyze Descriptive Statistics Explore

    3. Click on the variable that you are interested in.

    4. Then click on Statistics and click on OutliersContinueOK

    When you are sure that there is no error in your data file, you can start with the descriptive phase of your data analysis. We called this descriptive statistics. These have as purpose:

    • Describe the characteristics of your sample in the method section of your article

    • Checking your variables to investigate whether you meet certain assumptions associated with the statistical techniques you want to implement to answer your research questions

    • Asking specific research questions

    When it comes to research with human subjects, it is almost necessary to collect general characteristics. Consider the number of people in the sample, the number or percentage of men and women, the ages, and level of education.

    Which graphs can you use to display data? - Chapter 7

    In SPSS there are different types of graphs and charts that you can use to display data. The views discussed here are histograms, bar charts, line charts, scatter charts, and boxplots.

    In the Graph menu in SPSS there are various options for creating graphs, the easiest method is to use the Chart Builder.

    How to create a histogram?

    You use a histogram in the case of a single continuous variable. You create a histogram as follows:

    1. Compiled summary, based on Chapter 7 of Pallant's SPSS Survival Manual, 6th edition from 2016. Select the Chart Builder in the Graph menu and click OK.

    2. Select the Histogram option under Gallery.

    3. Drag the Simple Histogram option to the Chart Preview location.

    4. Choose your variables in the Variables list and drag it to Chart Preview, to the X-Axis so that the variable is projected on the x-axis.

    5. You can create a histogram per group. Under Groups / Point ID option Column Panels variable (for graphs side by side) or Rows panel variable (for graphs below each other).

    6. Drag the categorical variable for the entire group (for example, age) to Panel (at the Chart Preview spot).

    7. Click OK, or Paste to save everything in the Syntax Editor.

    A histogram shows the output in bars facing upwards.

    How to make a bar chart?

    You use a bar chart in case of continuous variables for different categories, or if you want to show the number of cases of a certain category. For a bar chart you need a categorical variable and a continuous variable. You make a bar chart as follows:

    1. Select the Chart Builder in the Graph menu and click OK.

    2. Under Gallery, select the Clustered Bar option and drag it to the Chart Preview.

    3. Under Element Properties on Display error bars, and click Apply.

    4. Drag the categorical variable for a group (for example, age) to Cluster on X: set color (at the Chart Preview location).

    5. Drag the other categorical variable (for example, hair color) onto the X-Axis so that the variable is projected on the x-axis.

    6. Drag the continuous variable (for example, weight loss) to the Y-Axis so that the variable is projected on the y-axis.

    7. Click OK, or Paste to save everything in the Syntax Editor.

    A bar chart displays a predetermined categorical variable on the x-axis and a continuous variable on the y-axis. For another categorical variable, the output is displayed in bars (bars).

    How to make a line graph?

    You use a line graph for the average of a continuous variable at different values ​​of a categorical variable (for example trimester 1, trimester 2, trimester 3). You can also display one-way or two-way ANOVA with a line graph. Make a line graph as follows:

    1. Select the Chart Builder in the Graph menu and click OK.

    2. Under Gallery, select the Multiple Line option and drag it to the Chart Preview.

    3. Drag the continuous variable (for example, weight loss) to the Y-Axis so that the variable is projected on the y-axis.

    4. Drag one of the categorical variables (for example, age) to Set Color and the other categorical variable (for example, hair color) to X-Axis.

    5. Click OK, or Paste to save everything in the Syntax Editor.

    With a line graph you show the progress of the categorical variables on the x-axis in the form of lines. The continuous variable is displayed on the y-axis.

    How to make a scatter diagram?

    You use a scatter plot in the case of a relationship between two continuous variables. A scatter diagram provides the following information:

    • Whether the variables have a linear or curved (fluid) relationship.

    • Whether the variables have a positive relationship.

    • How strong the connection is.

    You make a scatter diagram as follows:

    1. Select the Chart Builder in the Graph menu and click OK.

    2. Select the Scatter / Dot option under Gallery. Select Grouped Scatter and drag it to the Chart Preview.

    3. Drag the continuous independent variable (for example, weight loss) to the X-Axis so that the variable is projected on the x-axis.

    4. Drag the dependent variable (for example, cholesterol level) to the Y-Axis so that the variable is projected on the y-axis.

    5. You can display groups by dragging each categorical group variable (for example, age) to Set Color.

    6. Click OK, or Paste to save everything in the Syntax Editor.

    A scatter diagram shows many dots in a graph.

    You can create a scatter diagram for two variables, or a matrix of scatter diagrams for a whole group of variables. You create a matrix of multiple scatter diagrams within a chart with the Scatterplot Matrix option in Gallery.

    How to make a boxplot?

    You use a boxplot to compare the distributions of results. One possibility is to compare the distribution of a continuous variable with the entire stitch group, another possibility is to break the results into different groups. You make a boxplot as follows:

    1. Select the Chart Builder in the Graph menu and click OK.

    2. Under Gallery, select the Simple Boxplot option and drag it to the Chart Preview.

    3. Choose your categorical variables (for example, age) in the Variables list and drag them to Chart Preview, to the X-Axis so that the variable is projected on the x-axis.

    4. Under Groups / Point ID, select the Point ID label option.

    5. Click OK, or Paste to save everything in the Syntax Editor.

    A boxplot shows the categorical variable on the x-axis, with a line (called whisker) per group with a block (box) in it.

    A boxplot provides the following information:

    • The boxplot shows the distribution of the continuous variable and the influence that the categorical variable has.
    • The box shows 50% of the cases.
    • The horizontal line inside the box shows the median.
    • The whiskers show the largest and smallest values.
    • The outliers are shown in circles outside the whiskers.
    • Extreme outliers, more than three times the length of the box outside the box, are shown with an asterisk (*).
    • The boxplot shows variety within a group and the differences between groups

    How to adjust a graph or chart?

    With the Chart Editor you can adjust graphs and charts. With this you can adjust the following:

    • The wording of labels

    • The position and the starting point of the axes

    • The design of text, lines, colors, patterns etc.

    How to import charts and diagrams to Word or other word processors?

    You can import the created charts and diagrams into Microsoft Word. In other word processors there is sometimes an option to import from SPSS, the procedure then works about the same. You place charts and diagrams in Word via the following procedure:

    1. Open the file in which you want to display the graph in Word. Click on the IBM SPSS icon, which is depending on your version of Word at the bottom or top of the menu in Word.

    2. Open the Viewer screen in SPSS .

    3. Click on the graph, a border appears around it.

    4. Click Edit and then Copy so that the graph is copied for pasting.

    5. Go to the Word document and click where you want the graph, click Paste.

    6. Save the file.

    In SPSS there are different types of graphs and charts that you can use to display data. The views discussed here are histograms, bar charts, line charts, scatter charts, and boxplots.

    In the Graph menu in SPSS there are various options for creating graphs, the easiest method is to use the Chart Builder.

    How do you manipulate data in SPSS? - Chapter 8

    If the raw data has been accurately entered into SPSS, the next step is to edit and prepare the data so that later analyzes can be performed and hypotheses can be tested.

    Make sure that you also adjust the codebook for everything you adjust. An alternative is to use the Syntax option, this means that you keep track of all actions to be performed in the Syntax Editor, so that there is a list of what has been adjusted.

    How to calculate the size of the scale?

    There are two steps to calculate the total size of the scales:

    • Step 1: Reverse code negatively articulated items positively

    • Step 2: Add all the results

    Step 1: Reverse code negatively articulated items positively

    Questions that are negatively expressed (for example 'I am usually bad in statistics' must be converted to a positive wording (for example 'I am almost never good in statistics') so that all outcomes are given the same kind of interpretation. for example, a Likert scale is used, where 1 means absolutely disagree and 5 very much agree, you can automatically apply this in SPSS with the following procedure:

    1. Click on Transform and select Recode into different variables.

    2. Then select the data that you want to recode and move it to Input Variable - Output Variable.

    3. Click per variable on the variable and type a new name in Output Variable with Change.

    4. Now recode the values ​​or variables. Type 1 in Old Value and 5 in New Value. Repeat this for all variables.

    5. After this you can click on Continue and then OK or Paste to save everything in the Syntax Editor).

    Check in Variable View whether the variables can all get the same kind of interpretation.

    Step 2: Add all the results

    Use the following procedure to add the results to calculate the scale:

    1. Click on Transform and then on Compute Variable.

    2. Type a name for the total scale results in Target Variable. Make sure that you do not use a name that was previously used for another variable, because then you delete the previous results.

    3. Go to Label via Type and Label, enter a description of the scale (for example weight gain) and click Continue.

    4. Click on the first item on the variable list on the left. Move this to the Numeric Expression box.

    5. Click on + in the calculator.

    6. Repeat this until all possible scale results are in the box. Start with the results that are not reversed (for example op4, op6) and then continue with the reversed results (Rop3, Rop5, Rop7).

    7. The numeric expression then becomes: op1 + op4 + op6 + Rop3 + Rop5 + Rop7.

    8. Click OK (or Paste to paste it first into the Syntax Editor and then Run).

    Check the whole to make sure it logically matches the results of your research. Use Descriptives to check if there are no extreme values ​​in the output. Also compare the average with the results from other studies and with your expectations. Check the distribution with skewness and kurtosis. By creating a histogram, you can immediately see if the results are normally distributed.

    How to divide a continuous variable into groups?

    With the following procedure you can divide a continuous variable (such as weight) into equal groups (for example 0 to 50 kilos, 51 to 100 kilos, and 101 to 150 kilos).

    1. Click on Transform and then on Visual Binning.

    2. Move the continuous variable to Variables to Bin and click Continue.

    3. A histogram appears in Visual Binning.

    4. Type the name for the new categorical variable that you are creating in Binned Variable. For a group with a weight of 0 to 50 kilos, you can use Weightgp1, for example.

    5. Click on Make Cutpoints and then on Equal Percentiles Based on Scanned Cases. In Number of Cutpoints, enter a number that is 1 less than the number of groups you want to create. See if the percentages that appear in Width are correct. For three groups, this is 33.33% per group. Click Apply.

    6. Click on Make Labels.

    7. Click OK (or Paste to paste it first into the Syntax Editor and then Run).

    How to divide a categorical variable into categories?

    In some studies, it is more appropriate to divide the results into categories, for example, if only a few members of the population with a certain abnormal characteristic produce very different results. This may also be necessary with logistic regression. You can use the following procedure for this:

    1. Click on Transform and select Recode into different variables.

    2. Select the variable that you want to recode and type a new name for it in Name. In Label you can optionally enter an extended name. Then click on Change.

    3. Click on Old and New Values .

    4. Rename each Old Value to a New Value. You can put values ​​in the same category by giving them the same value, for example as follows: 1 remains 1, 2 becomes 1, 3 becomes 2, 4 becomes 3, 5 becomes 4, 6 becomes 5 and so on.

    5. After this you can click on Continue and then OK or Paste to save everything in the Syntax Editor).

    6. Go to Data Editor and choose Variable View. Write appropriate labels for the new values.

    Check with Frequencies if everything is still correct.

    How to convert text to numeric values?

    Converting text to numeric values ​​is especially important when using databases such as Microsoft Access. The procedure is:

    1. Click on Transform and select Automatic Recode.

    2. Move the variable that is expressed in text, and move it to Variable-New Name.

    3. Type the new name that you want to use in New name and click Add New Name.

    4. Click OK.

    How to deal with periods and time indications?

    With the Date and Time Wizard you can make clear periods between measurements, for example how many hours there are between two dates. This is possible with the following procedure:

    1. Click on Transform and select Date and Time Wizard.

    2. Click on Calculate with dates and times and on Next.

    3. Select Calculate the number of time units between two dates and click Next.

    4. Move the first date to Date1.

    5. Move the second date to minus Date2.

    6. Select the time unit in Unit and click Next.

    7. In Result Variable, type a name for the variable (for example, NumberDaysNot Studied).

    8. If required, first place the operation on the syntax screen or go directly to Execution and click Finish.

    How to transform variables?

    Transforming variables is a possibility that is often useful, for example if the results do not form a nice normal distribution. An alternative is to use non-parametric techniques, but it is easier to transform the variables. There is controversy about transforming, so think carefully about how you want to adjust the results. The procedure for transforming is as follows:

    1. Click on Transform and select Compute Variable.

    2. In Target Variable, type a new name for the variable.

    3. Choose the correct operation in Functions. Possible operations:

      • A Square root is an arc at the beginning of the x-axis and then only a gradual decrease.
        Formula: new variable = SQRT (old variable).

      • A Logarithm is a steep arc at the beginning of the x-axis and then a steep fall.
        Formula: new variable = LG10 (old variable).

      • An Inverse starts high on the y-axis, followed by first a steep and then a gradual decline.
        Formula: new variable = 1 / (old variable).

      • A Reflect and square root is an inverted square root, which only starts after a piece of no action on the x-axis.
        Formula: new variable = SQRT (K - old variable) where K = the highest possible value + 1.

      • A Reflect and logarithm is an inverted Logarithm, which starts after a piece of no action on the x-axis.
        Formula: new variable = LG10 (K - old variable) where K = the highest possible value + 1.

      • A Reflect and inverse is an inverted inverse, which starts after a piece of no action on the x-axis with a gradual and then steep rise.
        Formula: new variable = 1 / (K - old variable) where K = the highest possible value + 1.

    4. View the final formula in Numeric Expression and write it down in your codebook next to the new variable name.

    5. Click on Type and Label and write a short description of the new variable under Label. Ensure that the new variable has a unique, previously unused name.

    6. Click OK (or Paste to paste it first into the Syntax Editor and then Run).

    7. Check in Analyze, Frequencies whether the skewness and kurtosis have improved.

    8. Under Frequencies on charts and select Histogram to check whether the distribution is improved.

    If the raw data has been accurately entered into SPSS, the next step is to edit and prepare the data so that later analyzes can be performed and hypotheses can be tested.

    Make sure that you also adjust the codebook for everything you adjust. An alternative is to use the Syntax option, this means that you keep track of all actions to be performed in the Syntax Editor, so that there is a list of what has been adjusted.

    How do you check the reliability of a scale? - Chapter 9

    The value of a study largely depends on the reliability of the scale used. One aspect of reliability is internal consistency: the degree to which the items of a scale associated with each other. This can for example be calculated with the Cronbach's cofficient alpha in SPSS. A Cronbach's alpha of .7 or greater indicates a reliable scale. However, with short scales with few units, there are low Cronbach values ​​and they don't say much.

    How to check the reliability of a scale?

    The procedure for checking the reliability of a scale is as follows:

    1. Check whether all negatively formulated values ​​have already been converted to positively formulated values.

    2. Click on Analyze, select Scale and then Reliability Analysis.

    3. Move all parts of the scale to Items.

    4. Select the Alpha option under Model.

    5. Type the name of the scale in the Scale label.

    6. Click on Statistics. In Descriptives for, select Item, Scale and Scale if item deleted. Select the Correlations option in Inter-Item. Also select in Summaries the option Correlations.

    7. After this you can click on Continue and then OK or Paste to save everything in the Syntax Editor).

    What conclusions can you draw about reliability based on the output?

    In the output you must check the following things to increase reliability:

    • Check the number of cases and the number of values.

    • Double-check that there are no negative values ​​in the Inter-Item Correlation Matrix.

    • Check whether the Cronbach values ​​are above 0.7.

    • In Corrected Item-Total Correlation, check the relationship between the results and the total result. One possibility is to remove exceptionally low outcomes (lower than 0.3).

    • Check the impact of each value in Alpha if Item Deleted. If the impact of a single value is so high that it is even higher than the final alpha value, you can consider removing the value.

    • Check the average correlation between value in Summaty Item Statistics. A strong mutual coherence indicates high reliability. However, in many studies, certainly in the case of few values, this coherence is not very strong.

    How do you display reliability information?

    An open and transparent investigation usually provides information about the reliability of the scales, in most cases in the chapter or part of the text this is about the methods. State the internal consistency, describe the scale and provide a summary of information about the reliability of the scales. This information provides guidance to be able to appreciate the results of the sample more and to interpret them better.

    The value of a study largely depends on the reliability of the scale used. One aspect of reliability is internal consistency: the degree to which the items of a scale associated with each other. This can for example be calculated with the Cronbach's cofficient alpha in SPSS. A Cronbach's alpha of .7 or greater indicates a reliable scale. However, with short scales with few units, there are low Cronbach values ​​and they don't say much.

    Which method to use in SPSS? - Chapter 10

    Which statistical methods are there?

    Some studies use a single method, but many studies use multiple methods. In any case, it is crucial to choose the right research method.

    Below you will not yet find out how exactly you apply the research methods. The overview below is intended to give a brief introduction to research methods, so that you can make a choice based on which method you need.

    What methods are there to investigate relationships between variables?

    If you want to investigate the relationships between different variables, for example between age and drug use, different methods are possible. These methods are also useful for processing the results of most types of surveys.

    Introduction correlation

    A correlation analysis is used to describe the strength and direction of a linear relationship between two variables. There are various statistics available in IBM SPSS to measure a correlation, including the Pearson product moment correlation cofficient (r) and the Spearman Rank Order Correlation (rho). Pearson r is used with variables at interval level while the Spearman rho is used with variables at ordinal level. A correlation indicates the extent to which two variables are related, for example being a man and wearing pink clothing.

    Positive and negative correlations

    Correlations are also often used to describe data and to check the data for assumptions. The correlation coefficient can be both negative and positive and is always between -1 and 1. A correlation of -1 is a perfectly negative correlation. There is a connection between two opposite things. Think of wearing a bikini and not wearing gloves. A correlation of 1 is a perfect positive correlation. There is a connection between two positive or two negative variables. For example: wearing a bikini and eating an ice cream. A correlation of 0 indicates that there is no question of a relationship between two variables.

    Example of a research question with correlations

    The following is an example of a research question about a correlational relationship.

    Research question: Is there a connection between the amount of exam stress and the amount of alcohol consumption of students? Do people with more exam stress drink more alcohol or less alcohol?

    • What do you need: two variables, both continuous, or one continuous and the other dichotomous (two values)

    • What it does: correlation describes the relationship between two continuous variables of both the strength of the relationship and the direction of the relationship.

    • Non-parametric alternative: Spearman Rank Order Correlation (rho).

    Introduction of partial correlation

    This form of correlation builds on Pearson correlation. Partial correlation allows you to influence the effects of a misleading variable. For example, if a variable such as socially desirable answers influences your research results, you can remove these effects.

    Introduction of multiple regression

    The multiple regression analysis examines whether there is a (predictive) relationship based on the correlation of multiple independent variables with the dependent variables. The multiple regression analysis uses continuous or ordinal data, but can also include one or more categorical variables as independent variables.

    In principle, factorial ANOVA and multiple regression can calculate the same. Factorial ANOVA is used more often in practice for experimental research and the multiple regression usually for non-experimental research.

    There are three types of multiple regression: standard, hierarchical or step-by-step.

    Introduction to factor analysis

    With factor analysis you can reduce a large amount of variables or scaling units to a manageable number of factors. Factor analysis allows you to search patterns in correlation and to find similar groups. This method is used to expose an underlying structure, develop scales and determine units of measurement.

    What methods are there to investigate differences between groups?

    If you want to investigate if there is a significant difference between multiple groups, there are several methods that you can use. The parametric versions of these methods are only suitable if the data is a normal distribution with interval scaled data. In the other cases there are non-parametric alternatives.

    Introduction of t-tests

    You use t-tests with two different groups or two different data sets and you want to compare the average score of a continuous variable. There are different types of t-tests. The two most common are the independent-samples t-test and the paired-samples t-test. The independent t-test is used when you want to compare the average scores of two different groups. You use the paired t-test when you want to compare the average scores of the same group of people at different times or when you have matched pairs.

    The non-parametric alternatives to t-tests are the Mann-Whitney U Test and the Wilcoxon Signed Rank Test.

    Introduction one-way ANOVA

    ANOVA is the abbreviation for Analysis of Variance. A one-way analysis of variance has one independent variable (this is called the factor) that has different levels. These levels correspond to different groups or conditions. An example is the influence of the form of therapy on the degree of depression. The form of therapy (psychotherapy, pharmacotherapy, not therapy) is the independent variable, consisting of three levels. The dependent variable here is the degree of depression.

    The one-way variance analysis is called this, since it compares the variance (variability in scores) between different groups with the variance within each group (degree of chance). The one-way variance analysis then calculates an F ratio. This F-ratio stands for the variance between the groups divided by the variance within the groups. A large F ratio indicates more variability between the groups (caused by the independent variable) than within the groups (the error). A significant F-test suggests that there is a difference between the different groups. However, it does not tell us exactly what this difference is. To investigate this, a post-hoc test is required, with a post-hoc test you investigate which groups differ significantly from each other.

    There are two types of one-way analysis of variance: repeated measurements ANOVA or repeated measures ANOVA (in the case of the same people but with multiple snapshots) and ANOVA between groups or between-groups ANOVA (results for two or more different groups of people). The last-mentioned type can also be applied to independent samples.

    The non-parametric alternative to one-way ANOVA are the Kruskal-Wallis Test and the Friedman Test.

    Introduction two-way ANOVA

    With two-way variance analysis (two-way ANOVA) you can visualize the effects of two independent variables on a dependent variable.

    There are two types of two-way analysis of variance: repeated measurements ANOVA or repeated measures ANOVA (in the case of the same people but with multiple snapshots) and ANOVA between groups or between-groups ANOVA (results for two or more different groups of people). In some studies these methods are combined, this is called Mixed Designs or Split Plot.

    Introduction MANOVA

    MANOVA is the abbreviation for Multivariate Analysis of Variance. With a MANOVA, unlike other analyzes, a test is predicted, not one dependent variable, but several dependent variables. A MANOVA compares groups and tells whether there are differences between the groups with regard to the combination of different dependent variables.

    ANCOVA introduction

    ANCOVA is the abbreviation for Analysis of covariance. With an ANCOVA one can compare a variable in two or more groups and see if other variables influence this relationship. These other variables are also called covariates. The ANCOVA actually combines the ANOVA analysis and the regression analysis. With the ANCOVA one can see if a population mean of the dependent variable is the same over all levels of the categorical independent variable and simultaneously controls the effects of other continuous variables. You can use ANCOVA if you want to remove the effects of a certain variable.

    How to you make a decision about which method to use?

    The following step-by-step plan helps determine which method you use in SPSS:

    1. Decide which questions you want to answer. Formulate the questions as specific as possible.

    2. Determine which survey components and scales you need.

    3. Determine which type of variables are required (dependent / independent, categorical / ordinal / continuous).

    4. Make a diagram per research question to visualize for yourself which results you want.

    5. Decide whether you can use a parametric method or need a non-parametric alternative. Ask yourself whether there is a normal distribution, and whether the other assumptions for specific parametric methods are met.

    6. Make the final decision as to which method you will use. Use the overview of supplies below.

    What is needed for the most commonly used methods in SPSS?

    The following is for each method in SPSS what is required in terms of variables, etc., for which type of research questions the method is usually used, what results are obtained from the research, and how the output is usually displayed.

    Chi square for independent variables

    • Research type: investigate relationships between variables

    • Example question: What is the relationship between the number of statistics subjects and failure rates within the psychology study?

    • Requirements: a categorically independent variable and a categorically dependent variable

    Correlation

    • Research type: investigate relationships between variables

    • Example question: Is there a connection between age and empathy? Do people become more empathetic as they get older?

    • Requirements: two continuous variables

    Partial correlation

    • Research type: investigate relationships between variables

    • Example question: If the effects are corrected for socially desirable answers, is there still a connection between empathy and having a large circle of friends?

    • Requirements: three continuous variables (one of which is socially desirable answers)

    Multiple regression

    • Research type: investigate relationships between variables

    • Example question: How much variance in being social can be explained by: empathy, self-confidence and dominance? Which of these variables has the greatest influence on how social someone is?

    • Requirements: a continuously dependent variable and at least two continuous independent variables

    Independent t-test

    • Research type: differences between groups of studies

    • Example question: Are men having a cold more often than women?

    • Requirements: a categorically independent variable with only two groups, and a continuously dependent variable

    Paired t-test

    • Research type: differences between groups of studies

    • Example question: Does ten-week karate training help to reduce depression? Is there a difference between time recording 1 (before training) and time recording 2 (after training)?

    • Requirements: a categorically independent variable (time frame 1 and time frame 2) and a continuously dependent variable

    One-way ANOVA between groups

    • Research type: differences between groups of studies

    • Example question: Is there a difference in empathy in people under 20, between 21 and 40, and 41 years and older?

    • Requirements: a categorically independent variable and a continuously dependent variable

    Two-way ANOVA between groups

    • Research type: differences between groups of studies

    • Example question: What is the effect of age on empathy in men and women?

    • Requirements: two categorically independent variables and a continuously dependent variable

    Mixed ANOVA

    • Research type: differences between groups of studies

    • Example question: What is more effective in stimulating a passion for statistics (a university study versus easier-to-use software in the future), measured at three moments (before the study, after the study, and ten years later when software is further developed)?

    • Requirements: an inter-group independent variable, an intra-group independent variable (the time recordings) and a continuously dependent variable (the passion for statistics)

    MANOVA

    • Research type: differences between groups of studies

    • Example question: Do women have characteristics that make them experience more effects of falling in love than men? (measured with regard to optimism, compliance and amount of serotonin)?

    • Requirements: a categorically independent variable and at least two continuously dependent variables

    ANCOVA

    • Research type: differences between groups of studies

    • Example question: Is there a larger significant difference in the results of a statistical exam, if people have followed a university study or if software has been further developed in the future (corrected for the results beforehand)?

    • Requirements: a categorically independent variable, a continuously dependent variable (the outcomes on time recording 2) and at least one continuous covariate (time recording 1).

    Some studies use a single method, but many studies use multiple methods. In any case, it is crucial to choose the right research method.

    Below you will not yet find out how exactly you apply the research methods. The overview below is intended to give a brief introduction to research methods, so that you can make a choice based on which method you need.

    When and how is a correlation analysis applied? - Chapter 11

    Correlation analysis is applied to indicate the strength and direction of a linear relationship between two variables. Two correlation coefficients are mentioned in this chapter: (1) Pearson r for continuous variables (at interval level) and in cases where there is one continuous and one dichotomous variable, and (2) Spearman rho for variables at ordinal level and in cases that your data does not meet the criteria for the Pearson correlation. This text shows how to calculate a bivariate Pearson r and a non-parametric Spearman rho.

    Which preparatory analyzes must be done?

    Before you perform a correlation analysis, it is useful to first generate a scatter plot; on the basis of this you can see whether the assumption of linearity and homoscedasticity has been met. In addition, a scatter plot gives you a clearer picture of the nature of the relationship between your variables.

    Procedure for generating a scatter plot

    1. Click on Graphs in the menu at the top of the screen and then on Legacy Dialogs.

    2. Click on Scatter / Plot and choose Simple Scatter. Now click on Define.

    3. Click on the first variable (usually the dependent variable) and move it to the y-axis box.

    4. Click on the second variable (usually the independent variable) and move it to the x-axis box.

    5. You can put your ID variable in the Label Cases by box, so that outliers can be identified.

    6. Click OK (or Paste to save the syntax editor).

    Interpretation of the scatter plot output

    The scatter plot can be used to check for a number of aspects of the distribution of two variables:

    1. Check for outliers, or extreme data values ​​that deviate from the cluster of data values. Try to find out why these are outliers (is the data entered correctly?). When you have identified an outlier and want to retrieve the ID number, you can use the Data Label Mode icon in the Chart Editor . Double-click the chart to activate the Chart Editor. Then click on the icon that looks like the dartboard rose (or click on Data Label Mode in the Elements menu) and click on the point in the chart that you want to identify, a number will appear; this is the ID number.

    2. Inspection of the distribution of data scores.

    3. Determine the direction of the relationship (positive or negative) between the variables.

    After you have examined the distribution of scores in the scatter plot and determined that there is a roughly linear relationship, you can start calculating the Pearson r or Spearman rho correlation coefficient. Before you begin the following procedure, first follow these steps: (1) click on Edit in the menu , select Options and then on General. Make sure that the box No scientific notation for small numbers in tables is checked in the Output section.

    Procedure for calculating Pearson r or Spearman rho

    1. Click on Analyze in the menu at the top of the screen and then select Correlate. Then click on Bivariate .

    2. Select your two variables and move them to the Variables box.

    3. In the Correlation Coefficient section, the Pearson box is the standard option. If you want to calculate Spearman rho, check the Spearman box.

    4. Click on Options . Click on the Exclude Cases Pairwise for missing values. Under Options you can also check averages and standard deviations.

    5. Click Continue and then OK (or Paste to save the syntax editor).

    How to interpret the correlation output?

    The results of Pearson r can be found in the top table (correlations) and those of Spearman rho in the bottom table (nonparametric correlations). You interpret the output of both tests in the same way.

    • Step 1: Check the sample information (N); is this number correct? If a lot of data is missing, find out why. For example, have you forgotten to check the Exclude cases pairwise box?

    • Step 2: Determine the direction of the relationship; Is there a positive or negative correlation?

    • Step 3: Determine the strength of the relationship; You can see this from the value of the correlation coefficient. A correlation of 0 means that there is no correlation. A value of -1 means a perfect negative correlation and a value of +1 indicates a perfect positive correlation. To interpret the values ​​you can best use the Cohen guidelines:

      • Small: r = .10 to .29 (or -.10 to -.29)

      • Average: r = .30 to .49 (or -.30 to -.49)

      • Large: r = .50 to 1.0 (or -.50 to -1.0)

    • Step 4: Calculate the determination coefficient. This gives you an idea of ​​the shared variance of your two variables. You calculate the determination coefficient by squaring the r value. If you want to convert this to the percentage of shared variance, you only have to multiply the determination coefficient by 100.

    • Step 5: Determine the significance level ( Sig. 2 tailed ). The statistical significance level gives an indication of the extent to which we can rely on the results obtained.

    How are correlation results displayed?

    If you mention the correlation between two variables, you can do this in a running text (see p. 140 for an example). However, correlation is often used to investigate the relationship between groups of variables (instead of just two variables). In this case it is inconvenient to report this in a running text; in this case it is best to put the results in a table.

    How do you calculate the correlation coefficients between groups of variables?

    If you want to study the relationships between multiple variables, you can place all variables in the Variables box. However, this can result in a huge correlation matrix that is difficult to read and interpret. If you are only looking for a number of correlations, you can use the Syntax Editor .

    Procedure for obtaining correlation coefficients between two groups of variables

    1. Click on Analyze in the menu at the top of the screen and then select Correlate. Then click on Bivariate.

    2. Move the variables that you are interested in to the Variables box. Select the first group of variables, followed by the second group of variables. In the output, the first group of variables will be presented as rows in the table, and the second group of variables as columns. So first place the variables with longer names, so that the table does not become too wide.

    3. Click on Paste ; this opens the Syntax Editor.

    4. Place your cursor between the first and second group of variables. Type the word with here.

    5. To activate this new syntax, you must select the text from CORRELATIONS to the end.

    6. Then click on the green arrow / triangle (>) or go to the menu and click on Run and then on Selection .

    How to compare the correlation coefficients of two groups?

    You can also find out the strength of the correlation between two separate groups.

    Procedure for comparing correlation coefficients of two groups

    Step 1: split the sample.

    1. In the menu at the top of the screen, click Data and then Split File.

    2. Click on Compare Groups.

    3. Place the grouping variable to the Groups based on box. Click OK (or Paste to save the Syntax Editor).

    Step 2: Correlation.

    1. Follow the steps in the earlier section of this chapter to get the correlation between the variables that you are interested in. The results are displayed separately for each group.

    Important: don't forget to turn off the Split File option when you're done. You do this by clicking in the Data Editor window on Data, Split File and then on Analyze all cases, do not create groups.

    How to test the statistical significance of the difference between correlation coefficients?

    This section describes the procedure that you can follow to find out whether the correlations between two groups differ significantly. First r values ​​will be converted to z scores. A comparison is then used to calculate the observed value of z (zobs value). The value obtained will be calculated using a fixed decision rule to determine the probability that the difference in the correlation between the two groups is due to chance.

    First a check must be made for a number of assumptions. It is assumed that the r values ​​of the two groups were obtained from random samples and that the two groups are independent (that is, the same participants were not tested twice). The score distribution for the two groups must be normal. Each group must also consist of at least 20 cases.

    • Step 1: Convert every r value to a z score.

    • Step 2: Convert these values ​​to the equation to calculate zobs. You do this using the following formula: zobs = z1 - z2 / √ 1 / N1-2 + 1 / N2-3

    • Step 3: Determine whether the zobs value is statistically significant. The following rule applies: if -1.96 obs obs are less than or equal to -1.96 or greater or equal to 1.96, then the coefficients are significantly different.

    Correlation analysis is applied to indicate the strength and direction of a linear relationship between two variables. Two correlation coefficients are mentioned in this chapter: (1) Pearson r for continuous variables (at interval level) and in cases where there is one continuous and one dichotomous variable, and (2) Spearman rho for variables at ordinal level and in cases that your data does not meet the criteria for the Pearson correlation. This text shows how to calculate a bivariate Pearson r and a non-parametric Spearman rho.

    What is the difference between correlation and partial correlation? - Chapter 12

    The partial correlation is similar to Pearson r, with the difference that with the partial correlation you can check for an additional (confound) variable.

    How to conduct the partial correlation procedure?

    1. Click on Analyze in the menu at the top of the screen, then select Correlate and then Partial.

    2. Click on the two continuous variables that you want to correlate. Click on the arrow to move these variables to the Variables box.

    3. Click on the variable for which you want to check and move it to the Controlling for box.

    4. Click on Options.

      • In the Missing Values section, click Exclude cases pairwise.

      • Click in the Statistics section on Zero order correlations.

    5. Click Continue and then OK (or Paste to save the Syntax Editor).

    How to interpret partial correlation output?

    In the output there is a table that consists of two parts. In the upper half you will find the normal Pearson product-moment correlation matrix that does not check for the possible confound variable. The same correlation analyzes are repeated in the second half of the table, but now the possible confound variable is checked. By comparing the two correlation coefficients with each other, you can find out whether taking the additional variable into account has influenced the relationship between your two variables.

    How do you perform multiple regression in SPSS? - Chapter 13

    In this chapter it is explained how to use SPSS in multiple regression analyzes. Multiple regression is not just one technique, but a collection of techniques that can be used to study the relationship between a continuous dependent variable and multiple independent variables or predictors (usually continuous). It is based on correlation, but offers a more refined analysis of the relationship between a series of variables. Multiple regression can be applied to various research questions, including:

    • How well a set of variables is able to predict a certain outcome.

    • Which variable within a series of variables is the best predictor of a certain outcome.

    • Whether a certain predictive variable can still predict the outcome when checking for the influence of another variable.

    What are the most important types of multiple regression?

    There are different types of multiple regression analyzes that you can apply depending on your research question. The three most important multiple regression analyzes are:

    1. Standard or simultaneous

    2. Hierarchical or sequential

    3. Step-by-step

    Standard multiple regression

    In the standard multiple regression, all independent (or predictive) variables are compared simultaneously. Each variable is evaluated in terms of its predictive value compared to that of the other independent variables. You use this analysis if you have a series of variables and want to know to what extent they can explain the variance in a dependent variable as a group.

    Hierarchical multiple regression

    In the hierarchical multiple regression (also called sequential regression), the independent variables are added to the equation in the order determined by the researcher on the basis of a theoretical framework. Variables or sets of variables are added in steps. Each variable is measured in terms of what it adds to the prediction of the dependent variable after checking for the other variables.

    Step-by-step multiple regression

    In step-by-step regression, the researcher provides a list of independent variables and then lets the program select, based on a set of statistical criteria, which variables are added and in which order they are added to the comparison. There are three different versions of this approach: (1) forward selection, (2) backward deletion, and (3) step-by-step regression.

    Which assumptions are made for a multiple regression?

    Sample size

    It is important that your sample is not too small, because otherwise the results cannot be (sufficiently) generalizable. Tabachnick and Fidell came up with a formula to calculate the required sample size: N> 50 + 8m (m = number of independent variables). You need more cases if the variable is skewed. You need a ratio of 40 cases per independent variable for step-by-step regression.

    Multicollinearity and singularity

    This refers to the relationship between the independent variables. Multicollinearity occurs when the independent variables strongly correlate with each other ( r = .9 and higher). Singularity exists when an independent variable is actually a combination of other independent variables. Neither contributes to a good regression model.

    Outliers

    Multiple regression is very sensitive to outliers (extremely high or low scores). So check all variables (both dependent and independent) for outliers. Outliers can be removed from the dataset, or they can get a score that is high / low, but does not deviate too much from the other scores. Tabachnick and Fidell define outliers as scores with standardized residual values> 3.3 or

    Normality, linearity, homoscedasticity and independence of residuals

    All of these terms refer to different aspects of the distribution of scores and the nature of the underlying relationship between the variables. These assumptions can be read in the residual scatter plots. Residuals are the differences between the obtained and predicted dependent variable (AV) scores. You can check the following assumptions based on the residual scatter plots:

    • Normality: the residuals should normally be distributed over the predicted AV scores.

    • Linearity: the residuals must have a linear relationship with the predicted AV scores.

    • Homoscedasticity: the variance of the residuals over the predicted AV scores should be the same for all predicted scores.

    What does the standard multiple regression look like?

    In the case of the standard multiple regression, all independent variables are entered into the model simultaneously. The results provide an indication of how well this set of variables is able to predict the dependent variable. It also shows how much unique variance each of the independent variables can explain relative to the other independent variables.

    Procedure for standard multiple regression

    Before you begin the following procedure, click on Edit in the menu. Then select Options and make sure that the box No scientific notification for small numbers in tables is checked.

    1. Click on Analyze in the menu at the top of the screen, then select Regression and then Linear.

    2. Click on your continuously dependent variable and move it to the Dependent box.

    3. Click on your independent variables and click on the arrow to move them to the Independent box.

    4. Make sure that Enter is selected for the Method.

    5. Click on the Statistics button. Select the following: Estimates, Confidence Intervals, Model fit, Descriptives, Part and partial correlations and Collinearity diagnostics. In the Residuals section, select Casewise diagnostics and Outliers outside 3 standard deviations. Then click Continue.

    6. Click on Options and select Exclude cases pairwise in the Missing Values section. Click on Continue.

    7. Click on the Plots button. Click on * ZRESID and the arrow to move it to the Y- box. Click on * ZPRED and the arrow to move it to the X box. In the Standardized Residual Plots, select the Normal probability plot option and click Continue.

    8. Click Save Check the Mahalanobis box and Cook’s in the Distances section. Click Continue and then OK (or Paste to save the Syntax Editor).

    How to interpret the standard multiple regression output?

    Step 1: Check the assumptions

    Multicollinearity

    The correlations between the variables in your model are shown in the Correlations table . Check whether your independent variables have at least some relationship with your dependent variable (preferably> .3). Also check that the correlation between your independent variables is not too large (preferably a bivariate correlation <.7>

    As part of the multiple regression procedure, SPSS also performs 'collinearity diagnostics' on your variables. This can overcome problems related to multicollinearity that are not visible in the correlation matrix. These results are in the Coefficients table . Two values ​​are given here: Tolerance and VIF . Tolerance is an indicator of how much of the variability of the specified independent variable is not explained by the other independent variables in the model. If this value is very low (<.10 this="" indicates="" that="" the="" multiple="multiple" correlation="" with="" other="" variables="" is="" high="" possibly="" indicating="" multicollinearity.="" vif="" inflation="" factor="" values="" are="" cause="" for="" concern="" as="" may="" indicate="" only="" use="" tolerance="" and="" a="" warning="" sign="" always="" check="" your="" matrix.="">

    Outliers, normality, linearity, homoscedasticity and independence of residuals

    One way in which these assumptions can be checked is by inspecting the Normal Probability Plot (PP) or the Regression Standardized Residual and the Scatter Plot. These are at the end of the output. In the Normal PP Plot you hope that the points from bottom left to top right form a fairly straight diagonal line. This suggests that there are no major deviations from normality. In the Scatter plot of the standardized residuals (the second plot) you hope that the residuals are roughly rectangularly distributed, with most scores in the middle (around the zero point). You can also identify outliers on the basis of the Scatter plot. Outliers can also be identified by inspecting the Mahalanobis distances. These are not visible in the output, but are added as an extra variable at the end of the data file. To find out which scores are outliers, you need a critical chi-square value. Tabachnik and Fidell suggest the use of an alpha value of .001.

    Step 2: Evaluate the model

    Look in the Model Summary box and check the value under the R Square heading ; this tells you how much of the variance in the dependent variable is explained by the model. You may notice that there is also an Adjusted R Square value in the output. When you have a small sample, the R square value is often an optimistic overestimate of the real population value. The Adjusted R Square statistic “corrects” this value and provides a better estimate of the true population value. So if you have a small sample, you better report this value. To find out the statistical significance of the results, you have to look in the ANOVA table; this tests the null hypothesis that multiple R in the population is equal to 0.

    Step 3: Evaluate all independent variables

    The next thing you want to know is which of the variables in the model contributes to the prediction of the dependent variable. We find this information in the output box, called Coefficients. Look in the Beta column under Standardized Coefficients. To be able to compare the different variables with each other, it is important that you look at the standardized coefficients and not the non- standardized ones (B); you only use the latter if you want to draw up a regression equation.

    Check the value in the Sig for all independent variables . -column; this tells you whether this variable makes a significant unique contribution to the comparison. This is very dependent on which variables are included in the comparison and how much overlap there is between the independent variables. If the Sig. Value is less than .05 (.01, .001, etc.), the variable makes a significant unique contribution to the prediction of the dependent variable.

    Another potentially useful information component in the coefficient table is the Part correlation coefficients (sometimes also called semipartial correlation coefficients). If you square this value, you will get an indication of the contribution of that variable to the total R- square. In other words, it tells you how much of the total variance in the dependent variable is declared uniquely by that variable and how much R -square would drop if this variable were not included in your model.

    What is hierarchical multiple regression?

    In this form of multiple regression, the variables are added in steps in a predetermined order.

    Hierarchical multiple regression procedure

    1. Click on Analyze in the menu at the top of the screen, then select Regression and then Linear.

    2. Choose your continuous dependent variable and move it to the Dependent box.

    3. Move the variables for which you want to check to the Independant box; these form the first block that will be entered in the analysis.

    4. Click on Next, this produces a second independent variables box in which you can add the second block of variables.

    5. Choose your next block of independent variables.

    6. Make sure this is set to default in the Method box (Enter).

    7. Click on Statistics and check the following options: Estimates, Model fit, R squared change, Descriptives, Part and partial correlations and Collinearity diagnostics . Click on Continue .

    8. Click on Options . In the Missing Values section, click Exclude cases pairwise and click Continue.

    9. Click on the Plots button.

    10. Click on * ZRESID and the arrow to move it to the Y- box.

    11. Click on * ZPRED and the arrow to move it to the X box.

    12. In the Standardized Residual Plots, select the Normal probability plot option and click Continue.

    1. Click Save. Check the Mahalanobis box and Cook’s in the Distances section. Click Continue and then OK (or Paste to save the Syntax Editor).

    How to interpret the hierarchical multiple regression output?

    The output of this regression analysis is similar to that of the standard multiple regression, with some extra information here and there. You will find two models in the Model Summary box. Model 1 refers to the first block of variables that has been added and Model 2 includes all variables that have been added in both blocks.

    Step 1: Evaluate the model

    Check the R Square values ​​in the first Model Summary box. Pay attention! The second R square value includes all variables of both blocks and therefore not only the variables added during the second step. To find out how much of the total variance is explained by the variables that you are interested in, look in the R Square change column and the corresponding Sig. F change.

    Step 2: Evaluate all independent variables

    To find out how well all variables contribute to the final comparison, look at the Coefficients table in the Model 2 row. This summarizes the results with all variables included in the comparison. In the Sig. The column shows whether the variables make a unique statistically significant contribution.

    How to present the results from a multiple regression?

    Depending on the type of analysis you have performed and the nature of the research question, there are a number of different ways in which the results of multiple regression can be presented. You must provide at least the following information: (1) what type of analysis you have performed (standard or hierarchical), (2) standardized (beta) values ​​in the case of a theoretical investigation or un standardized (B) coefficients in the case of a applied research. If you have performed a hierarchical multiple regression, you must also mention the R square value changes (value changes) for each step, together with the probability values ​​(probability values).

    In this chapter it is explained how to use SPSS in multiple regression analyzes. Multiple regression is not just one technique, but a collection of techniques that can be used to study the relationship between a continuous dependent variable and multiple independent variables or predictors (usually continuous). It is based on correlation, but offers a more refined analysis of the relationship between a series of variables. Multiple regression can be applied to various research questions, including:

    • How well a set of variables is able to predict a certain outcome.

    • Which variable within a series of variables is the best predictor of a certain outcome.

    • Whether a certain predictive variable can still predict the outcome when checking for the influence of another variable.

    How do you perform a logistic regression analysis in SPSS? - Chapter 14

    Using logistic regression you can test models with which you can predict categorical outcomes - consisting of two or more categories. Using logistic regression you can measure how well your set of predictive variables is able to predict or explain your categorically dependent variable. It offers you an indication of the adequacy of your model by mapping the 'goodness of fit'. Your independent variable can be either categorical or continuous, or a combination of both. Here is shown how to perform a binomial (also called binary) logistic regression with a dichotomous dependent variable (so with only two categories or values). If your dependent variable consists of several categories, you will have to perform a multinomial logistic regression. This is not covered here, but is of course available in SPSS (see the Help menu).

    Which assumptions are made for a logistic regression analysis?

    Sample size

    As with all other analyses, it is important that your sample size is sufficient. Always run Descriptive Statistics on each of your independent variables and consider removing categories with too few cases.

    Multicollinearity

    Always check if there are high intercorrelations between your independent variables. But for this use of by calling up collinearity diagnostics under the Statistics button. Ignore the rest of the output and only focus on the Coefficients table and the columns called Collinearity Statistics . Very low tolerance values ​​(<.1 indicate="" that="" the="" variable="" is="" highly="" correlated="" with="" other="" variables.="" in="" case="" reconsider="" which="" variables="" you="" want="" to="" include="" your="" model="" and="" remove="" one="" of="" inter-correlating="">

    Outliers

    It is important to check for outliers. This can be done by inspecting the residuals.

    How to conduct a logistic regression?

    To be able to interpret the results of logistic regression, it is important that you accurately set up the coding of responses for each of your variables. For the dichotomous dependent variable you have to code the responses as 0 and 1. You assign the 0 value to responses that show a lack or absence of the characteristic in which you are interested. You assign the 1 value to responses that show the presence of the characteristic in which you are interested. You carry out a similar procedure for your categorically independent variables. For continuous independent variables you link high values ​​to the values ​​of the characteristic in which you are interested (eg 0 hours of sleep gets value 0 and 10 hours of sleep, value 10).

    Logistic regression procedure

    Before you start the procedure below, first go to Edit in the main menu. Select Options there and make sure that the box No scientific notation for small numbers in tables is checked.

    1. Click on Analyze in the menu at the top of the screen , then select Regression and then Binary Logistic.

    2. Move your categorically dependent variable to the Dependent box. Move your independent variables to the Covariates box. Ensure that the Enter option is displayed with Method.

    3. If you have categorical (nominal or ordinal) independent variables, click on the Categorical button. Mark all categorical variables and move them to the Categorical covariates box. Mark all your categorical variables again and click on the First button in the Change contrast section. Click on Change and you will see the word (first) appear after the name of the variable. Repeat this for all categorical variables. Click on Continue.

    4. Click on Options. Select the following options: Classification plots, Hosmer-Lemeshow goodness of fit, Casewise listing of residuals and CI for Exp (B) .

    5. Click Continue and then OK (or Paste to save the Syntax Editor).

    How to interpret the logistic regression output?

    The first thing to look at in your output are the details regarding your sample size. You can find this in the Case Processing Summary table. Make sure that it contains the number of test subjects that you have entered. The following table, Dependent Variable Encoding , shows how SPSS has encoded your dependent variable. Check in the table that follows (Categorical Variables Coding) the coding of your independent variables. Also check the number of cases per category in the Frequency column; you don't want groups with very small numbers.

    The following output part (Block 0) concerns the results of the analysis without one of the independent variables being included in the model; this serves as a baseline to compare with the model in which the variables are included. First go to the next section; Block 1. Here your model (with the independent variables in it) is tested. The Omnibus Tests of Model Coefficients provides a general indication of how well the model is performing, compared to the results from Block 0, where none of the independent variables are included in the model. This is also referred to as the 'goodness of fit' test. Here you want a high significant value (Sig. Value <.05 because="" that="" means="" your="" model="" with="" predictors="" is="" better="" than="" the="" baseline="" model.="" results="" in="">Hosmer and Lemeshow Test table provide support for the goodness or fit of your model. Please note that this test is interpreted very differently than the omnibus test. For the Hosmer and Lemeshow Goodness of Fit Test, a bad fit is indicated by a significance value of less than .05, which means that you want to see a high significance value here.

    The Model Summary table also provides information about the usability of the model. The Cox & Snell R Square and the Nagelkerke R Square values ​​provide an indication of the amount of variation in the dependent variable that is explained by the model (ranging from 0 to 1).

    The Classification Table provides an indication of how well the model is able to predict the correct category for each case. You can compare this table with the Classification Table from Block 0 to find out how much improvement occurs in the model when the independent variables are included.

    The sensitivity of the model is the percentage of the group that contains the characteristic that you are interested in and that are correctly determined by the model ('true positives'). The specificity of the model is the percentage of the group that does not contain the characteristic in which you are interested and has been correctly established ('true negatives'). The positive predictive value is the percentage of cases where the model states that they have the characteristic and that actually have this characteristic. The negative predictive value is the percentage of cases where the model states that they do not have the characteristic and that do not actually have this characteristic.

    The Variables in the Equation table provides information about the contribution or importance of each of your independent variables based on the Wald test; you can read this in the Wald column. Now go in the Sig. -column looking for values ​​less than .05; these are the variables that contribute significantly to the predictive value of the model. Check whether the B values ​​are positive or negative; this says something about the direction of the relationship. If you have correctly coded all variables, negative B values ​​mean that an increase in the independent variable score will result in a reduced chance that the case will have a score of 1 on the dependent variable. The opposite applies to positive B values. Another useful information item in the Variables in the Equation table can be found in the Exp (B) column; these values ​​are the odds ratios (OR) for each of your independent variables. According to Tabachnick and Fidell, the OR represents " the change in odds of being in one of the categories or outcome when the value of a predictor increases by one unit". We prefer to convert OR smaller than 1 (1 divided by the value) when we report this for the purpose of interpretation.

    A 95% confidence interval is given for each of the OR (95% CI for EXP (B) ); You should mention this in your results.

    The last table in the output (Casewise List) provides information about cases in your sample for whom the model does not fit well. Cases with ZResid values ​​above 2.5 or below -2.5 are outliers and must therefore be investigated more closely.

    Using logistic regression you can test models with which you can predict categorical outcomes - consisting of two or more categories. Using logistic regression you can measure how well your set of predictive variables is able to predict or explain your categorically dependent variable. It offers you an indication of the adequacy of your model by mapping the 'goodness of fit'. Your independent variable can be either categorical or continuous, or a combination of both. Here is shown how to perform a binomial (also called binary) logistic regression with a dichotomous dependent variable (so with only two categories or values). If your dependent variable consists of several categories, you will have to perform a multinomial logistic regression. This is not covered here, but is of course available in SPSS (see the Help menu).

    How do you perform factor analysis in SPSS? - Chapter 15

    Factor analysis differs from many of the other techniques in SPSS. It is not designed to test hypotheses or to indicate whether one group differs significantly from the other. Instead it takes a large set of variables and looks for a way to 'reduce' or summarize the data by using a smaller set of factors or components. This is done by searching for clusters or groups between the intercorrelations of a set of variables. There are two core approaches to factor analysis: (1) explorative factor analysis - often used during the early stages of research to collect information about the relationships between a set of variables - and (2) confirmatory factor analysis - applied later in the research process to specific hypotheses or theories regarding test the underlying structure of a set of variables.

    The term "factor analysis" includes a variety of different related techniques. One of the most important distinctions is that between principal component analysis (PCA) and factor analysis (FA). These two techniques are similar in many respects; both attempt to produce a smaller number of linear combinations of the original variables in a manner that includes (or can explain) most of the variability in the correlation pattern. Of course there are also differences; in PCA the original variables are transformed into a smaller set of linear combinations using all variance in the variables, while in FA the factors are estimated using a mathematical model where only the shared variance is analyzed.

    How to conduct a factor analysis?

    Step 1: Assessment of the suitability of the data (assumptions)

    <

    p>There are two important issues that you should take into account when determining the suitability of your dataset for factor analysis: sample size and the strength of the relationship between your variables (or items). There are not really clear guidelines for the sample size. Generally applies; the bigger the better. If you have a small sample (<150) or many variables, then look for more information about factor analysis.

    The second issue concerns the strength of the intercorrelations between the items. Tabachnick and Fidell recommend that correlation coefficients have values ​​greater than .3. SPSS offers two statistical measurements that can help determine the factorability of the data: (1) Bartlett's test for sphericity, and (2) Kaiser-Meyer-Olkin (SME) measurement for sample adequacy. Bartlett's test must be significant (p <.05 for="" appropriate="" factor="" analysis.="" the="" sme="" index="" must="" have="" a="" minimum="" value="" of="" .6="" good="">

    Step 2: Factor extraction

    Factor extraction involves determining the smallest number of factors that can best be used to represent the interrelationships between the set of variables. There are different approaches that can be applied to identify the number of underlying factors or dimensions, of which PCA is the most used. It is up to the researcher to determine the number of factors that he / she believes is the best representation of the underlying relationship between the variables. Techniques that can be applied to help determine the number of factors are:

    1. Kaiser's criterion: also known as the eigenvalue rule. Based on this rule, only factors with an eigenvalue of 1.0 or more are used for further research.

    2. Catell's scree test: in this test all eigenvalues ​​of the factors are plotted and this plot then searches for the point where the shape of the curve changes direction and becomes horizontal. Catell advises to keep all factors above this point.

    3. Horn's parallel analysis: this includes comparing the magnitude of the eigenvalues ​​with the eigenvalues ​​obtained from a randomly generated data set of the same size. Only the eigenvalue that overwrites the corresponding values ​​of the random data set is retained. This approach appears to be the most accurate (Kaiser's criterion and Catell's scree test tend to overestimate the number of components).

    Step 3: Factor rotation and interpretation

    After the number of factors has been determined, they must be interpreted. To facilitate this process, the factors are 'rotated'. SPSS shows which variables clump together; it is up to you to provide possible interpretations here.

    There are two general rotation approaches that result in orthogonal (non-correlated) or oblique (correlated) factor solutions. In practice, these two approaches often result in similar results, especially when the correlation pattern between the items is clear. Pallant advises starting with oblique rotation to investigate the degree of correlation between your factors.

    Within the two broad categories of rotation approaches, a number of different techniques are available in SPSS. The most commonly used orthogonal technique is the Varimax method; it tries to minimize the number of variables with high loads on each factor. The most commonly used oblique technique is Direct Oblimin.

    What is the procedure for factor analysis?

    Before you start the procedure below, first go to Edit in the main menu. Select Options there and make sure that the box No scientific notation for small numbers in tables is checked.

    1. Click on Analyze in the menu at the top of the screen, then select Dimension Reduction and then Factor.

    2. Select all required variables (or items) and move them to the Variables box.

    3. Click on the Descriptives button. Make sure that in the Statistics section Initial Solution is checked. In the Correlation Matrix section, select the Coefficients and SME and Bartlett's test of sphericity options. Click on Continue.

    4. Click on the Extraction button.
      Ensure that Principal components is shown in the Method section, or choose one of the other factor extraction techniques (for example Maximum likelihood). Select the Correlation matrix in the Analyze section . In the Display section, Screeplot and the Unrotated factor solution must be selected. In the Extraction section, select the Based on Eigenvalue option or click on Fixed number of factors if you want to specify a specific number of factors and type in the number of desired factors. Click on Continue.

    5. Click on the Rotation button. Choose Direct Oblimin and click Continue.

    6. Click on the Options button and in the Missing Values section select the option Exclude cases pairwise. In the Coefficient Display Format section selects the options Sorted by size and Surpress small coefficients. Type the value of .3 in the box to Absolute value below. This means that only factor loads with a value greater than .3 will be displayed, which makes the output easier to interpret.

    7. Click Continue and then OK (or Paste to save the Syntax Editor).

    How to interpret the factor analysis output? (Part 1)

    Step 1: assess the suitability of your data set

    Check if the Kaiser-Meyer-Olkin Measure or Sampling Adequacy (SME) value is .6 or higher and that the value of Bartlett's test of sphericity is significant (.05 or smaller) to verify whether your dataset is suitable for factor analysis. Search the Correlation Matrix table for correlation coefficients of .3 or higher.

    Step 2: Factor extraction using Kaiser's criterion

    To determine how many components meet the self-esteem criterion of 1 or higher, look at the Total Variance Explained table. Look at the values ​​in the first series of columns ( Initial Eigenvalues ). In the Cumulative% column you can see how many percent of the variance explains the components.

    Step 3: Factor extraction using Catell's scree test

    Kaiser's criterion often gives too many components. That is why it is important to look at the Screeplot . Look for the point where the shape of the curve changes direction and becomes horizontal. All factors above this point must be retained.

    Step 4: Factor extraction using parallel analysis

    For parallel analysis, the third way to determine the number of factors, you must use the self-esteem list in the Total Variance Explained table and additional information provided by another statistical program (available from the website of this book). Follow the link to the Additional Material site and download the zip file (parallel analysis.zip) on your computer. Unzip this file on your hard drive and click on the MonteCarloPA.exe file. The Monte Carlo PCA for Parallel Analysis program will now start, in which you must then enter the following information: (1) the number of variables you want to analyze, (2) the number of participants in your sample, and (3) the number of replications). Click on Calculate. You must then systematically compare the first eigenvalue that you obtained in SPSS with the first value from the results of the parallel analysis. If your value is greater than the criterion value from the parallel analysis, you retain this factor; if your value is smaller, you reject it.

    Step 5: Inspect factor loads

    In the Component Matrix table you will find the unloaded loads of each of the items on the different components. SPSS uses Kaiser's criterion as the standard technique.

    Step 6: Inspect the rotated factor solution

    Before you make a final decision regarding the number of factors, you must look at the rotated factor solution in the Pattern Matrix table: this shows the item loads on the various factors. Ideally, you want at least three item loads per component. If this is not the case, you will have to find a solution with fewer factors. In this case, follow the procedure below:

    1. Repeat all steps mentioned earlier in this chapter. Note: when you now click on the Extraction button, select Fixed number of factors . In the box next to Factors to extract, type in the number of factors that you want to extract.

    2. Click Continue and then OK .

    How to interpret the output of factor analysis? (Part 2)

    The first thing to check is the percentage of variance explained by the new factor solution; this is stated in the Total Variance Explained table. After rotation of the new factor solution, you will find three new tables to look at at the end of your output. First, the Component Correlation Matrix (at the end of your output); this shows the strength of the relationship between the factors. This gives you information before you decide whether it was reasonable to assume that the components are not related to each other (and therefore the Varimax rotation can be applied), or whether the Oblimin rotation solution should be applied and reported.

    Oblimin rotation yields two tables of factor loads. The Pattern Matrix displays the factor loads of each of the variables. Search for the highest loaded items on each component to identify and name the component. The Structure Matrix table provides information about the correlation between variables and factors. If you need to present the Oblimin rotation solution in your output, you must display both tables.

    Earlier in the output you will find the table called Communalities ; this table provides information about how much variance is explained in each item. Low values ​​(<.3 may="" mean="" that="" the="" item="" does="" not="" fit="" well="" with="" other="" items="" in="" component.="" if="" you="" want="" to="" improve="" or="" refine="" scale="" can="" use="" this="" information="" remove="" from="" scale.="" removing="" low="" common="" values="" increases="" total="" explained="" variance.="" change="" drastically="" depending="" on="" number="" of="" factors="" are="" retained.="" it="" is="" therefore="" often="" better="" interpret="" have="" chosen="" how="" many="" should="" keep="" according="" scoring="" plot="" and="" parallel="" analysis.="">

    How are the results of a factor analysis reported?

    The information that you present in your results depends on your field, the type of report you write and where your report will be presented. If you want to publish your research within the field of psychology and education, there are fairly strict requirements that you place in your article when you have used factor analysis. First of all, you must display the details of the factor extraction method that you used; therefore the criteria used to determine the number of factors, the type of rotation technique, the total explained variance, the original eigenvalues ​​and the eigenvalues ​​after rotation. In your report you must include a table with factor loads with all values ​​in it (not just values > .3). In the case of the Varimax rotated solution, the table should be called 'pattern / structure coefficients'. In the case of the Oblimin rotation, both the Pattern Matrix and the Structure Matrix coefficients must be fully presented, together with the information about the correlations between the factors.

    Factor analysis differs from many of the other techniques in SPSS. It is not designed to test hypotheses or to indicate whether one group differs significantly from the other. Instead it takes a large set of variables and looks for a way to 'reduce' or summarize the data by using a smaller set of factors or components. This is done by searching for clusters or groups between the intercorrelations of a set of variables. There are two core approaches to factor analysis: (1) explorative factor analysis - often used during the early stages of research to collect information about the relationships between a set of variables - and (2) confirmatory factor analysis - applied later in the research process to specific hypotheses or theories regarding test the underlying structure of a set of variables.

    How do you use SPSS for non-parametric statistics? - Chapter 16

    Non-parametric statistics are ideal when your data is measured on a nominal or ordinal scale. They are also useful when you have very small samples and when your data does not meet the assumptions of the parametric techniques.

    IBS SPSS provides various non-parametric techniques for different situations. The most commonly used non-parametric techniques are explained below.

    Which non-parametric techniques are available?

    Non-parametric technology

    Parametric alternative

    Chi-square test for goodness or fit

    No

    Chi-square test for independence

    No

    McNemar's Test

    No

    Cochran's Q Test

    No

    Kappa Measure of Agreement

    No

    Mann-Whitney U Test

    T-test for independent sampling

    Wilcoxon Signed Rank Test

    T-test for paired samples

    Kruskal-Wallis Test

    ANOVA one-way between-groups

    Friedman Test

    ANOVA one-way repeated measures

    Assumptions for non-parametric techniques

    General assumptions of non-parametric techniques that require checking are:

    • Random samples

    • Independent observations (with the exception of techniques where repeated measurements are performed).

    In addition, some techniques have additional assumptions; these will be discussed per technique.

    How to perform the chi-square test for goodness or fit?

    This test, also called the one-sample chi-square, is often used to compare the proportion of cases from a sample with hypothetical values ​​or previously obtained values ​​from comparable populations. The only thing you need in the data file is one categorical variable and a specific proportion against which you want to test the observed frequencies.

    Procedure for chi-square test for goodness or fit

    1. Click on Analyze in the menu at the top of the screen, then select Non-parametric Tests, then Legacy Dialogs and then Chi-square.

    2. Move the categorical variable to the Test Variable List box. In the Expected Values section, click on the Values option. In the Values box you must enter the values ​​of your variables: The first value corresponds to the expected proportion for the first coded value of the variable (e.g., 1 = yes). Click on Add. The second value is the expected proportion for the second coded value (e.g., 2 = no). Click on Add . Etc.

    3. Click OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    The first table shows the observed frequencies of the current data file. In the Test Statistics table the results of the Chi-Square Test - which compares the expected and observed values ​​with each other - are reported.

    Reporting the results

    You must include the chi-square value, the degrees of freedom (df) and the p-value (Asymp. Sig.) in the results.

    How to conduct the chi-square test for independence?

    The Chi-square test for independence is used when you want to study the relationship between two categorical variables. Each of these variables can have two or more categories. The chi-square test for independence compares the observed frequencies or proportions of cases that occur in each of the categories with the values ​​that are expected if there is no association between the measured variables. When SPSS encounters a 2x2 table (2 categories in each variable), the output includes an additional correction value (Yates' Correction for Continuity); this value is designed to compensate for what some researchers regard as an overestimate of the chi-square value when it is used in a 2x2 table.

    Additional assumptions

    The lowest expected frequency must be at least 5 for each cell. If you have a 2x2 table, it is recommended that you have a minimum expected frequency of 10. If you have a 2x2 table that violates this assumption, you should consider reporting Fisher's Exact Probability Test instead.

    Procedure

    1. Click on Analyze in the menu at the top of the screen, then select Descriptive Statistics and then Crosstabs.

    2. Click on the variable (s) that you want to make your row variable (s) and move it to the Row (s) box.

    3. Click on the other variable(s) that you want to make your column variable(s) and move it to the Column(s) box.

    4. Click the Statistics button. Check Chi-square and Phi and Cramer's V and click Continue. Click on the Cells button. Make sure the option Observed is checked in the Counts box. Then go to the Percentage section and click on the Row box. Click on Residuals on Adjusted standardized .

    5. Click Continue and then OK (or Paste to save the Syntax Editor).

    Interpretation of the output


    To start with, it is important to see whether assumptions have been violated when it comes to the chi-square 'minimum expected cell frequency'. This must be 5 or larger.

    The most important value that you are interested in is the Pearson Chi-Square value; you can find this in the Chi-Square Tests. If you have a 2x2 table, use the value from the second row (Continuity Correction). This is Yates's continuity correction.

    For more detailed information from a study, cross-references in a Crosstabulation can also be used.

    Different types of statistics are available in the Crosstabs procedure to calculate the effect size. The two most common are:

    • Phi coefficient: this is a correlation coefficient that can vary between 0 and 1. The higher the value, the stronger the association between the two variables. The phi coefficient is often used with 2 by 2 tables.

    • Cramer's V: this statistic shows the value of tables that are larger than 2 by 2. The number of degrees of freedom (df) is also taken into account.

    How to perform McNemar's test?

    You can not use a chi-square tests in the event of identical or repeated measurements. In that case, the McNemar test can be used as an alternative. Your data is also different. With equal or repeated measurements you have two variables; the first was measured at time 1 (before an intervention) and the second at time 2 (after an intervention). Both variables are categorical and map the same information.

    Procedure for McNemar's test

    1. Click on Analyze in the menu at the top of the screen, then select Nonparametric tests and then Related samples.

    2. At "What is your objective?" Click on Customize analysis.

    3. Go to Fields. Select the two variables and move them to the Test Fields box.

    4. Click on Settings tests on Customize tests .

    5. Click on the box to select McNemar's test (2 samples). Click on Define Success and then on OK.

    6. Click Run (or Paste to save the Syntax Editor).

    Interpretation of the output

    If the p-value (Sig.) Is less than .05, it means that there is a significant difference between your two variables.

    
The McNemar test is only applicable if you have two response categories (eg yes / no or present / absent). However, if you have three or more categories, the McNemar's test can still be used. SPSS then automatically generates the results of the McNemar-Bowker symmetry test.

    How to perform Cochran's Q test?

    1. Click on Analyze in the menu at the top of the screen, then on Nonparametric Tests, then on Related Samples.

    2. At "What is your objective?" Click on Customize analysis.

    3. Click on the variables that represent the different time moments and move them to the Test Fields box.

    4. Click on Settings tests on Customize tests.

    5. Click on Cochran's Q (k samples). Make sure that the option All pairwise is selected for Multiple comparisons.

    6. Click OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    To determine if there is a significant difference between the variables / time moments, look at the p-value (Asymp. Sig.); it must be less than .05.

    How to measure the correspondence between two tests with Kappa?

    Kappa's measure of agreement (measure of agreement) is often applied when the inter-assessor reliability must be established. Kappa is an estimate of the degree of agreement between two assessors or tests. This takes into account the degree of agreement that might have happened by chance (coincidence).

    The value obtained from Kappa's measure of conformity is influenced by the prevalence of the positive value. This means that in studies where the domain of interest is rare, kappa statistics can be very low, despite high levels of general agreement.

    An additional assumption of this approach is that it is assumed that assessor / test 1 and assessor / test 2 have the same number of categories.

    Procedure for Kappa: measure of conformity

    1. Click on Analyze in the menu at the top of the screen, then on Descriptive Statistics and then on Crosstabs.

    2. Click on the variable that you want in the output table in the row and move it to the Row(s) box.

    3. Click on the other variable that you want in the output table in the column and move it to the Column(s) box.

    4. Click the Statistics button, select Kappa, and click Continue.

    5. Click on the Cells button.

    6. Make sure the option Observed is checked in the Counts box.

    7. Click in the Percentage section on Column. Click Continue and then OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    The most important information can be found in the Symmetric Measures table. A value of .5 means an average match. A Kappa value of .7 and higher means a good agreement and a value of .8 represents a very good agreement.

    Sensitivity and specificity

    The frequencies and percentages as shown in the Crosstabulation table can also be used to calculate the sensitivity and specificity of a measurement or test.

    Sensitivity indicates the proportion of cases with a disease or disorder that have been correctly diagnosed. Specificity indicates the proportion of cases without the disease or disorder that have been correctly classified.

    How to perform the Mann-Whitney U test?

    The Mann-Whitney U Test is used to test the differences between two independent groups on a continuous scale. This test is the non-parametric alternative to the t-test for independent samples. The Mann-Whitney U Test compares medians of the two groups. It converts the scores of the continuous variable to rank the two groups. The test then checks whether the grades of the two groups differ significantly.

    Procedure for Mann-Whitney U Test

    1. In the menu at the top of the screen, click Analyze, then Nonparametric Tests, then Independent Samples.

    2. At "What is your objective?" Click on Customize analysis.

    3. Go to Fields.

    4. Move the categorical (independent) variable to Groups.

    5. Move the continuous (dependent) variable to the Test Fields box.

    6. Click on Settings tests on Customize tests. Click on Mann-Whitney U (2 samples).

    7. Click Continue and then OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    The most important values ​​in your output are the Z value and the significance level which is represented as Asymp. Sig. (2-tailed). If your sample is larger than 30, SPSS will give the value for a Z approximation test.

    If there are statistically significant differences between the groups, the direction of the difference must be determined. In other words: which group is higher? You can read this from the Ranks table under the Mean Rank column . When reporting the results, it is important to display the median values ​​of each group separately. To do this, you must follow the following steps:

    1. Click on Analyze in the menu at the top of the screen , then on Compare Means and then choose Means .

    2. Move your continuous variable to the Dependent List box.

    3. Move your categorical variable to the Independent List box.

    4. Click on Options. Click in the Statistics section on Median and move it to the Cell Statistics box, Click Mean and Standard Deviation and remove it from the Cell Statistics box.

    5. Click Continue and then OK (or Paste to save the Syntax Editor).

    Effect size

    SPSS does not provide a statistical representation of the effect size. Using the z value (as shown by the output) the estimated value of r can be calculated:

    r = z / √N, where N is the number of cases.

    How to perform the Wilcoxon Signed Rank test?

    Wilcoxon's 'ranking test' is designed to perform repeated measurements. For example, when participants are measured at two different times or under two different conditions. It is the non-parametric alternative to the t-test for repeated measurements (or t-test for paired samples). The Wilcoxon ranking test converts the scores to levels and compares them with each other at time 1 and time 2.

    Procedure for the Wilcoxon Signed Rank Test

    1. In the menu at the top of the screen, click Analyze, then Nonparametric Tests, then Legacy Dialogs and then choose 2 Related Samples.

    2. Click on the variables that represent the scores at times 1 and 2 and move them to the Test Pairs box.

    3. Make sure the Wilcoxon option is checked in the Test Type section.

    4. Click on Options and select Quartiles (this yields the median for every time).

    5. Click Continue and then OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    The two outcomes in which you are interested are the Z value and the corresponding significant levels (shown as Asymp. Sig. (2-part) ). If the significance level is equal to or lower than 0.5, then there is a statistically significant difference between the two scores.

    Effect size

    For the Wilcoxon ranking test, the effect size can be calculated in a similar way as for the Mann-Whitney U test; namely by dividing the z-value by the square root of N, where N in this case stands for the number of observations taken over the two times and therefore not the number of cases.

    How to perform the Kruskal-Wallis test?

    The non-parametric alternative to a one-way between-groups variance analysis is the Kruskal-Wallis test (or Kruskal-Walles H test). This test makes it possible to compare the scores of a variable consisting of three or more groups. Because it involves an analysis between different groups, there must be different people in each different group.

    Procedure for Kruskal-Wallis Test

    1. In the menu at the top of the screen, click Analyze, then Nonparametric Tests, then Independent Samples.

    2. At "What is your objective?" Click on Customize analysis.

    3. Go to Fields.

    4. Move the continuously dependent variable to the Test Fields box.

    5. Move the categorical independent variable to Groups.

    6. Click on Settings tests on Customize tests. Click on Kruskal Wallis 1-way ANOVA. Make sure that the option All pairwise is selected for Multiple comparisons.

    7. Click Run (or Paste to save the Syntax Editor).

    Interpretation of the output

    The most important information you need from the output of the Kruskal-Wallis Test are the value of the Chi-square, the degrees of freedom (df) and the significance level (shown as Asymp. Sig.).

    If the significance level is lower than .05, this indicates a statistically significant difference in your continuous variable between the three groups. For the three groups you can then look at the Mean Rank, which is shown in the first output table. From this you can see which group on average scores the highest.

    Post-hoc tests and effect size

    After performing the Kruskal-Wallis Test, you are not yet sure which groups differ statistically significantly from each other. This requires follow-up Mann-Whitney U tests between pairs of groups. To prevent Type 1 errors, a Bonferroni adjustment to the alpha values ​​is needed if you want to compare the groups with each other.

    The Bonferroni adjustment means that the alpha level of .05 is divided by the number of tests that you want to apply and that you will use the revised alpha level as a criterion to determine significance.

    How to perform the Friedman test?

    The non-parametric alternative to a one-way repeated measures variance analysis is the Friedman Test. This test can be used when taking the same samples and measuring them at three or more times under three or more different conditions.

    Procedure for Friedman Test

    1. In the menu at the top of the screen, click Analyze, then Nonparametric Tests, then Legacy Dialogs and then K Related Samples.

    2. Move the variables that represent the measurements to the Test Variables box.

    3. Make sure the Friedman option is selected in the Test Type section.

    4. Click Statistics and check the Quartiles option.

    5. Click Continue and then OK (or Paste to save the Syntax Editor).

    Post-hoc tests and effect size

    If it is determined that there is a statistically significant difference somewhere in the three time points, the next step would be to perform a post-hoc test to compare the time points in which you are interested.

    Non-parametric statistics are ideal when your data is measured on a nominal or ordinal scale. They are also useful when you have very small samples and when your data does not meet the assumptions of the parametric techniques.

    IBS SPSS provides various non-parametric techniques for different situations. The most commonly used non-parametric techniques are explained below.

    Which t-tests can be used in SPSS? - Chapter 17

    There are different t-tests available in SPSS, the following two will be discussed here:

    • T-test for independent samples (independent-samples t-test): this test is used to compare the means of two different groups of people or conditions.

    • T-test for paired samples (paired-samples t-test): this test is used to compare the means of the same group of people at two different times or when there are equal (matched) pairs.

    If there are more than two groups or conditions, these tests cannot be used; in that case a variance analysis should be conducted.

    What does the T-test for independent samples look like?

    An independent-samples t-test is used when you want to compare the mean score on a continuous variable of two groups of participants. On the basis of this test you can determine whether there is a statistically significant difference between the averages of two groups. In statistical terms: it is tested what the likelihood is that two sets of scores are from the same population.

    The non-parametric alternative to this test is the Mann-Whitney U Test.

    Procedure for the t-test for independent sampling

    1. Click on Analyze in the menu at the top of the screen, then on Compare Means and then on Independent Samples T Test.

    2. Move the dependent (continuous) variable to the Test variable box.

    3. Move the independent (categorical) variable to the Grouping variable part.

    4. Click on Define Groups and enter the number of numbers used in the dataset to code each group. If you cannot remember which values ​​are used for which group, right-click on the name of the variable and click on the Variable Information option . A pop-up box will appear in which the values ​​and labels for this variable are stated. After you have entered the values, close the pop-up box and click Continue.

    5. Click OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    Step 1: Check the information about the groups.

    Check the mean, the standard deviation and the group size (N) of both groups, found in the table of the Group Statistics.

    Step 2: Check whether the assumptions are met.

    Check the result of the Levene's test (in the first part of the Independent Samples Test output box) . This test determines whether the variance of the scores is the same for the two groups. The result determines which t-value generated by SPSS should be used. Namely, if the significance value (p) is greater than .05, the first line of the table must be read ( Equal variances assumed). If the significance levels are equal to or lower than .05, the data violates the assumption of equal variance and the second line of the table must be read ( Equal variances not assumed).

    Step 3: Map the differences between the groups.

    Read the significance value under Sig. (2-tailed) that can be found under t-test for Equality of Means. Whether you need to read this value for equal variances assumed or not assumed is therefore clear from step 2. With a value equal to or lower than .05, there is a significant difference between the average scores on your dependent variable for all two groups . With a value higher than .05, there is therefore no significant difference between the two groups.

    Calculate the effect size

    SPSS does not produce effect sizes. Eta squared can be calculated manually based on the information from the output, using the following formula:

    η2 = t2 / t2 + (N1 + N2 - 2)

    The effect size can be determined with the Cohen guidelines:

    • 0.01 is a small effect
    • 0.06 is an average / moderate effect
    • 0.14 is a big effect.

    What does the T-test for paired samples look like?

    A paired-samples t-test (also called repeated measures t-test) is used if you want to collect data from just one group of people at two different times or under two different conditions. This is, for example, an experimental design with a pre-test / post-test. This test is also used when there are matched pairs of participants (each participant is matched with another participant based on a specific criterion); One is exposed to Intervention 1 and the other to Intervention 2. The scores on a continuous measurement are then compared for each pair.

    With this test you can determine whether there is a statistically significant difference between the average scores at time 1 and time 2. The basic assumptions for t-tests apply here. An addition to this is the assumption that the difference between the two scores of each participant is normally distributed. With a sample size greater than 30, it is unlikely that a violation of this assumption will cause serious problems.

    The non-parametric alternative to this test is the Wilcoxon Signed Rank Test.

    Procedure for the t-test for paired samples

    1. Click on Analyze in the menu at the top of the screen, then on Compare Means and then on Paired Samples T Test.

    2. Move the two variables that you want to compare for each participant to the Paired Variables box.

    3. Click OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    Step 1: Determine the general meaning.

    In the Paired Samples Test table the p ( probability ) value must be looked at in the last column ( Sig (2-tailed) ) . If this value is lower than .05, then there is a significant difference between the two scores.

    Step 2: Compare the averages.

    After it has been determined whether there is a significant difference, it is necessary to find out which series of scores is higher. For this, the Mean scores in the Paired Samples Statistics table must be looked at .

    Calculate the effect size

    SPSS does not produce effect sizes. Eta squared can be calculated by hand using the following formula:

    η2 = t2 / t2 + (N - 1)

    The effect size can be determined with the Cohen guidelines. These are the same guidelines as for the t-test for independent samples:

    • 0.01 is a small effect
    • 0.06 is an average / moderate effect
    • 0.14 is a big effect.

    There are different t-tests available in SPSS, the following two will be discussed here:

    • T-test for independent samples (independent-samples t-test): this test is used to compare the means of two different groups of people or conditions.

    • T-test for paired samples (paired-samples t-test): this test is used to compare the means of the same group of people at two different times or when there are equal (matched) pairs.

    If there are more than two groups or conditions, these tests cannot be used; in that case a variance analysis should be conducted.

    How do you use one-way ANOVA in SPSS? - Chapter 18

    T-tests are used to compare the scores of two different groups or conditions. In many research situations, however, we are interested in comparing average scores from more than two groups. In that case, variance analysis (ANOVA) is used. Variance analysis is so called because the variance (variability in scores) between the different groups (which is expected to be explained by the independent variable) is compared with the variability within each of the groups (which is expected to be caused by chance ). The F ratio - or the variance between the groups divided by the variance within the groups - is calculated. A significant F value means that the null hypothesis, namely that the population means are equal, can be rejected. Because it says nothing about which groups differ from each other, post-hoc tests still have to be performed. An alternative to post-hoc testing is to perform specific comparisons (or planned comparisons ).

    Two types of one-way ANOVAs are discussed below, namely:

    1. Between-groups ANOVA, which is used when dealing with different participants / cases in each of your groups (also called the independent groups design).
    2. Repeated measures ANOVA, which is used when you compare the same participants under different conditions / times (also called the within-subjects design).

    When do you use post-hoc tests at ANOVA?

    The one-way between-groups ANOVA is applied when you have one categorically independent (grouping) variable with at least three levels (groups) and one continuously dependent variable.

    The non-parametric alternative of the one-way between-groups ANOVA is the Kruskal-Wallis Test.

    Procedure for one-way between-groups ANOVA with post-hoc tests

    1. Click on Analyze in the menu at the top of the screen, then on Compare Means and then on One-way ANOVA.

    2. Move your dependent variable to the Dependent List box.

    3. Move your independent variable to the Factor box.

    4. Select Options and select Descriptive, Homogenity or variance test, Brown-Forsythe, Welch and Means Plot.

    5. In Missing values, make sure that the option Exclude cases analysis by analysis is checked and click on Continue.

    6. Click on Post Hoc and select Tukey .

    7. Click Continue and then OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    Always check the Descriptives table first; Here you will find information about each group. Then look in the Test of Homogeneity of Variances table, where you will find Levene's test for equal variances. If the significance value (Sig.) Is greater than .05, the assumption of equal variances is not violated. If this is the case, consult the Robust Tests of Equality Means table. The two tests listed here (Welch and Brown-Forsythe) are better to use in that case.

    In the ANOVA table you are mainly interested in the Sig. -column; here you will find the p value. If this is less than .05, there is a significant difference between the average scores of your dependent variable for the different groups. It does not tell you which groups differ from each other. The statistical significance of the differences between each pair of groups can be found in the Multiple Comparisons table, where you will find the results of the post-hoc tests. The averages of each group are in the Descriptives table. Only look at the Multiple Comparisons table when you have found a significant value in your general ANOVA (see the ANOVA table). Look at the Mean Difference column and look for asterisks (*) next to the values. When you see an asterisk, it means that the two groups being compared with each other differ significantly with a p-value <.05. the="" exact="" significant="" value="" is="" stated="" in="">Sig. -column.

    The Means plot is a simple way to compare the average scores of the different groups. These plots can be misleading, so always look carefully at the values ​​on the y-axis.

    Calculate the effect size

    Although SPSS does not generate an effect size, it can be calculated using the information from the ANOVA table. Use the following formula:

    η2 = sum of squares between groups / total squared sum

    When to use planned comparisons at ANOVA?

    Use planned comparisons when you are interested in comparisons between specific groups. This technique is more sensitive in detecting differences. Post-hoc testing, on the other hand, sets stricter significance levels to reduce the risk of Type 1 errors. You must decide whether you use post-hoc tests or planned comparisons before you begin your analysis.

    Specifying coefficient values

    First you have to classify your groups based on the different values ​​of the independent variable (eg age categories). You must then decide which groups to compare and which to ignore. The sum of the coefficient values ​​must always be 0. Coefficients with different values ​​are compared with each other. If you want to ignore one of the groups, give it the value 0.

    Procedure for one-way between-groups ANOVA with planned comparisons

    1. Click on Analyze in the menu at the top of the screen, then on Compare Means and then on One-way ANOVA.

    2. Move your dependent (continuous) variable to the Dependent List box.

    3. Move your independent variable to the Factor box.

    4. Select Options and select Descriptive, Homogenity or variance test, Brown-Forsythe, Welch and Means Plot.

    5. In Missing values, make sure that the option Exclude cases analysis by analysis is checked and click on Continue.

    6. Click on Contrasts. Enter the coefficient for the first group in the Coefficients box and click Add . Enter the coefficients for the second group and click Add . Do this for all your groups. The Coefficient Total at the bottom of the table must be 0 if you have entered all the coefficients correctly.

    7. Click Continue and then OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    The Descriptives and Test of homogeneity of variances tables look the same as those of the one-way ANOVA with post-hoc tests. Only the output that is relevant for the planned comparisons is discussed here.

    Step 1: The Contrast Coefficients table shows the coefficients that you have entered for each group. Check if this is correct.

    Step 2: The most important results that you are interested in are in the Contrast Tests table. If Levene's test is not significant, there are equal variances, so you should look at the first row in this table. If the significance level of the contrast that you specified is significant (equal to or less than .05), it means that there is a statistically significant difference between the relevant group and the other groups. As you will see, the planned comparison analysis yields a t value instead of an F value. To get the F value, all you have to do is square the t value. You also need the degrees of freedom to report the results. The first value (for all scheduled comparisons) is 1; the second is in the table next to the t value (under df).

    What does the ANOVA One-way repeated measures look like?

    In a one-way repeated measures ANOVA design, each participant is exposed to two or more conditions or measured on the same continuous scale at three or more times. The technique can also be used to compare participants' responses to two or more different questions or items. It is important here that the questions must be measured on the same scale (eg 1 = completely disagree, up to 5 = completely agree).

    The non-parametric alternative to this test is the Friedman Test.

    Procedure for one-way repeated measures ANOVA

    1. Click on Analyze in the menu at the top of the screen, then on General Linear Model and then on Repeated Measures.

    2. Enter a name in the Within Subject Factor Name box that represents your independent variable. This is not the actual variable name, but only a label that you link to your independent variable.

    3. Enter the number of levels or groups in the Number of Levels box.

    4. Click on Add.

    5. Click on the Define button.

    6. Select the variables that represent your repeated measurements variable and move them to the Withing Subjects Variable box.

    7. Click on Options.

    8. Check the Descriptive Statistics and Estimates of effect sizes options in the Display section. If you want to request post-hoc tests, select the name of your independent variable in the Factor and Factor Interactions section and move it to the Display Means for box. Check Compare Main effects . In the Confidence interval adjustment section, click on the arrow that points downwards and choose the Bonferroni option.

    9. Click Continue and then OK (or Paste to save the Syntax Editor).

    Interpretation of the output

    In the first output box you see the descriptive statistics of your collection of scores (Mean, Standard deviation, N). Check if this is correct.

    In the following table (Multivariate tests) you are interested in the value of Wilk's Lambda and the associated significance value (under the Sig. Column). If the p-value is equal to or less than .05, you can conclude that there is a significant difference. To find out the effect size, look at the Partial Eta Squared column in the Multivariate Tests table. See the table in Part 5 for the effect size guidelines.

    When you have found a significant difference, it means that there is a difference somewhere between your groups. However, it does not tell you which groups or scores differ from each other; You can read this from the Pairwise Comparison table, in which each pair of groups is compared and it is indicated whether the difference between the groups is significant (see the Sig. column).

    T-tests are used to compare the scores of two different groups or conditions. In many research situations, however, we are interested in comparing average scores from more than two groups. In that case, variance analysis (ANOVA) is used. Variance analysis is so called because the variance (variability in scores) between the different groups (which is expected to be explained by the independent variable) is compared with the variability within each of the groups (which is expected to be caused by chance ). The F ratio - or the variance between the groups divided by the variance within the groups - is calculated. A significant F value means that the null hypothesis, namely that the population means are equal, can be rejected. Because it says nothing about which groups differ from each other, post-hoc tests still have to be performed. An alternative to post-hoc testing is to perform specific comparisons (or planned comparisons).

    How do you use two-way ANOVA in SPSS? - Chapter 19

    Two-way means that there are two independent variables. Between-groups indicates that there are different participants in each of the groups. The two-way between-groups ANOVA can be used to look at the individual and collective influence of two independent variables on one dependent variable. You can therefore not only test the main effect for each independent variable, but also see whether there is possibly an interaction effect. The latter effect occurs when the influence of an independent variable on the dependent variable is dependent on a second independent variable.

    How to perform a two-way ANOVA?

    A two-way ANOVA can be conducted using the following steps:

    1. Click on Analyze in the menu at the top of the screen, then on General Linear Model and then on Univariate.

    2. Move your dependent (continuous) variable to the Dependent variable box.

    3. Move your independent (categorical) variables to the Fixed Factors box.

    4. Click on Options and then on Descriptive Statistics, Estimates of effect size and Homogeneity of tests. Then click Continue.

    5. Click Post Hoc. Select the independent variables you are interested in from the Factors on the left and move them to the Post Hoc Tests for section. Choose which key you want to use (for example Tukey) and click Continue.

    6. Click on the Plots button. Move the independent variable with the most groups to the Horizontal box. Move the other independent variables to the Separate Lines box. Click on Add. You should now see two variables in the Plots section.

    7. Click Continue and then OK (or Paste to save the Syntax Editor).

    How to interpret the results of two-way ANOVA?

    Check in the Descriptive Statistics table if your descriptive statistics (average scores, standard deviations and number of participants (N)) are correct.

    Check in the Levene's Test of Equality or Error Variances whether the assumptions are met. You want the significance value to be greater than .05. A significant result suggests that the variance depending on you is not the same across the different groups. If this is the case, it is recommended to set a stricter level of significance (e.g., 01) to evaluate your results from your two-way ANOVA.

    The most important output of the two-way ANOVA can be found in the table called Tests of Between-Subjects. The first thing you do is see if there is an interaction effect. Namely, when this is the case, it becomes more difficult to interpret the main effects. Look in the output for the variable1 * variable 2 significance value (under the Sig. Column); if it is less than or equal to .05 (or another determined alpha value), there is a significant interaction effect. If you don't find an interaction effect, you can interpret the main effects without worry. In the left column you will find the variables that you are interested in. Look at the Sig. column next to each variable to determine if there is a main effect for each independent variable. When the significance value is less than or equal to .05 (or another determined alpha value), there is a significant main effect for that independent variable.

    The effect size can be found in the Partial Eta Squared column. Use the Cohen guidelines to interpret this.

    If you have found significant differences, then you must look for where these differences are located; you do this on the basis of post-hoc tests. These tests are only relevant if your independent variable consists of more than two levels / groups. The results of the post-hoc tests are in the Multiple Comparisons table. The Tukey Honestly Significant Difference (HSD) test is one of the most used tests. Search the Sig. column to values ​​less than .05. Significant results are also indicated with a small asterisk in the Mean Difference column.

    At the end of your output you will find a plot of the scores of the different groups. Based on this, you get a clear visual picture of the relationship between your variables. Always look carefully at the scale when you interpret the plots.

    Which additional analyzes are required in the event of a significant interaction effect?

    If you find a significant interaction effect, it is advisable to perform follow-up tests to examine this relationship more precisely (only if one of your variables consists of at least three levels). This can, for example, be done on the basis of a simple effect analysis. This means that you will view the results of each of the subgroups separately. To do this, you must split the sample into groups according to one of your independent variables and perform separate one-way ANOVAs to investigate the effect of the other variable. Follow the following procedure for this:

    1. In the menu at the top of the screen, click Data and then Split File.

    2. Click on Organize output by groups.

    3. Place the grouping variable to the Groups based on box. This splits the sample based on this variable and repeats all analyzes that follow for these two groups separately.

    4. Click OK.

    After you split your file, perform a one-way ANOVA. Note: When you have finished the analysis, do not forget to disable the Split File option. To do this, go to Data again and select Split File. Check the first option (Analyze all cases, do not create groups) and click OK.

    Two-way means that there are two independent variables. Between-groups indicates that there are different participants in each of the groups. The two-way between-groups ANOVA can be used to look at the individual and collective influence of two independent variables on one dependent variable. You can therefore not only test the main effect for each independent variable, but also see whether there is possibly an interaction effect. The latter effect occurs when the influence of an independent variable on the dependent variable is dependent on a second independent variable.

    SPSS Survival Manual by Pallant - 6th edition - BulletPoints

    How to design a study that uses SPSS? - BulletPoints 1

    • Three important situations in which you can use SPSS: (1) checking the reliability of a sample; (2) checking the reliability of results; (3) visualize data.

    • The reliability of a scale indicates to what extent the scale is free from random error. There are two types of reliability: test-retest reliability and internal consistency.

    • The reliability of a scale indicates to what extent the scale is free from random error. There are two types of reliability: content validity, criterion validity, and construct validity.

    How to make a codebook for SPSS? - BulletPoints 2

    • Before you can enter all information from questionnaires and experiments in IBM SPSS it is necessary to make a codebook. This is a summary of the instructions that you will use to convert the information of each test subject into a format that IBM SPSS can understand. Preparing a codebook consists of (1) defining and labeling each variable, and (2) assigning numbers to all possible answers.

    • A codebook basically consists of four columns:
      (1) The abbreviated name of the variable (for example 'ID' for 'identification number);
      (2) The written name of the variable (for example 'identification number');
      (3) An explanation of how the possible answers are taught (for example 1 = men, 2 = women);
      (4) The measurement scale (for example nominal).

    How to start with IBM SPSS? - BulletPoints 3

    • It is important to always save your data when you are working with it. Saving does not happen automatically in IBM SPSS. To save a file, go to the File menu, then choose Save. You can also click on the icon that looks like a floppy disk. You can see this at the top left of your screen. Always ensure that your file is saved on your computer and not on an external drive. When you save the file for the first time, you must create a name for the file and choose a folder where you want to save the file. IBM SPSS automatically ensures that your file is saved with .sav at the end.

    • It is important to know that an output file can only be opened in IBM SPSS. If you send your file to someone else who does not have the IBM SPSS program, he or she cannot open your file. To remedy this, you can export your output. Select File and then Export. You can now choose the type, for example PDF or Word. Then choose the Browse button to create a folder in which you want to save the file and choose a suitable name in the Save File line. Then click Save and OK.

    How to create a file and enter your data in SPSS? - BulletPoints 4

    • There are four steps in determining variables: (1) Create variables; (2) Assign labels to the answer categories and the missing values; (3) Entering data; (4) Clean up data.

    • There are two ways to create a new variable. In the first way, a new variable is created by entering new data. In the second way, a variable is created that is based on existing data in the data set. For example, two variables are then combined to create a new, third variable.

    • For some analyzes you only need a part of your sample. For example: only the men. You must then select this group in SPSS. You do this by using the Select Cases option. When you have selected the group of men, all women are deleted in SPSS. All analyzes that you will subsequently do will only be done for men.

    How to screen and clean up data in SPSS? - BulletPoints 5

    • Before you can analyze your data it is important to check your data file for errors, possible errors. First, it is important to see if you have made typos (see above). In addition, it is essential to investigate whether there are other errors with your data. For this you follow the following steps. Step 1: Checking for errors. First it is necessary to check all scores of all variables. You then investigate whether there are certain scores that fall outside the normal range. Step 2: Finding and checking error in the data file. It is then necessary to find out where the error is in the data file. This error must then be corrected or removed.

    How to use SPSS for descriptive statistics? - BulletPoints 6

    • When you are sure that there is no error in your data file, you can start with the descriptive phase of your data analysis. We called this descriptive statistics. These have as purpose: (1) to describe the characteristics of your sample in the method section of your article; (2) to check your variables to investigate whether you meet certain assumptions associated with the statistical techniques you want to implement to answer your research questions; (3) to ask specific research questions.

    • The Skewness function provides information about the symmetry of the distribution of the scores. Kurtosis provides information about the peak of distribution. If the distribution of the scores were perfectly normal, both the skewness and the kurtosis would be zero. A positive value of skewness indicates that the scores are mainly on the left. Negative values ​​suggest that the scores are on the right side of the mean. A kurtosis of almost zero indicates a distribution that relationships are flat (too many test subjects in the extreme scores).

    • When conducting research, in particular on people, you rarely get all the information from every case. That is why it is important that the research also looks at the missing data. This is possible in SPSS using the Missing Value Analysis procedure (bottom option in the Analyze menu). You must also decide how to deal with missing data when performing statistical analyzes. The Options button in many of the statistical procedures in SPSS offers various options regarding dealing with missing data. It is important that you choose carefully, since it can have major consequences for your results.

    Which graphs can you use to display data? - BulletPoints 7

    • In SPSS there are different types of graphs and charts that you can use to display data. The views discussed in this chapter are histograms, bar charts, line charts, scatter charts, and boxplots.

    How to manipulate data in SPSS? - BulletPoints 8

    • If the raw data has been accurately entered into SPSS, the next step is to edit and prepare the data so that later analyzes can be performed and hypotheses can be tested.

    • Make sure that you also adjust the codebook for everything you adjust. An alternative is to use the Syntax option, this means that you keep track of all actions to be performed in the Syntax Editor, so that there is a list of what has been adjusted.

    How to check the reliability of a scale? - BulletPoints 9

    • The value of a study largely depends on the reliability of the scale used. One aspect of reliability is internal consistency: the degree to which the items of a scale associated with each other. This can for example be calculated with the Cronbach's cofficient alpha in SPSS. A Cronbach's alpha of .7 or greater indicates a reliable scale. However, with short scales with few units, there are low Cronbach values ​​and they don't say much.

    Which method to use in SPSS? - BulletPoints 10

    • Some studies use a single method, but many studies use multiple methods. In any case, it is crucial to choose the right research method. In this chapter, several methods are discussed: chi-square, correlation, partial correlation, multiple regression analysis, independent t-test, paired t-test and various forms of analysis of (co-)variance; oneway- and two-way (M)AN(C)OVA.

    When and how is a correlation analysis applied? - BulletPoints 11

    • Correlation analysis is applied to indicate the strength and direction of a linear relationship between two variables. Two correlation coefficients are mentioned in this chapter: (1) Pearson r for continuous variables (at interval level) and in cases where there is one continuous and one dichotomous variable, and (2) Spearman rho for variables at ordinal level and in cases that your data does not meet the criteria for the Pearson correlation. This text shows how to calculate a bivariate Pearson r and a non-parametric Spearman rho.
    • To interpret the values ​​you can best use the Cohen guidelines:
      Small: r = .10 to .29 (or -.10 to -.29)
      Average: r = .30 to .49 (or -.30 to -.49)
      Large: r = .50 to 1.0 (or -.50 to -1.0)

    What is the difference between correlation and partial correlation? - BulletPoints 12

    • The partial correlation is similar to Pearson r, with the difference that with the partial correlation you can check for an additional (confound) variable.

    How to perform multiple regression in SPSS? - BulletPoints 13

    • Multiple regression is not just one technique, but a collection of techniques that can be used to study the relationship between a continuous dependent variable and multiple independent variables or predictors (usually continuous). It is based on correlation, but offers a more refined analysis of the relationship between a series of variables. Multiple regression can be applied to various research questions.

    • In the standard multiple regression, all independent (or predictive) variables are compared simultaneously.

    • In the hierarchical multiple regression (also called sequential regression), the independent variables are added to the equation in the order determined by the researcher on the basis of a theoretical framework. Variables or sets of variables are added in steps. Each variable is measured in terms of what it adds to the prediction of the dependent variable after checking for the other variables.

    • In step-by-step regression, the researcher provides a list of independent variables and then lets the program select, based on a set of statistical criteria, which variables are added and in which order they are added to the comparison. There are three different versions of this approach: (1) forward selection, (2) backward deletion, and (3) step-by-step regression.

    How to perform a logistic regression analysis in SPSS? - BulletPoints 14

    • Using logistic regression you can test models with which you can predict categorical outcomes - consisting of two or more categories. Using logistic regression you can measure how well your set of predictive variables is able to predict or explain your categorically dependent variable. It offers you an indication of the adequacy of your model by mapping the 'goodness of fit'. Your independent variable can be either categorical or continuous, or a combination of both.

    • For logistic regression, assumptions are made regarding the sample size, multicollinearity, and outliers.

    How to perform factor analysis in SPSS? - BulletPoints 15

    • Factor analysis differs from many of the other techniques in SPSS. It is not designed to test hypotheses or to indicate whether one group differs significantly from the other. Instead it takes a large set of variables and looks for a way to 'reduce' or summarize the data by using a smaller set of factors or components. This is done by searching for clusters or groups between the intercorrelations of a set of variables. There are two core approaches to factor analysis: (1) explorative factor analysis - often used during the early stages of research to collect information about the relationships between a set of variables - and (2) confirmatory factor analysis - applied later in the research process to specific hypotheses or theories regarding test the underlying structure of a set of variables.

    • There are two important issues that you should take into account when determining the suitability of your dataset for factor analysis: sample size and the strength of the relationship between your variables (or items). There are not really clear guidelines for the sample size. Generally applies; the bigger the better. If you have a small sample (

    • The second issue concerns the strength of the intercorrelations between the items. Tabachnick and Fidell recommend that correlation coefficients have values ​​greater than .3. SPSS offers two statistical measurements that can help determine the factorability of the data: (1) Bartlett's test for sphericity, and (2) Kaiser-Meyer-Olkin (SME) measurement for sample adequacy. Bartlett's test must be significant (p <.05 for="" appropriate="" factor="" analysis.="" the="" sme="" index="" must="" have="" a="" minimum="" value="" of="" .6="" good="">

    How to use SPSS for non-parametric statistics? - BulletPoints 16

    • Non-parametric statistics are ideal when your data is measured on a nominal or ordinal scale. They are also useful when you have very small samples and when your data does not meet the assumptions of the parametric techniques.
    • General assumptions of non-parametric techniques that require checking are: (1) Random samples; (2) Independent observations (with the exception of techniques where repeated measurements are performed). In addition, some techniques have additional assumptions.

    • The Chi-square test for independence is used when you want to study the relationship between two categorical variables. Each of these variables can have two or more categories. The chi-square test for independence compares the observed frequencies or proportions of cases that occur in each of the categories with the values ​​that are expected if there is no association between the measured variables. When SPSS encounters a 2x2 table (2 categories in each variable), the output includes an additional correction value (Yates' Correction for Continuity); this value is designed to compensate for what some researchers regard as an overestimate of the chi-square value when it is used in a 2x2 table.

    • Kappa's measure of agreement (measure of agreement) is often applied when the inter-assessor reliability must be established. Kappa is an estimate of the degree of agreement between two assessors or tests. This takes into account the degree of agreement that might have happened by chance (coincidence).

    • Sensitivity indicates the proportion of cases with a disease or disorder that have been correctly diagnosed. Specificity indicates the proportion of cases without the disease or disorder that have been correctly classified.

    Which t-tests can be used in SPSS? - BulletPoints 17

    • There are different t-tests available in SPSS, the following two will be discussed here: T-test for independent samples (independent-samples t-test): this test is used to compare the means of two different groups of people or conditions. T-test for paired samples (paired-samples t-test): this test is used to compare the means of the same group of people at two different times or when there are equal (matched) pairs.

    • The effect size can be determined with the Cohen guidelines:
      0.01 is a small effect
      0.06 is an average / moderate effect
      0.14 is a big effect.

    How to use one-way ANOVA in SPSS? - BulletPoints 18

    • In this chapter we discussed two types of one-way ANOVA's, namely: Between-groups ANOVA, which is used when dealing with different participants / cases in each of your groups (also called the independent groups design). Repeated measures ANOVA, which is used when you compare the same participants under different conditions / times (also called the within-subjects design).

    • The one-way between-groups ANOVA is applied when you have one categorically independent (grouping) variable with at least three levels (groups) and one continuously dependent variable.

    • In a one-way repeated measures ANOVA design, each participant is exposed to two or more conditions or measured on the same continuous scale at three or more times. The technique can also be used to compare participants' responses to two or more different questions or items. It is important here that the questions must be measured on the same scale (eg 1 = completely disagree, up to 5 = completely agree).

    • Use planned comparisons when you are interested in comparisons between specific groups. This technique is more sensitive in detecting differences. Post-hoc testing, on the other hand, sets stricter significance levels to reduce the risk of Type 1 errors. You must decide whether you use post-hoc tests or planned comparisons before you begin your analysis.

    How to use two-way ANOVA in SPSS? - BulletPoints 19

    • Two-way means that there are two independent variables. Between-groups indicates that there are different participants in each of the groups. The two-way between-groups ANOVA can be used to look at the individual and collective influence of two independent variables on one dependent variable. You can therefore not only test the main effect for each independent variable, but also see whether there is possibly an interaction effect. The latter effect occurs when the influence of an independent variable on the dependent variable is dependent on a second independent variable.
    • The most important output of the two-way ANOVA can be found in the table called Tests of Between-Subjects. The first thing you do is see if there is an interaction effect. Namely, when this is the case, it becomes more difficult to interpret the main effects.
    • If you find a significant interaction effect, it is advisable to perform follow-up tests to examine this relationship more precisely (only if one of your variables consists of at least three levels). This can, for example, be done on the basis of a simple effect analysis. This means that you will view the results of each of the subgroups separately. To do this, you must split the sample into groups according to one of your independent variables and perform separate one-way ANOVAs to investigate the effect of the other variable.

    SPSS Survival Manual by Pallant - 6th edition - BulletPoints

    SPSS Survival Manual by Pallant - 6th edition - BulletPoints


    How to design a study that uses SPSS? - BulletPoints 1

    • Three important situations in which you can use SPSS: (1) checking the reliability of a sample; (2) checking the reliability of results; (3) visualize data.

    • The reliability of a scale indicates to what extent the scale is free from random error. There are two types of reliability: test-retest reliability and internal consistency.

    • The reliability of a scale indicates to what extent the scale is free from random error. There are two types of reliability: content validity, criterion validity, and construct validity.

    How to make a codebook for SPSS? - BulletPoints 2

    • Before you can enter all information from questionnaires and experiments in IBM SPSS it is necessary to make a codebook. This is a summary of the instructions that you will use to convert the information of each test subject into a format that IBM SPSS can understand. Preparing a codebook consists of (1) defining and labeling each variable, and (2) assigning numbers to all possible answers.

    • A codebook basically consists of four columns:
      (1) The abbreviated name of the variable (for example 'ID' for 'identification number);
      (2) The written name of the variable (for example 'identification number');
      (3) An explanation of how the possible answers are taught (for example 1 = men, 2 = women);
      (4) The measurement scale (for example nominal).

    How to start with IBM SPSS? - BulletPoints 3

    • It is important to always save your data when you are working with it. Saving does not happen automatically in IBM SPSS. To save a file, go to the File menu, then choose Save. You can also click on the icon that looks like a floppy disk. You can see this at the top left of your screen. Always ensure that your file is saved on your computer and not on an external drive. When you save the file for the first time, you must create a name for the file and choose a folder where you want to save the file. IBM SPSS automatically ensures that your file is saved with .sav at the end.

    • It is important to know that an output file can only be opened in IBM SPSS. If you send your file to someone else who does not have the IBM SPSS program, he or she cannot open your file. To remedy this, you can export your output. Select File and then Export. You can now choose the type, for example PDF or Word. Then choose the Browse button to create a folder in which you want to save the file and choose a suitable name in the Save File line. Then click Save and OK.

    How to create a file and enter your data in SPSS? - BulletPoints 4

    • There are four steps in determining variables: (1) Create variables; (2) Assign labels to the answer categories and the missing values; (3) Entering data; (4) Clean up data.

    • There are two ways to create a new variable. In the first way, a new variable is created by entering new data. In the second way, a variable is created that is based on existing data in the data set. For example, two variables are then combined to create a new, third variable.

    • For some analyzes you only need a part of your sample. For example: only the men. You must then select this group in SPSS. You do this by using the Select Cases option. When you have selected the group of men, all women are deleted in SPSS. All analyzes that you will subsequently do will only be done for men.

    How to screen and clean up data in SPSS? - BulletPoints 5

    • Before you can analyze your data it is important to check your data file for errors, possible errors. First, it is important to see if you have made typos (see above). In addition, it is essential to investigate whether there are other errors with your data. For this you follow the following steps. Step 1: Checking for errors. First it is necessary to check all scores of all variables. You then investigate whether there are certain scores that fall outside the normal range. Step 2: Finding and checking error in the data file. It is then necessary to find out where the error is in the data file. This error must then be corrected or removed.

    How to use SPSS for descriptive statistics? - BulletPoints 6

    • When you are sure that there is no error in your data file, you can start with the descriptive phase of your data analysis. We called this descriptive statistics. These have as purpose: (1) to describe the characteristics of your sample in the method section of your article; (2) to check your variables to investigate whether you meet certain assumptions associated with the statistical techniques you want to implement to answer your research questions; (3) to ask specific research questions.

    • The Skewness function provides information about the symmetry of the distribution of the scores. Kurtosis provides information about the peak of distribution. If the distribution of the scores were perfectly normal, both the skewness and the kurtosis would be zero. A positive value of skewness indicates that the scores are mainly on the left. Negative values ​​suggest that the scores are on the right side of the mean. A kurtosis of almost zero indicates a distribution that relationships are flat (too many test subjects in the extreme scores).

    • When conducting research, in particular on people, you rarely get all the information from every case. That is why it is important that the research also looks at the missing data. This is possible in SPSS using the Missing Value Analysis procedure (bottom option in the Analyze menu). You must also decide how to deal with missing data when performing statistical analyzes. The Options button in many of the statistical procedures in SPSS offers various options regarding dealing with missing data. It is important that you choose carefully, since it can have major consequences for your results.

    Which graphs can you use to display data? - BulletPoints 7

    • In SPSS there are different types of graphs and charts that you can use to display data. The views discussed in this chapter are histograms, bar charts, line charts, scatter charts, and boxplots.

    How to manipulate data in SPSS? - BulletPoints 8

    • If the raw data has been accurately entered into SPSS, the next step is to edit and prepare the data so that later analyzes can be performed and hypotheses can be tested.

    • Make sure that you also adjust the codebook for everything you adjust. An alternative is to use the Syntax option, this means that you keep track of all actions to be performed in the Syntax Editor, so that there is a list of what has been adjusted.

    How to check the reliability of a scale? - BulletPoints 9

    • The value of a study largely depends on the reliability of the scale used. One aspect of reliability is internal consistency: the degree to which the items of a scale associated with each other. This can for example be calculated with the Cronbach's cofficient alpha in SPSS. A Cronbach's alpha of .7 or greater indicates a reliable scale. However, with short scales with few units, there are low Cronbach values ​​and they don't say much.

    Which method to use in SPSS? - BulletPoints 10

    • Some studies use a single method, but many studies use multiple methods. In any case, it is crucial to choose the right research method. In this chapter, several methods are discussed: chi-square, correlation, partial correlation, multiple regression analysis, independent t-test, paired t-test and various forms of analysis of (co-)variance; oneway- and two-way (M)AN(C)OVA.

    When and how is a correlation analysis applied? - BulletPoints 11

    • Correlation analysis is applied to indicate the strength and direction of a linear relationship between two variables. Two correlation coefficients are mentioned in this chapter: (1) Pearson r for continuous variables (at interval level) and in cases where there is one continuous and one dichotomous variable, and (2) Spearman rho for variables at ordinal level and in cases that your data does not meet the criteria for the Pearson correlation. This text shows how to calculate a bivariate Pearson and a non-parametric Spearman rho.
    • To interpret the values ​​you can best use the Cohen guidelines:
      Small: = .10 to .29 (or -.10 to -.29)
      Average: = .30 to .49 (or -.30 to -.49)
      Large: = .50 to 1.0 (or -.50 to -1.0)

    What is the difference between correlation and partial correlation? - BulletPoints 12

    • The partial correlation is similar to Pearson r, with the difference that with the partial correlation you can check for an additional (confound) variable.

    How to perform multiple regression in SPSS? - BulletPoints 13

    • Multiple regression is not just one technique, but a collection of techniques that can be used to study the relationship between a continuous dependent variable and multiple independent variables or predictors (usually continuous). It is based on correlation, but offers a more refined analysis of the relationship between a series of variables. Multiple regression can be applied to various research questions.

    • In the standard multiple regression, all independent (or predictive) variables are compared simultaneously.

    • In the hierarchical multiple regression (also called sequential regression), the independent variables are added to the equation in the order determined by the researcher on the basis of a theoretical framework. Variables or sets of variables are added in steps. Each variable is measured in terms of what it adds to the prediction of the dependent variable after checking for the other variables. 

    • In step-by-step regression, the researcher provides a list of independent variables and then lets the program select, based on a set of statistical criteria, which variables are added and in which order they are added to the comparison. There are three different versions of this approach: (1) forward selection, (2) backward deletion, and (3) step-by-step regression.

    How to perform a logistic regression analysis in SPSS? - BulletPoints 14

    • Using logistic regression you can test models with which you can predict categorical outcomes - consisting of two or more categories. Using logistic regression you can measure how well your set of predictive variables is able to predict or explain your categorically dependent variable. It offers you an indication of the adequacy of your model by mapping the 'goodness of fit'. Your independent variable can be either categorical or continuous, or a combination of both.

    • For logistic regression, assumptions are made regarding the sample size, multicollinearity, and outliers. 

    How to perform factor analysis in SPSS? - BulletPoints 15

    • Factor analysis differs from many of the other techniques in SPSS. It is not designed to test hypotheses or to indicate whether one group differs significantly from the other. Instead it takes a large set of variables and looks for a way to 'reduce' or summarize the data by using a smaller set of factors or components. This is done by searching for clusters or groups between the intercorrelations of a set of variables. There are two core approaches to factor analysis: (1) explorative factor analysis - often used during the early stages of research to collect information about the relationships between a set of variables - and (2) confirmatory factor analysis - applied later in the research process to specific hypotheses or theories regarding test the underlying structure of a set of variables.

    • There are two important issues that you should take into account when determining the suitability of your dataset for factor analysis: sample size and the strength of the relationship between your variables (or items). There are not really clear guidelines for the sample size. Generally applies; the bigger the better. If you have a small sample (

    • The second issue concerns the strength of the intercorrelations between the items. Tabachnick and Fidell recommend that correlation coefficients have values ​​greater than .3. SPSS offers two statistical measurements that can help determine the factorability of the data: (1) Bartlett's test for sphericity, and (2) Kaiser-Meyer-Olkin (SME) measurement for sample adequacy. Bartlett's test must be significant (<.05 for="" appropriate="" factor="" analysis.="" the="" sme="" index="" must="" have="" a="" minimum="" value="" of="" .6="" good="">

    How to use SPSS for non-parametric statistics? - BulletPoints 16

    • Non-parametric statistics are ideal when your data is measured on a nominal or ordinal scale. They are also useful when you have very small samples and when your data does not meet the assumptions of the parametric techniques.
    • General assumptions of non-parametric techniques that require checking are: (1) Random samples; (2) Independent observations (with the exception of techniques where repeated measurements are performed). In addition, some techniques have additional assumptions.

    • The Chi-square test for independence is used when you want to study the relationship between two categorical variables. Each of these variables can have two or more categories. The chi-square test for independence compares the observed frequencies or proportions of cases that occur in each of the categories with the values ​​that are expected if there is no association between the measured variables. When SPSS encounters a 2x2 table (2 categories in each variable), the output includes an additional correction value (Yates' Correction for Continuity); this value is designed to compensate for what some researchers regard as an overestimate of the chi-square value when it is used in a 2x2 table.

    • Kappa's measure of agreement (measure of agreement) is often applied when the inter-assessor reliability must be established. Kappa is an estimate of the degree of agreement between two assessors or tests. This takes into account the degree of agreement that might have happened by chance (coincidence).

    • Sensitivity indicates the proportion of cases with a disease or disorder that have been correctly diagnosed. Specificity indicates the proportion of cases without the disease or disorder that have been correctly classified. 

    Which t-tests can be used in SPSS? - BulletPoints 17

    • There are different t-tests available in SPSS, the following two will be discussed here: T-test for independent samples (independent-samples t-test): this test is used to compare the means of two different groups of people or conditions. T-test for paired samples (paired-samples t-test): this test is used to compare the means of the same group of people at two different times or when there are equal (matched) pairs.

    • The effect size can be determined with the Cohen guidelines:
      0.01 is a small effect
      0.06 is an average / moderate effect
      0.14 is a big effect.

    How to use one-way ANOVA in SPSS? - BulletPoints 18

    • In this chapter we discussed two types of one-way ANOVA's, namely: Between-groups ANOVA, which is used when dealing with different participants / cases in each of your groups (also called the independent groups design). Repeated measures ANOVA, which is used when you compare the same participants under different conditions / times (also called the within-subjects design).

    • The one-way between-groups ANOVA is applied when you have one categorically independent (grouping) variable with at least three levels (groups) and one continuously dependent variable.

    • In a one-way repeated measures ANOVA design, each participant is exposed to two or more conditions or measured on the same continuous scale at three or more times. The technique can also be used to compare participants' responses to two or more different questions or items. It is important here that the questions must be measured on the same scale (eg 1 = completely disagree, up to 5 = completely agree).

    • Use planned comparisons when you are interested in comparisons between specific groups. This technique is more sensitive in detecting differences. Post-hoc testing, on the other hand, sets stricter significance levels to reduce the risk of Type 1 errors. You must decide whether you use post-hoc tests or planned comparisons before you begin your analysis.

    How to use two-way ANOVA in SPSS? - BulletPoints 19

    • Two-way means that there are two independent variables. Between-groups indicates that there are different participants in each of the groups. The two-way between-groups ANOVA can be used to look at the individual and collective influence of two independent variables on one dependent variable. You can therefore not only test the main effect for each independent variable, but also see whether there is possibly an interaction effect. The latter effect occurs when the influence of an independent variable on the dependent variable is dependent on a second independent variable.
       
    • The most important output of the two-way ANOVA can be found in the table called Tests of Between-Subjects. The first thing you do is see if there is an interaction effect. Namely, when this is the case, it becomes more difficult to interpret the main effects.
       
    • If you find a significant interaction effect, it is advisable to perform follow-up tests to examine this relationship more precisely (only if one of your variables consists of at least three levels). This can, for example, be done on the basis of a simple effect analysis. This means that you will view the results of each of the subgroups separately. To do this, you must split the sample into groups according to one of your independent variables and perform separate one-way ANOVAs to investigate the effect of the other variable.
    Supporting content II (teasers)
    Samenvatting SPSS Survival Manual van Pallant (6e druk, 2016)

    Samenvatting SPSS Survival Manual van Pallant (6e druk, 2016)

    Samengestelde samenvatting, gebaseerd op de SPSS Survival Manual van Pallant, 6e druk uit 2016.

    Deze samenvatting is zowel te gebruiken bij versie 24 van IBM SPSS als bij andere versies. Bij gebruik van andere versies kan het voorkomen dat de opties een soortgelijke naam hebben gekregen of een andere plek in het menu van SPSS hebben gekregen, de mogelijkheden van wat je met SPSS kunt doen zijn voor het overgrote merendeel hetzelfde gebleven.

    Deze samenvatting bevat de volgende hoofdstukken:

    Join World Supporter
    Join World Supporter
    Log in or create your free account

    Waarom een account aanmaken?

    • Je WorldSupporter account geeft je toegang tot alle functionaliteiten van het platform
    • Zodra je bent ingelogd kun je onder andere:
      • pagina's aan je lijst met favorieten toevoegen
      • feedback achterlaten
      • deelnemen aan discussies
      • zelf bijdragen delen via de 7 WorldSupporter tools
    Follow the author: Social Science Supporter
    Supporting content
    Statistics Worldwide - starting page
    Comments, Compliments & Kudos

    Add new contribution

    CAPTCHA
    This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
    Image CAPTCHA
    Enter the characters shown in the image.
    Promotions
    Image

    Op zoek naar een uitdagende job die past bij je studie? Word studentmanager bij JoHo !

    Werkzaamheden: o.a.

    • Het werven, aansturen en contact onderhouden met auteurs, studie-assistenten en het lokale studentennetwerk.
    • Het helpen bij samenstellen van de studiematerialen
    • PR & communicatie werkzaamheden

    Interesse? Reageer of informeer

    WorldSupporter Resources
    Duik in de Latijns-Amerikaanse keuken met het kookboek van Wereldouders

    Duik in de Latijns-Amerikaanse keuken met het kookboek van Wereldouders

    kookboek cocina latina

    Verdiep je in de Latijns-Amerikaanse keuken met dit mooie kookboek.

    Omdat het leuk is om met de hele familie in de keuken te staan, heeft Wereldouders recepten opgenomen die vallen onder het kopje 'samen maken', bijvoorbeeld met de kinderen. Cocina Latina: een boek om vaak uit te koken, voor vrienden en familie. Met de aanschaf van dit boek draag je bij aan de hulp die WereldOuders biedt aan kwetsbare kinderen en families in Latijns Amerika.