Please enable JavaScript.
Coggle requires JavaScript to display documents.
H10: niet-reactief onderzoek en secundaire data-analyse - Coggle Diagram
H10: niet-reactief onderzoek en secundaire data-analyse
Unobtrusive measure = een meting of observatie die verkregen wordt zonder dat de onderzoeker in het natuurlijke leven van de onderzochte moet binnendringen
Niet-reactief onderzoek = onderzoek dat gebruikmaakt van unobtrusive measures waarbij de onderzoeker dus waarnemingen doet zonder dat de onderzochte hiervan op de hoogte is (niet merkbaar aanwezig)
Secundaire data = gegevens die door andere onderzoekers op een eerder tijdstip zijn verzameld en beschikbaar zijn voor wetenschappelijk hergebruik
Voordeel
Mensen gedragen zich niet anders omdat ze niet weten dat ze observeert worden -> Hawthorne effect vermijden
Nadeel
Je kan enkel uitspraken doen op populatieniveau -> wie en hoeveel kan je niet achterhalen
Cocaïnegebruik achterhalen door rioolwater te onderzoeken
Soorten niet-reactieve gegevens
Fysieke sporen
Maat van aanwas = het meten van sociale activiteit door te bestuderen wat mensen achterlaten -> residu van menselijke oorsprong dat zich opstapelt in een omgeving
Maat van erosie = het bestuderen van menselijk gedrag door te analyseren wat personen uit een omgeving wegnemen in plaats van wat ze eraan toevoegen
Tekst: inhoudsanalyse
Tekst = allerhande boodschappen die mensen in een ver of recent verleden hebben geproduceerd; je kan tekst opvatten als elke boodschap van zender aan publiek -> geschreven, gesproken of in beelden
Inhoudsanalyse = een techniek om menselijke communicatie te bestuderen waarbij de inhoud van teksten wordt gekwantificeerd of geteld zodat statistische analyse mogelijk is -> kwantitatieve + kwalitatieve varianten
Fases
Formuleren onderzoeksvraag
Populatie en analyse-eenheden afbakenen
Toevalssteekproef uit de populatie van relevante teksten trekken
Coderen van geselecteerde teksten
Kwantitatieve inhoudsanalyse: aspecten van de boodschap die inhoud uitmaken van de inhoudsanalyse
Frequentie = hoe vaak komt een element in de onderzochte teksten terug (manifest)
Omvang = hoeveel ruimte nemen bepaalde tekstelementen in beslag (manifest)
Richting = spreekt uit de boodschap een negatieve of positieve waardering voor een bepaald onderwerp, of neutraal (latent)
Intensiteit = hoe sterk wordt het positieve of negatief oordeel in de verf gezet (latent)
Coderen
Manifest coderen = een term uit de inhoudsanalyse; je codeert elementen die objectief en ondubbelzinnig vast te stellen zijn (frequentie en omvang)
Latent coderen = een term uit de inhoudsanalyse; je codeert ook de subtiele inhouden die tussen de regels te lezen zijn (evaluatie en intensiteit) -> interpretatie
Betrouwbaarheid kleiner bij latent dan bij manifest -> intercodeurbetrouwbaarheid = de mate waarin de coderen van verschillende codeur met elkaar overeenstemmen
Krippendorffs alfa = de maat voor intercodeurbetrouwbaarheid bij inhoudsanalyse -> 0-1 van afwezigheid interne betrouwbaarheid tot perfecte interne betrouwbaarheid
Administratieve data en officiële statistieken
Administratieve gegevens = gegevens van de bevolking in de handen van de overheid, bedoelt om beleidsmakers van info te voorzien bij beleidsbeslissingen
Officiële statistieken = gegevens die door overheden verzameld en bijgehouden worden over hun bevolking
Geaggregeerde gegevens = overheden gegeven geen individuele gegevens vrij maar wel groepsgemiddeldes -> vaak beperkt tot demografische kenmerken zoals leeftijd & geslacht
3 databronnen
Bevolkingsregister = een continu registratiesysteem waarmee een overheid gegevens bijhoudt over alle individuen op het grondgebied
Censussen/folkstellingen -> geen reactieve data
Surveys vanuit overheid -> geen reactieve data
Sociale indicatoren = statistische maten die zowel het niveau als de evolutie van het welzijn van bevolkingen meten vanuit een sociale bekommernis
Objectieve -> staan los van individuele percepties of evaluaties
Subjectieve -> meten hoe individuen de sociale condities waarin ze leven ervaren
Microdata = individuele gegevens die overheden verzamelen en bijhouden over hun burgers -> niet vrijgegeven door privacy
Big data = allerhande digitale gegevens die automatisch gegenereerd worden door technologische systemen
3 V's -> kenmerken big data
Volume: enorm volume
Velocity: wordt met enorme snelheid gegenereerd en verzameld (real time)
Variety: ruw en ongestructureerd -> niet klaar voor onmiddellijke dataverwerking)
Soorten
Sociale mediadata = gegevens die personen doelbewust via internettechnologie delen met een groep andere individuen -> niet reactief maar houden wel rekening met verwachtingen die van het sociale netwerk uitgaan (interessant voor netwerkanalyse)
Transactiedata = gegevens die automatisch ontstaan als bijproduct van allerhande menselijke activiteiten en transacties tussen personen -> minder gevoelig voor reactiviteit dan gegevens via de sociale media (minder makkelijk self-management)
Tekstcorpora = geschreven teksten komen meer online door de digitalisering -> rijke bron voor wetenschappelijke onderzoek
Top modeling = techniek waarbij de computer clusters van woorden laat creëren die een hogere kans hebben om samen voor te komen in een tekst of artikel dan gemiddeld
Potentieel big data: levert nieuwe methodes aan waarmee je met nieuwe data antwoorden kan formuleren op oude onderzoeksvragten -> six degrees of separation
Nadelen big data
Veel kwantiteit maar lage kwaliteit (niet representatief en geldig)
Algoritmisch vervuild = geautomatiseerde processen in het systeem die het gedrag van gebruikers beïnvloeden -> patronen kunnen mee gevolg zijn van achterliggende algoritmes
Coverage = enkel wie mee is met de technologische revolutie is zichtbaar op de radar van big data
Big data is gevoelig voor impression management en fraude
Secundaire analyse van onderzoeksdata
Secundaire data = gegevens die door andere onderzoekers op eerder tijdstip zijn verzameld en beschikbaar zijn voor wetenschappelijk hergebruik -> kunnen worden gebruikt om nieuwe onderzoeksvragen te benaderen zonder reactieve effecten
Secundaire data-analyse
Om de kwaliteit en aard van de data precies te kunnen inschatten, moet alles van methodologie beschikbaar zijn (volledige transparantie)
Om onderzoekers te faciliteren in gebruik van secundaire data, zijn er een aantal online data-archieven opgericht die bestaande databases inventariseren, documenteren en publiek beschikbaar maken (DANS, ZACAT, ICPSR -> interessante datasets voor sociale wetenschappers)
Vereist dat bestaande data voor de wetenschappelijke gemeenschap ter beschikking wordt gesteld
Meta-analyse = een onderzoek dat gebruikmaakt van andere onderzoeken, met als doel in die onderzoeksresultaten een patroon ontdekken -> combineert meerdere onderzoeken met eenzelfde vraagstelling
Voordelen
Verhoogt betrouwbaarheid en geldigheid van de onderzoeksresultaten
Verlaagt de statistische onzekerheid door de verschillende contexten
Laat veralgemeningen toe naar ruimere populaties
Sluit aan bij het idee dat wetenschappelijke bevindingen betekenisvol zijn als ze door verschillende onderzoekers te repliceren zijn
Publicatiebias = ook wel file-drawer effect genoemd; het fenomeen dat je in een meta-analyse ten onrechte tot de conclusie kan komen dat er een effect bestaat doordat enkel studies die daadwerkelijk een effect rapporteren, gepubliceerd geraken -> studies zonder effect blijven in lade liggen en worden niet gepubliceerd
Voor- en nadelen niet-reactieve en secundaire data
Voordelen gebruik secundaire data (+ andere vormen niet-reactief onderzoek)
Veilige manier om data te verzamelen -> veld niet ingaan (inhoudelijk voordeel)
Laat toe om trends op te sporen en historische component aan onderzoek toe te voegen (inhoudelijk voordeel)
Goedkoper dan zelf data verzamelen (methodologisch voordeel)
Onderzoeker niet merkbaar aanwezig -> geen gedragsverandering (methodologisch voordeel)
Nadelen
Vragen of indicatoren in dataset niet zelf kiezen
Combinaties van variabelen die je nodig hebt ontbreken vaak
Iedereen analyseert dezelfde gegevensbanken -> originaliteit ontbreekt, gestandaardiseerd onderzoek
Problemen met betrouwbaarheid en geldigheid
Hoe ethisch is het om mensen hun gegevens te gebruiken zonder hun medeweten