Fare ricerca sui "Nuovi Media": i metodi e i disegni di ricerca possibili
Prima di parlare della ricerca sui nuovi media, è necessario specificare cosa tale termine stia a significare.
Il termine “New Media” indica le nuove tecnologie della comunicazione: se alcune di esse sono state chiamate con questo nome in passato, ora non lo sono più, in quanto diventate oramai “normali”, come il fax, o quasi estinte, come il teletext.
Nel loro testo12 del 1988, forse omai troppo datato ma comunque ancora prezioso nel fornire i concetti base di tale argomento, Williams, Rice e Rogers considerano come “New Media” sia le allora nuove tecnologie di telecomunicazione, sia le nuove versioni delle “vecchie” tecnologie. Essi registrano, già in quegli anni, una crescita di interesse nell’adozione, implementazione ed effetti di tali tecnologie e, con essa, una conseguente crescita della ricerca ad essa correlata (Williams, Rice, Rogers, 1988: 16).
Ma quali sono in maniera più specifica questi “Nuovi Media”? Williams, Rice e Rogers indicano come “New Media”, “quelle tecnologie, perlopiù elettroniche e digitali, che sono in continua espansione nei nostri tempi. Le tecnologie chiave che stanno alla base dei nuovi media includono la microelettronica, i computer e le reti di telecomunicazione” (originale in inglese, 1988:3).
I tre autori scrivono quasi vent’anni fa e, pertanto, nella loro trattazione non hanno potuto includere i media che, da allora ad oggi, hanno fatto la loro comparsa o il cui uso si è diffuso alle masse. Naturalmente essi non parlano di internet, almeno nella forma in cui noi lo conosciamo oggi, dato che il testo è stato scritto prima della diffusione del world wide web; ma parlano di media tecnologici che sono stati, in un certo senso, i suoi antenati e che esistono tutt’ora, come i bulletin board system (BBS) diffusi in Usenet o i sistemi di teleconferenza.
Curiosamente essi trattano anche di media che allora sembravano destinati ad un enorme successo e che, per vari motivi politici e sociali, sono al contrario scomparsi quasi subito, come il videodisc13.
Oggi nel
termine “New Media” generalmente si includono la microelettronica, i
sistemi (hardware) per il trattamento dell’informazione, le tecnologie
software, le telecomunicazioni e le architetture dei sistemi
informativi (Fortunato in Lever, Rivoltella, Zanacchi, 2002: 814).
Sempre
nello stesso testo i tre autori propongono un’esaustiva carrellata dei
metodi e dei disegni di ricerca disponibili per studiare tali media. La
classificazione dei metodi proposta da Williams, Rice e Rogers è
tutt’ora valida, anche se l’avanzare della ricerca stessa e l’avanzare
della tecnologia, come per esempio i sempre nuovi software per la
ricerca sia quantitativa che qualitativa, hanno arricchito notevolmente
il bagaglio degli studiosi.
Utilizzerò tale classificazione per fornire al lettore le coordinate generali dell’insieme dei disegni di ricerca possibili nello studio dei cosiddetti “New Media”.
I
tre autori dividono i disegni di ricerca presentati in “Approcci
Convenzionali” e “Alternative ai Metodi e ai Disegni di Ricerca
Convenzionali”. Essi intendono per “convenzionali”, quei disegni che si
situano all’interno dell’approccio quantitativo e positivista,
presentandone undici, sistemati lungo un continuum dal più quantitativo
al meno (Williams, Rice, Rogers, 1988: 33).
Modelli Matematici.
Si
tratta di set di equazioni in grado di descrivere le relazioni che
intercorrono all’interno di un insieme di fenomeni. Manipolando valori
differenti si osservano le conseguenze del cambio delle assunzioni
preliminari sul fenomeno studiato.
I punti di forza di tale metodo
sono il rendere esplicite le assunzioni e descrivere i fenomeni con un
linguaggio non ambiguo. Le sue debolezze sono nel suo essere fortemente
dipendente dalle assunzioni iniziali e nella necessità di avere una
notevole conoscenza pregressa del fenomeno.
Esperimenti Controllati.
Gli
esperimenti manipolano una o più variabili indipendenti conosciute, per
vedere come una o più variabili dipendenti varino di conseguenza. Tale
metodo utilizza anche strumenti per la diminuzione dell’errore e
l’aumento del controllo, come l’assegnazione casuale dei rispondenti
alle diverse condizioni di trattamento o l’uso del “double
blind-experiment”, in cui anche gli stessi studiosi non sono a
conoscenza di quali rispondenti siano assegnati al gruppo di
trattamento e quali a quello di controllo.
I punti di forza di tale
metodo sono la minimizzazione dell’errore, la prevenzione di possibili
spiegazioni alternative, un’alta spiegazione della varianza nei
fenomeni grazie al controllo, la possibilità di enfatizzare la teoria
tramite la scelta di variabili e condizioni e, per finire, una forte
validità14 interna.
I punti deboli sono la troppa semplificazione
della situazione reale, necessaria a rendere possibile il controllo su
determinate variabili; ma la vera debolezza, soprattutto nello studio
dei nuovi media, è una mancanza di realismo dovuta al fatto che i
risultati sono troppo legati ai rispondenti specifici dell’esperimento
e al medium scelto.
Quasi-Esperimento.
Sono
esperimenti che avvengono sul campo, in una situazione solo
parzialmente controllata. Presuppongono un controllo sul tempo di
misurazione e la scelta dei rispondenti, ma non l’assegnazione di essi
a gruppi diversi, in quanto il gruppo di controllo non esiste, dato che
si tratta di fenomeni che accadono naturalmente. Proprio per tale
motivo, essi possono effettivamente far vedere alcuni dei contesti,
delle realtà sociali e storiche che influenzano l’uso e
l’interpretazione dei nuovi media. La validità esterna è più alta di
quella degli esperimenti controllati.
I punti deboli sono la
difficoltà a trovare appropriati siti di ricerca sul campo, a mantenere
il proprio disegno di ricerca di fronte ai continui mutamenti della
situazione naturale sul campo e, soprattutto, l’essere sicuri che
tali mutamenti non siano poi le vere spiegazioni dei risultati
sperimentali. Nell’ambito della ricerca sui nuovi media, tale metodo,
rischia il bias di studiare solo il comportamento di rispondenti
innovativi ma non tipici.
Survey (Inchiesta Campionaria).
Le
survey utilizzano questionari, più o meno strutturati, che possono
essere somministrati dai ricercatori tramite lettera o telefono, o
attraverso interviste online o face-to-face, generalmente ad un alto
numero di rispondenti. Tipicamente esse sono cross-sectional
(trasversali), cioè la raccolta dati avviene una volta sola nel tempo;
anche se una variante molto utile, a detta di Williams, Rice e Rogers,
è la “group feedback analysis”, la quale prevede che i membri di un
gruppo rispondano alla survey per poi far avere loro i risultati, in
modo che essi li possano interpretare e pronunciarsi sul loro
significato e sulle assunzioni che sono dietro alle domande e alle
risposte.
I punti di forza sono la possibilità di misurare molte
variabili, permettendo analisi statistiche di relazioni multiple e
complesse. Le survey possono essere usate interattivamente per
ridefinire ipotesi e domande.
Tra i punti deboli delle survey ci
sono il non rivelare le differenze di motivazione ed interpretazione
che sottostanno a risposte simili e l’enfatizzare l’analisi di un set
aggregato di individui. Spesso l’obiettivo è la spiegazione della
varianza in un certo momento e non la spiegazione del processo. L’uso
della survey, inoltre, presuppone l’interpretazione dell’associazione
statistica tra due variabili come un’evidenza della relazione causale
tra di loro.
Studi Longitudinali.
Gli studi
longitudinali sono delle survey che organizzano la raccolta dei dati in
unità d’analisi. Tale raccolta può avvenire sia in periodi di tempo
discreti che in maniera continua per un certo periodo. Le unità
possono essere rappresentate sempre dallo stesso campione di
rispondenti (studio panel), da campioni differenti (inchieste
cross-sectional replicate), da una singola variabile o da set diversi
di persone che si muovono attraverso gli stessi stadi di un processo
(studio di coorte).
La forza degli studi longitudinali sta nel
permettere intuizioni su processi che potrebbero impiegare tempo a
svilupparsi, nell’identificare modelli d’uso dei nuovi media di breve e
lungo periodo, trend di diffusione e cambiamenti nelle realtà sociali
in cui i media si inseriscono.
Le debolezza sta, invece, nel costo e
nel tempo necessario per attuarli. Inoltre un disegno di ricerca troppo
rigido potrebbe non essere in grado di adattarsi ai cambiamenti di
contesto e condizioni, come lo sviluppo, durante lo studio, di nuovi
usi o forme del medium.
Studi di Campo.
Queste
ricerche consistono nell’osservazione e nella misurazione di fenomeni
che accadono naturalmente, e non prevedono controlli di nessun tipo.
Gli studi di campo possono utilizzare una combinazione di metodi
convenzionali (case studies, survey e dati d’archivio).
I punti di
forza sono che le variabili dipendenti sono misurate sistematicamente
in un contesto naturale, offrendo intuizioni sul fenomeno naturale
studiato.
La debolezza sta nel fatto di non permettere ai
ricercatori di isolare tra tutte le possibili spiegazioni processi
specifici o influenze. Non è inoltre possibile alcun controllo sulle
condizioni di ricerca e sulle caratteristiche dei rispondenti. La
validità interna è spesso bassa.
Ricerche Secondarie e d’Archivio.
Sono
ricerche che si basano sulla raccolta e analisi di dati storici o sulla
ri-analisi di dati raccolti in ricerche precedenti. In tutte e due i
casi i dati possono essere stati raccolti per propositi diversi da
quelli che spingono i ricercatori impegnati nella ricerca secondaria o
d’archivio.
I punti di forza sono i costi bassi, la possibilità di
comprendere i processi storici, di definire i trend passati per
confrontarli con i presenti, la garanzia che il ricercatore non possa
manipolare le condizioni sotto cui vengono raccolti i dati.
I punti
deboli sono che i dati posso non presentarsi nella forma più adatta
alla ricerca, tali dati possono contenere dei bias nel campionamento,
nella fase di raccolta o archiviazione. Inoltre il modo in cui gli
indici sono calcolati può essere cambiato nel tempo e, pertanto, le
variabili disponibili possono non corrispondere esattamente a quello a
cui i ricercatori sono interessati.
Previsioni e Ricerche sugli Scenari Futuri.
Tali
studi hanno lo scopo di definire le direzioni plausibili che il
fenomeno studiato seguirà in futuro. Essi si basano su tecniche come
l’analisi dei trend di mercato, la definizione di scenari, l’analisi
del contenuto dei mass-media.
La forza di questo tipo di studi sta
nell’obbligare a riflettere sulle possibili conseguenze delle politiche
correnti e nel rivelare i presupposti che sono dietro le previsioni.
La
debolezza sta nell’incapacità di specificare tutti i fattori rilevanti,
nel sovrastimare i primi sintomi di cambiamento, mentre si
sottovalutano le conseguenze a lungo termine, e nel fraintendere le
relazioni tra le variabili relative alle previsioni.
Analisi del Contenuto.
Si
tratta della codificazione sistematica del contenuto della
comunicazione in un set di categorie teoricamente significativo, il più
possibile esaustivo e mutuamente esclusivo. Il contenuto del messaggio
può provenire da programmi televisivi (contenuto verbale,
scene-setting, relazioni materiali, tecniche visive o sonore), dalle
trascrizioni di programmi radio e testi scritti (come articoli di
giornale, corrispondenza tradizionale o scambio di e-mail e dialoghi
online).
Tale contenuto può essere analizzato qualitativamente, in
modo da arrivare ad una comprensione dell’uso e della forma di tale
svariato contenuto, o quantitativamente, come frequenze o percentuali
di una categoria confrontata ad un’altra. Il testo disponibile online
può essere monitorato automaticamente e il suo contenuto analizzato da
specifici software che, ad esempio, identificano gli argomenti più
comuni.
I punti di forza di questo metodo sono il descrivere nel
tempo i trend nei contenuti, il fornire una connessione teorica tra le
intenzioni degli individui e delle organizzazioni che producono il
contenuto dei media e le possibili conseguenze sociali relative all’uso
che l’audience fa di tale contenuto; la possibilità di testare le
teorie sul significato del messaggio.
I punti deboli sono
rappresentati dal fatto che spesso il contenuto è spogliato sia del suo
contesto, che del processo di sviluppo del significato che avviene
nelle relazioni tra i partecipanti alla comunicazione. Inoltre,
l’analisi del contenuto potrebbe portare ad assumere che il contenuto
del messaggio abbia effetti specifici, i quali al contrario potrebbero
non esserci. Trascrivere e codificare i messaggi, poi, è generalmente
un’attività lunga e costosa.
Studi di Caso.
Generalmente
uno studio di caso include l’osservazione e la descrizione, o
ricostruzione, di un fenomeno di interesse. Convenzionalmente il
ricercatore non interviene sul fenomeno studiato. Altre forme di studio
di caso, però, prevedono che il ricercatore diventi parte del contesto
sociale del fenomeno per comprenderlo meglio, come nel caso degli studi
che utilizzano l’osservazione partecipante.
Williams, Rice e Rogers
fanno l’esempio di un ricercatore che diventa un utente di un newsgroup
aziendale con lo scopo di capire come si sviluppano le forme di
netiquette al suo interno e come esse differiscano da quelle utilizzate
nelle relazioni FtF.
Un punto di forza dello studio di caso è il
poter descrivere le relazioni complesse, le interpretazioni personali e
le narrative storiche del fenomeno.
La debolezza sta nella
limitatezza dei risultati a un singolo gruppo di individui e a una
singola situazione, spesso dipendenti dalla ricostruzione di eventi
passati e suscettibili di interpretazioni multiple. Inoltre se i
ricercatori intervengono nel campo di ricerca, potrebbero influenzare
in maniera eccessiva l’azione e l’interpretazione dei rispondenti.
Focus Group.
Consiste
nel riunire da due a circa dieci persone per discutere insieme le loro
reazioni a una serie, limitata ma non esplicitamente chiusa da confini,
di concetti, prodotti, problemi, considerazioni, opinioni etc. Un
moderatore guida la discussione in modo da trattare gli argomenti
interessanti per la ricerca e in maniera da far emergere i responsi
emozionali e cognitivi dei partecipanti.
Un analista esperto può
riuscire a trarre da queste discussioni nuovi concetti e nuova
comprensione del fenomeno in esame. I focus group, inoltre, offrono
l’opportunità di osservare i partecipanti mentre discutono,
individuando i modi di dialogare, di negoziare il significato, di
appoggiare o scoraggiare certe espressioni o certi atteggiamenti.
I
punti deboli sono che il focus group potrebbe essere dominato da un
particolare partecipante, potrebbero insorgere bias dovuti al
moderatore che guida in maniera eccessiva la discussione. A ciò si
aggiunge che i partecipanti ai focus group sono spesso atipici rispetto
alla popolazione di riferimento dello studio. Questo porta al fatto
che, generalmente, i risultati delle discussioni di focus group sono
qualitativi e inadatti all’analisi statistica.
I disegni di
ricerca fin qui presentati sono stati indicati da Williams, Rice e
Rogers come “approcci convenzionali” in quanto i tre autori li hanno
intesi come un’espressione dei principi dell’approccio positivista.
Alcuni di essi, soprattutto gli ultimi, si allontanano, anche
notevolmente, dalle caratteristiche richieste da tale approccio.
Probabilmente la scelta degli autori, che non viene argomentata nel
testo, di inserire anche questi disegni di ricerca nell’approccio
quantitativo-positivista deve spiegarsi con il fatto che anche questi,
seppur qualitativi, possono essere definiti “convenzionali”.
I
tre autori, infatti, differenziano questa prima serie di disegni di
ricerca dalla successiva, che chiamano “Alternative ai Metodi e ai
Disegni di Ricerca Convenzionali”, individuando nell’approccio
positivista alcuni limiti che hanno portato alla necessità di
sviluppare metodi alternativi nuovi.
Questi metodi, che nel 1988
potevano essere solo una minoranza e un’alternativa, oggi si sono
notevolmente sviluppati, tanto da ritagliarsi uno spazio pari ai metodi
più positivisti.
I limiti individuati da Williams, Rice e Rogers (1988: 39) nel paradigma positivista sono quattro e sono quelli già individuati in tanta letteratura:
- Il paradigma positivista non è adatto ai primi stadi di una disciplina o di una teoria, in quanto la sua rigidità, il suo rigore e l’utilizzo di metodi predefiniti possono precludere la possibilità di scoprire aspetti che non sono misurabili o analizzabili con tali metodi.
- I metodi tipici dell’approccio scientifico-positivista spesso non sono adeguati allo studio di aspetti legati all’attività umana, in quanto distaccano l’oggetto di studio dal suo contesto storico e sociale. Tale approccio assume che esistano degli “effetti” che sono “causati” unidirezionalmente da determinate variabili indipendenti, piuttosto che da realtà sociali create, negoziate nel loro significato ed interpretate dai partecipanti stessi attraverso le loro interazioni. Per quanto riguarda lo studio della comunicazione umana, tale limite è ancora più accentuato dato che tale campo di ricerca coinvolge spesso l’analisi del significato.
- L’approccio “convenzionale” non riesce a generare facilmente alternative esplicite alle proprie assunzioni e prospettive. Esso è focalizzato a identificare e falsificare spiegazioni alternative all’interno della propria prospettiva.
- L’operazionalizzazione della maggioranza delle
variabili è una misura indiretta del fenomeno o del concetto studiato.
Molti studi riescono a spiegare solo una piccola parte di varianza e,
dato che solo pochi rapporti di ricerca sono confrontabili,
l’assunzione della replicabilità e cumulatività della scienza nella
pratica non è soddisfatta. Per finire, i fenomeni che non sono
suscettibili ai metodi convenzionali delle scienze sociali non vengono
studiati.
Per tentare di dare risposta a questi limiti si sono sviluppati paradigmi e teorie alternative che, portando avanti la tradizione fondata dalla sociologia comprendente (Verstehen) di Weber (1922), si possono riunire sotto il nome di ricerca interpretativa e critica.
Tale approccio è centrato sull’importanza del significato soggettivo ed è primariamente induttivo, muovendo la propria attenzione dal livello empirico verso il livello teorico. La teoria non viene testata ma è emergente, cioè si forma, muta, si evolve con la ricerca stessa. L’approccio critico-interpretativo è inoltre olistico, nel senso che considera di primaria importanza il contesto, non come semplice ambiente che circonda l’azione o il fenomeno, ma come elemento che contribuisce a creare il significato dell’azione.
Non esiste una metodologia unificata, associata all’approccio interpretativo e critico, ma ci sono dei principi comuni:
- Sono
gli individui a creare la propria realtà e ad interpretarla. Le
interpretazioni sono quindi soggettive e relative, costruite in
interazione con gli altri individui nei processi comunicativi che
avvengono nella realtà sociale.
- Gli elementi di tale realtà non sono isolati o separabili: l’azione individuale e le condizioni strutturali si influenzano a vicenda. Sotto la realtà di superficie, sotto le condizioni materiali e formali, ci sono significati più profondi.
- Gli approcci all’interno di tale
corrente possono essere più o meno critici: se gli approcci
convenzionali supportano acriticamente le status quo, gli approcci
interpretativi sono più critici e si possono distinguere, appunto, in
naturalistici e critici15. I primi sono tesi a capire come la società sia
regolata attraverso la negoziazione e la creazione del significato, i
secondi si dedicano ad identificare, valutare e rimuovere l’inequità
sociale e la dominazione.
Naturalmente anche
l’approccio interpretativo presenta a sua volta dei limiti: la
difficoltà nel gestire ed organizzare le enormi quantità di dati
qualitativi derivanti dalle interviste e dalle osservazioni sul campo,
a cui si aggiunge una dichiarata soggettività nel raccogliere ed
integrare tra loro i vari materiali, fornendo le basi per le proprie
conclusioni, inevitabilmente soggettive a loro volta.
Inoltre
Williams, Rice e Rogers (1988: 42) registrano una certa riluttanza
nell’uso degli strumenti informatici, in quanto essi apparirebbero
troppo tecnocratici e de-personalizzati. Se quest’affermazione poteva
essere valida alla fine degli anni ottanta del secolo scorso, oggi la
realtà della ricerca, anche interpretativa, è molto differente:
esistono e sono diffusi software creati appositamente per condurre
ricerche qualitative16.
Come già detto in precedenza, Williams, Rice e Rogers non individuano nell’approccio interpretativo e critico una metodologia ben definita, forse perché avevano già esaurito gran parte dei metodi possibili classificandoli come “convenzionali”. Non a caso la ricerca qualitativo-interpretativa fa uso degli ultimi metodi e disegni di ricerca presentati in precedenza, come gli studi sul campo, gli studi di caso, le ricerche secondarie e d’archivio, l’analisi del contenuto e i focus group, per raccogliere ed analizzare i propri dati usando una prospettiva etnometodologica ed etnografica piuttosto che positivista.
Pur non individuando metodi specifici,
i tre autori propongono tre “direzioni” lungo la quale l’approccio
critico-interpretativo si muove nello studio dei nuovi media:
l’approccio interpretativo, il contestualismo e l’Action Research.
A
mio avviso se le prime due direzioni possono essere viste come apparati
teorici da utilizzare per la ricerca, senza però imporre delle
specifiche dimensioni operative, l’ultimo propone esplicitamente delle
direttive operative da seguire, come l’intervento del ricercatore e la
partecipazione di tutti i gruppi di attori rilevanti.
Approccio Interpretativo.
L’approccio
interpretativo alla ricerca sulla comunicazione pone l’attenzione sul
significato soggettivo dei messaggi comunicativi degli attori (Geertz,
1973), e si basa sulle seguenti linee principali:
- Considera i ruoli come l’insieme delle aspettative, i diritti e i doveri e i contratti sociali che governano il comportamento sociale degli individui, spingendoli ad adattarsi alle fonti e ai contenuti delle credenze correnti in quella determinata società.
- Vede il processo di decisione come un processo di analisi del problema e creazione di significato, basato sia sull’evidenza e sull’analisi, ma anche sull’intuizione, sulla negoziazione e sulla attribuzione di valore.
- Ha lo scopo di comprendere le transazione coinvolte nell’acquisizione, nello scambio e nella distribuzione dell’informazione e le fonti collettive o gerarchiche (come le politiche, i rituali e le cerimonie) del sistema di comunicazione.
- Studia
come la comunicazione media le intenzioni e i comportamenti
individuali, sia tramite ragioni valide, che tramite interessi
particolari e convenienze.
Contestualismo.
Il
contestualismo sostiene che gli individui, le organizzazioni, gli
eventi e le strutture oggetto di studio non debbano essere isolati da
tutte quelle interdipendenze che essi hanno con il contesto in cui sono
inseriti, in quanto tale contesto ne influenza il cambiamento e
l’azione. Il contestualismo è una reazione alla tendenza della ricerca
positivista ad indagare il comportamento umano come una specie di
psicologia individualistica.
Nella ricerca sulla comunicazione il
contesto, il contenuto e il cambiamento vengono descritti come parte di
un unico processo continuo che fa sia da sfondo che da struttura.
All’interno
di tale filone vengono spesso utilizzati studi di caso comparativi dei
nuovi media in situazioni diverse, in fasi diverse della comunicazione,
in tempi diversi.
Per esempio, sostengono Williams, Rice e Rogers
(1988: 45), un’analisti contestuale di un sistema per l’invio
elettronico di messaggi dovrebbe considerare anche il design del
sistema, il processo di adozione da parte dell’organizzazione e degli
individui, l’implementazione continua e la continua re-invenzione del
nuovo medium17, i conflitti sul possesso, le possibili applicazioni e le
loro implicazioni a breve e lungo termine.
Nell’argomentare
ulteriormente la necessità dell’approccio contestualista, i tre autori
riportano anche l’esempio della delusione seguita alle promesse
dell’utilità per il Terzo Mondo delle nuove tecnologie della
telecomunicazione. Delusione attribuibile al fatto che alla base di
tali aspettative ci sono stati i risultati decontestualizzati di
ricerche svolte nei paesi sviluppati.
Action Research.
La
definizione forse più citata di Action Research è quella di Rapoport:
“L’Action Research ha lo scopo di contribuire sia a risolvere i
problemi pratici delle persone in una situazione contingente, che di
raggiungere gli obiettivi delle scienze sociali tramite la
collaborazione unitaria [tra ricercatori e le persone coinvolte]
all’interno di una cornice etica mutuamente accettata” (originale in
inglese, Rapoport, 1970 in Susman e Everet, 1978).
I ricercatori,
quindi, seguono il disegno dell’Action Research mettendo esplicitamente
in discussione lo status quo, i modelli di controllo, le scelte
normative sulla tecnologia.
Williams, Rice e Rogers sostengono
che, alla fine degli anni ottanta, la maggior parte dei fondi per la
ricerca sui sistemi informativi era controllata da ricercatori di
stampo positivista, da progettisti e da manager. L’Action Research
cerca di bilanciare questo bias, considerando gli attori come
partecipanti e non come oggetti di studio, fornendo un feedback a tutti
gli attori rilevanti del sistema e a tutti quelli coinvolti nella
ricerca, facendo partecipare i ricercatori al processo di cambiamento e
sviluppando azioni alternative per gli attori del sistema, cercando di
bilanciare gli interessi dei ricercatori con i bisogni degli attori.
A
conclusione della trattazione sui possibili metodi e disegni di ricerca
per lo studio dei Nuovi Media, Williams, Rice e Rogers (1988: 47)
propongono come via da percorrere quella dell’unione degli approcci
quantitativi e convenzionali con quelli interpretativi, in modo da
cercare di limitare gli svantaggi e prendere tutti i vantaggi di
entrambi.
Essi auspicano l’uso di più metodi diversi tra loro e
la raccolta di tipi differenti di dati, per arrivare a quella che loro
chiamano “triangolazione”, ricalcando il termine nautico che indica il
sistema di punti di riferimento multipli, usato per localizzare la
posizione esatta dell’imbarcazione in mare. La triangolazione
porterebbe, infatti, ad un’operazionalizzazione più accurata dei
concetti, proprio basandosi su più metodi di riferimento.
Gli autori non sembrano però tenere conto che alcuni oggetti di ricerca e alcuni quesiti di ricerca, semplicemente non possono essere indagati e non possono trovare risposta con metodi quantitativi o, viceversa, qualitativi, e che, spesso, i risultati dei due approcci sono difficilmente comparabili e confrontabili.
Una proposta simile di unione e completamento tra i risultati quantitativi e qualitativi verrà fatta circa un decennio più tardi anche da Sudweeks e Simoff (1999) con il loro schema di ricerca CEDA, che verrà illustrato più in là nel capitolo.
In merito al presente lavoro di tesi, esso si situa in
una prospettiva fortemente qualitativo-interpretativista, in quanto
tale prospettiva si adatta maggiormente al tipo di contesto e ai
quesiti della ricerca, come verrà spiegato in modo più dettagliato in
seguito.
12 Il videodisc è un disco a lettura ottica, detto anche laserdisc. E’ infatti un raggio laser a consentire sia la registrazione (possibile esclusivamente nella fase di produzione) che la lettura. Realizzato negli anni settanta, è un disco di 30 cm di diametro, suddiviso in tracce concentriche nella quale sono memorizzati i fotogrammi. (Definizione tratta da Lever, Rivoltella e Zanacchi, 2002).
La sua vita è durata poco in quanto è stato soppiantato dalla tecnologia concorrente VHS che permetteva non solo di acquistare film per la riproduzione domestica ma, soprattutto, di registrare la programmazione televisiva, possibilità che il videodisc non offriva. I videodisc sono stati impiegati nel campo dell’istruzione e del turismo, per le guide audiovisive.
13 Williams, F., Rice, R.E., Rogers, E.M., 1988, Research Methods and the New Media, Free Press, NY.
14 La validità è il grado in cui una misura o un indicatore operazionalizza adeguatamente il concetto che si intende misurare. La validità interna è il grado in cui una misura, operazionalizzando cosa si vuole studiare, esclude spiegazioni alternative dei risultati. La validità esterna, invece, è il grado in cui i risultati della ricerca sono generalizzabili, significativi e applicabili anche ad altre situazioni rispetto a quelle studiate.
15 La differenziazione tra approcci interpretativi naturalistici e critici è di Putnam, 1983, “The Interpretative Perspective: An Alternative to Functionalism” in L. Putnam e M. Pacanowsky (a cura), Communication and Organizations: An Interpretative Approach, SAGE, Beverly Hills, CA, pp. 31-54.
16 Ad esempio si può citare ATLAS, che è un software utilizzato per l’analisi qualitativa di grandi quantità di dati testuali, grafici, audio e video. Offre una serie di strumenti per l’analisi sistematica di dati “soft”, cioè di quei dati che non possono essere analizzati tramite tecniche statistiche formali, cercando di carpire i “fenomeni nascosti” al loro interno (tratto dal sito: http://www.atlasti.com).
17 Per un approfondimento sul processo di re-invenzione continua della tecnologia, si veda il concetto di drift tecnologico in Ciborra, 1996.