segunda-feira, 30 de junho de 2008

Alguns aspectos sobre o tratamento de dados qualitativos e quantitativos

Na tentativa de aprofundar os meus conhecimentos sobre o tratamento de dados na investigação educacional, estive a ler o capítulo 5, Técnicas de Análise e Interpretação de Dados, do livro Investigação Naturalista em Educação, de Natércio Afonso[1].
Aqui deixo os apontamentos que resultaram dessa leitura:

O autor começa o capítulo realçando que é do tratamento de dados que deve surgir a finalidade de todo o processo investigativo: a produção de conhecimento científico. Para reforçar esta sua ideia, cita Wolwott: o problema maior do investigador ‘não é o saber como vai recolher os dados, mas sim o de imaginar o que fazer com os dados que obteve’ (p.111). [daí a importância de conhecer bem todas as possibilidades de tratamento de dados, para que na elaboração do projecto de investigação, este aspecto ficar, logo à partida, definido em função dos objectivos formulados e para que os instrumentos de recolha de dados sejam construídos de acordo com as decisões tomadas quanto à formulação da hipótese ou questão investigativa e os respectivos procedimentos de tratamento de dados]
Afonso alerta para o facto de que o sucesso de qualquer investigação, isto é, o conhecimento científico por ela produzido, depende, em grande medida, da qualidade dos dados, entendida como a relevância que estes têm no contexto da investigação.
Assim, considera que existem três critérios de que avaliam a qualidade dos dados de uma investigação: a fidedignidade [aqui sinónimo de fiabilidade], a validade e a representatividade.
Quanto à fidedignidade, considera este autor, que ela se refere à qualidade externa dos dados (os dados referem-se a informação efectivamente recolhida e não foram fabricados).
Quanto à validade, diz Afonso, que já se refere à qualidade interna (‘a pertinência em relação ao questionamento da realidade empírica resultante do design do estudo’p.113). Isto é, o critério da validade é aquele que avalia se uma dada informação produzida é relevante para o conhecimento que se pretende produzir.
Quanto à representatividade, considera o autor, que esta é o garante de que os sujeitos envolvidos e os contextos escolhidos são representativos do conjunto dos sujeitos e contextos a que a investigação se refere. Afonso considera que este último critério é particularmente sensível na análise de dados quantitativos, quando se pretende extrapolar os resultados para um âmbito mais alargado, através de testes estatísticos.
Passando para o tratamento de dados propriamente dito, o autor considera que existem três conceitos básicos para orientar a organização e exploração de dados: a descrição, a análise e a interpretação. Estes três conceitos, com algumas adaptações, podem nortear tanto o trabalho com dados quantitativos como com qualitativos.
A descrição tenta responder à questão O que é que se passa aqui?. No entanto, ela não existe no seu estado puro, uma vez que o próprio processo de recolha de dados já implica análise e interpretação. Afonso refere que Wolcott vai mais longe e considera que os dados já são teoria.
A análise tenta responder à questão Como é que as “coisas” funcionam?. Trata-se de identificar os aspectos essenciais de uma determinada situação e descrever sistematicamente as suas relações.
A interpretação tenta responder à questão O que é que isto significa?. A informação é tratada no sentido de construir um significado. Segundo Afonso, Wolcott alerta para o facto de que é fácil levar a interpretação longe demais, isto é, de resvalar para uma ‘deriva especulativa, construindo significados e identificando implicações que os dados recolhidos não sustentam’ (p.116). Um modelo relevante que se insere neste conceito é a teoria fundamentada (grounded theory) de Strauss.
Na informação quantitativa:
A informação quantitativa é expressa em valores que resultam de um processo de medição de variáveis, através do qual se atribuíram números com base em regras preestabelecidas. Estas medidas das variáveis são classificadas numa de quatro possíveis escalas: nominal (classificação da variável em diferentes categorias), ordinal (as variáveis são diferenciadas e ordenadas em função de uma dada dimensão), intervalar (a magnitude dos intervalos entre os números que representam as diferenças na variável que está a ser medida é igual), razão (tem as mesmas características da escala intervalar, no entanto, o valor zero é real, isto é, corresponde à ausência da variável).
A descrição e análise das medidas, obtidas com qualquer uma destas escalas, são realizadas através de um conjunto de procedimentos – a estatística.
A estatística descritiva descreve, através da obtenção de um número, um conjunto de características medidas numa amostra.
A inferência estatística é um processo de tirar conclusões sobre valores desconhecidos, a partir de estatísticas obtidas de medidas efectuadas numa amostra.
Os testes de hipóteses estatísticas servem para determinar se as diferenças observadas entre dois grupos relativamente a uma variável são atribuíveis a uma variável independente ou se surgiram do acaso.
As estatísticas de correlação determinam se dois conjuntos de valores estão relacionados.
As estatísticas de regressão tentam estabelecer um conjunto de valores a partir de um outro conjunto de valores.
(‘No processamento de dados quantitativos através da organização de material estatístico descritivo e da realização de testes para verificação das hipóteses de pesquisa, o dispositivo de análise e interpretação está claramente formatado e desenvolve-se numa sequência linear, a partir da recolha efectuada. (p.118).)
Na informação qualitativa:
O tratamento deste tipo de informação é mais ambíguo, moroso e reflexivo, concretizando-se numa lógica de crescimento e de aperfeiçoamento. Assim sendo, não há a formatação do dispositivo prévia ao tratamento de dados. O dispositivo de tratamento é construído e consolidado à medida que os dados são organizados e trabalhados.
O investigador deve explorar e mapear o seu material, tendo em mente os seus objectivos de pesquisa, ‘mobilizando e testando estratégias produtoras de significados relevantes, transformando progressivamente os dados em elementos constitutivos de um novo texto (o texto científico)’ (p.118). O texto científico é, por conseguinte, uma leitura que resulta do contacto entre o contexto específico e o olhar, igualmente específico, do investigador.
Assim, a descrição será o primeiro patamar do processo interpretativo, tratando-se de utilizar as palavras para produzir uma imagem mental de um determinado aspecto, a partir do ponto de vista do autor.
A análise, ou como Anselm, Strauss e Corbin lhe chamam, a estruturação conceptual encontra-se no patamar intermédio da construção interpretativa. Trata-se da organização dos dados em categorias, dando profundidade analítica ao texto descritivo.
A interpretação, ou como Anselm, Strauss e Corbin lhe chamam, a teorização traduz-se num ‘conjunto de categorias bem desenvolvidas (temas, conceitos) que são interligados sistematicamente por intermédio de proposições que estabelecem esse relacionamento, de forma a constituir uma estrutura integrada que pode ser usada para explicar e prever um fenómeno social’ (p.119).
Afonso refere seis fases nos procedimentos analíticos do material (baseado em Marshall e Rossman): a organização dos dados; a produção de categorias, temas e padrões; a codificação dos dados; a testagem das interpretação que vão surgindo; a busca de explicações alternativas; a produção do texto final.

Comentário:
Este capítulo parece-me particularmente interessante por abordar, de forma muito clara, a questão da fiabilidade e da validade. Também me parece esclarecedora a ideia de que qualquer tratamento de dados (quantitativo ou qualitativo) tem por base um destes três conceitos base – descrição, análise e interpretação.
Só há um aspecto que me deixa algumas dúvidas: o autor afirma que no tratamento de dados quantitativos, todo o processo é linear e pode ser definido antes mesmo de procedermos à recolha de dados. No tratamento de dados qualitativos, afirma que o processo está sempre em construção, sofrendo alterações conforme os dados forem tratados.
A minha dúvida é a seguinte: será que o processo de tratamento de dados quantitativos é, de facto, assim tão rígido? Se o investigador detectar que, a partir dos dados recolhidos, ainda pode aplicar técnicas anteriormente não previstas e que estas poderão reforçar a construção do conhecimento científico, estas não poderão ser aplicadas, sob pena de invalidar o estudo?
Por outro lado, não terá já o investigador de pensar, aquando da construção dos instrumentos de recolha de dados, na forma como os pretende tratar? Não terá de ter à partida algum dispositivo de tratamento de dados pensado?
Fiquei a pensar o seguinte: embora na investigação qualitativa a dinâmica na construção do dispositivo de dados seja mais significativa, para se poder adaptar ao tipo de dados que são recolhidos e cujo surgimento o investigador não podia prever, também terá de haver essa possibilidade na investigação quantitativa (p. ex. e se surgir uma variável (do tipo extraneous ou confounding) que não estava prevista? O investigador terá de ter isso em conta no processo de tratamento de dados que, inevitavelmente, irá sofrer alterações. ???).
Portanto, considero que tanto no tratamento de dados (quantitativos e/ou qualitativos), tem de haver uma planificação prévia do dispositivo de tratamento, sendo que, no caso de dados qualitativos, isso terá de ser feito numa perspectiva mais dinâmica, aberta a adaptações e alterações.



[1] AFONSO, N. (2005). Investigação Naturalista em Educação. Porto: Edições ASA.

Sem comentários: