Recursos Tecnológicos en la Investigación Social. Descubriendo la Teoría de Respuesta a los Ítems (TRI).
Ésta articulo repasa algunos de los recursos tecnológicos que todo investigador en el área social puede utilizar para el análisis de sus resultados y/o información recogida. Asimismo hace una pequeña introducción a la TRI, fases en un proceso de investigación-diseño, análisis de datos e informes de investigación, incluyendo los recursos asociados a cada uno.
Dentro de las
contribuciones de la TRI en la construcción de los test, desde el punto de vista
teórico en la medición psicológica su gran contribución se centra en la
posibilidad de obtener mediciones invariantes respecto de los instrumentos
utilizados y de los sujetos implicados. (Muñiz, 1997). Frente a la Teoría
Clásica de los Test (TCT), el acercamiento clásico se encontraba cerrado en la
incongruencia teórica: la medición depende del instrumento utilizado y las
propiedades de estos están en función de los objetos medidos, los sujetos. La
promesa y objetivo central de la TRI será solucionar ese problema, lo que, en
suma, permitirá:
- o Obtener mediciones que no varían en función del instrumento utilizado, que sean invariantes respecto de los test empleados.
- o Disponer de instrumentos de medida cuyas propiedades no dependen de los objetos medidos, sean invariantes respecto de los sujetos evaluados.
A lo largo de las páginas
que siguen daremos cuenta de aquellas herramientas que actualmente pueden
favorecer la actividad investigadora desde una perspectiva empirico-analitica.
Así, siguiendo la secuencia normalmente utilizada en un proceso de
investigación iniciaremos la presentación de los recursos susceptibles de
utilización durante la etapa de planificación, continuaremos con los que son de
utilidad en las etapas de recogida y análisis de datos, para terminar dedicando
un apartado a las nuevas posibilidades que nos abre la realidad virtual en la
comunicación de los resultados de nuestras investigaciones.
En el cuadro 1 podemos
observar una relación de los principales recursos tecnológicos disponibles
actualmente, divididos en torno a las diferentes fases de la investigación, y
que permiten un trabajo más fácil al investigador educativo. Algunos de estos
recursos tiene un carácter transversal, son útiles a lo largo de todas las
etapas de la investigación como los procesadores de texto-, otros, en cambio,
son específicos de una determinada etapa, como es el caso de los paquetes
estadísticos.
En las páginas que siguen
nos centraremos en una selección de los que consideramos más novedosos y
útiles.
ETAPAS DE LA INVESTIGACIÓN
|
RECURSOS TECNOLÓGICOS
|
PLANIFICACIÓN
|
- Procesadores de texto
- Hojas de cálculo
- Paquetes integrados
- Programas de
planificación
|
RECOGIDA DE DATOS
|
- Bases de datos
- Sistemas de
observación
- Sistemas de encuesta
- Tests computarizados
|
ANÁLISIS DE DATOS
|
- Programas para
meta-análisis
- Paquetes estadísticos
- Programas de análisis
de ítems
|
PRESENTACIÓN DE
RESULTADOS
|
- Procesadores de texto
- Programas gráficos
- Revistas electrónicas
- Vídeo-conferencias
|
Cuadro
1. Relación de recursos tecnológicos en las distintas etapas de la
Investigación Social.
1.Recursos tecnológicos en la planificación de la investigación.
En
un primer momento de la investigación es preciso acometer la revisión de la
literatura, para lo cual se cuenta con una serie de recursos que ya fueron
objeto de análisis en el trabajo de Rodríguez y otros (1995) y al cual
remitimos al lector. Desde una perspectiva experimental, el investigador cuenta
con programas que le pueden ayudar en las primeras fases de la investigación,
sobre todo si desea llevar a cabo una planificación minuciosa de la
experimentación y ver cuál puede ser el mejor diseño de la misma. En este
sentido, para el diseño de experimentos no secuenciales disponemos actualmente
del sistema CADEMO (Computer Aided Design of Experiments and Modeling),
desarrollado en Alemania por parte de Rasch, Guiard, y Nürberg (1995). El
sistema CADEMO aporta al investigador una herramienta para diseñar sus
experimentos y los tamaños mínimos de las muestras con las que debe trabajar. A
través de un diálogo interactivo el programa orienta al investigador hacia el
diseño óptimo que dé respuesta al problema planteado.
La
utilidad y eficacia de programas como los procesadores de texto, hojas de
cálculo o los paquetes integrados es suficientemente conocida por parte de los
investigadores, sustituyendo las funciones que anteriormente se asignaban, por
ejemplo, a la máquina de escribir y las calculadoras. Durante esta fase inicial
el investigador habrá de elaborar un proyecto, para el que le será de gran
utilidad un procesador de texto (WordPerfect, Word... etc.), en el mismo habrá
de incorporar un presupuesto de gastos, para lo cual puede hacer uso de una
hoja de cálculo (Lotas 1-2-3, Plan Perfect ... etc.), o bien puede utilizar
algún paquete integrado que recoda todas estas utilidades. De hecho, en la
actualidad podemos decir que estas aplicaciones informáticas son las más
utilizadas y las que gozan de una mayor popularidad.
CADEMO se estructura en torno a una serie de módulos, a través de los
cuales se grúa al investigador en función de las respuestas que va ofreciendo a
las preguntas planteadas por el sistema. Algunos de estos módulos son los
siguientes:
a)
Selección y construcción de diseños experimentales: A través de este módulo el
programa orienta al investigador sobre los principales diseños experimentales,
ayudándole a seleccionar el más adecuado a su problema concreto.
b)
Elección del modelo para el análisis de la varianza: Este módulo incluye la
elección del modelo entre diversos modelos estadísticos que describen la
influencia de uno o más factores sobre una variable o conjunto de variables.
c)
Procedimientos de selección: Aplica el enfoque de la zona de indiferencia de
Berchofer para seleccionar la mejor población de un conjunto dado de
poblaciones.
d)
Experimentos de campo: Este módulo puede ser utilizado para la selección de
diseños apropiados tales como un diseño de bloques, representarlos gráficamente
y calcular las replicaciones necesarias.
e)
Estimación y contraste de medias y probabilidades: incluye los métodos de
diseños experimentales para la estimación y la comparación de medias y
probabilidades para problemas con una dos o k muestras. A través de este módulo
1 investigador puede determinar el amaño necesario de la muestra de acuerdo ,on
unas necesidades concretas.
f)
Genéticas de población: Diseña experimentos para estimar parámetros genéticos
de las poblaciones.
g)
Regresión: Este módulo construye diseños de experimentos óptimos para la
estimación de los parámetros de la regresión o para comprobar o estimar la
confianza de los modelos de regresión.
2. Recursos tecnológicos en la recogida de datos.
La
fase de recogida de datos es esencial en cualquier proceso de investigación. En
la actualidad contamos con una serie de recursos que facilitan desde la
realización de observaciones o encuestas, hasta la administración de pruebas
objetivas y teste mediante ordenador.
2.1.
La observación.
El
empleo de la observación corno método o como técnica permite al investigador
recoger información sobre un problema utilizando su propio esquema perceptivo y
valiéndose de su propia interpretación del problema. Al utilizar la observación
como técnica de recogida de datos (cuantitativos o cualitativos) el
investigador puede recurrir a diferentes sistemas de registro. Evertson y Green
(1989) los clasifican en torno a cuatro tipos: categoriales, descriptivos,
narrativos y tecnológicos. Dado el objetivo de este trabajo centraremos nuestro
interés sólo en los últimos.
Los
registros tecnológicos incluyen grabaciones magnetofónicas, fotografías,
grabaciones en vídeo, videodisco y filmaciones. Estos sistemas de registro se caracterizan
por ser abiertos y fácilmente adaptables a otros sistemas de observación. Con
ellos se busca dar respuesta a un problema salvando el carácter relativo y
temporal de la información recogida. Las dimensiones del problema quedan
registradas de modo permanente, permitiendo una continua revisión de las
mismas. Los hechos o fenómenos que son observados mediante estos sistemas cuyo
carácter es longitudinal (se desarenan en el tiempo en una sucesión a veces
conteniendo una serie no interrumpida de información), puede transformarse en
hechos o fenómenos transversales y separables en unidades de diferente tamaño,
con la ventaja de que el observador puede reconstruir cuando lo desea su
primitiva naturaleza procesual.
No
hace mucho tiempo, en el contexto de la investigación educativa resultaba
exótica la utilización de este tipo de sistemas de registro, debido
fundamentalmente al coste de los mismos, así como a las dificultades que
suponían su utilización sobre todo por sus grandes dimensiones y peso. Gracias
al desarrollo tecnológico que se ha producido en los últimos treinta años,
estas dificultades iniciales se han superado y podemos contar con magnetófonos
tan pequeños como una tarjeta de visita, o cámaras de vídeo que pueden
manipularse con una sola mano. A ello debemos añadir los avances que se han
producido en la calidad de los registros que se obtienen con este tipo de
recursos.
Pero
con toda seguridad, es la combinación de estos recursos
"tradicionales" con las posibilidades ofrecidas por la informática la
que ha abierto nuevas posibilidades de utilización en la investigación
educativa. Aún hoy podemos ver la imagen del investigador sentado frente a una
pantalla de televisión viendo el producto de una serie de sesiones de
observación, cuaderno de notas en la mano, parando manualmente cada cierto
tiempo el vídeo para poder así transcribir lo que ve y oye. Esta es una imagen
que progresivamente irá desapareciendo en favor de aquella otra en la que el
investigador, utilizando sistemas de observación, se sienta ante un ordenador
desde cayo teclado es capaz de realizar todas las operaciones necesarias:
avanzar en la visualización, ralentizar, parar, transcribir, realizar
anotaciones, etc.
Un
ejemplo de estos sistemas de observación lo constituyen The Observer (Noldus,
1991), CORA (Van der Vlugt y y otros, 1992) y VTLOGANL (Roberts y otros, 1993;
Hecht y otros, 1993, 1994; Hecht, 1995). Estos sistemas se han desarrollado
para el registro de conducta y el análisis de datos. La principal diferencia
entre ellos reside en que The Observer se ha construido para recoger datos en
vivo, directamente; mientras que CAMERA y I~TLOGANZ se ha diseñado para
registrar y codificar datos a partir de grabaciones en vídeo. Los tres sistemas
contribuyen a un adecuado y fiable registro y codificación de las conductas de
los sujetos y su interacción como secuencias de diferentes unidades
conductuales.
2.2.
Métodos de encuesta.
Al
igual que ha sucedido con otros medios tecnológicos, los recursos disponibles
para la encuesta se han ido modificando y han aumentando el número de
posibilidades. Así, por ejemplo, el recurso que más se ha utilizado en la
investigación educativa que emplea la entrevista como técnica de recogida de
datos ha sido el magnetofón. De los primeros aparatos, de grandes dimensiones y
un peso enorme que los hacían prácticamente imposible de trasladar de un lugar
a otro, hemos pasado a las grabadoras de mano casi tan pequeñas como un paquete
de cigarrillos, ofreciéndonos incluso prestaciones mucho mejores que aquellos otros
anteriores.
Una
vez recogidas las respuestas de los sujetos a una entrevista, por lo general se
procede a la transcripción de la misma para facilitar su análisis. No obstante,
y a pesar de los avances que se vienen produciendo en el reconocimiento de la
voz, ano hoy el investigador educativo se ve abocado a transcribir las
entrevistas, actividad para la que resulta de una gran utilidad el dictáfono.
Esta herramienta permite al investigador adaptar la velocidad de reproducción
de la grabadora y realizar la transcripción de forma continuada, sin necesidad
de paradas y saltos hacia delante y hacia atrás.
El
campo en el que se ha producido un mayor avance ha sido sin duda alguna la
realización de encuestas utilizando el ordenador. Surge de esta forma lo que
conocemos hoy como encuesta asistida por ordenador (Saris, 1991). Durante la
década de los setenta comienza a utilizarse este tipo de encuestación (Fink,
1983) y cada vez son más utilizadas por los investigadores en diferentes
contextos y situaciones (marketing, agencias estatales, sondeos de opinión ...
etc.). Actualmente podemos encontrar diferentes modalidades de encuesta
asistida por ordenador, entre las que destacamos la encuesta computarizada por
teléfono, la encuesta computarizada presencial, la encuesta computarizada
autoadministrada y la encuesta computarizada por red.
La
diferencia fundamental entre la encuesta por teléfono tradicional y la asistida
por ordenador es que en esta última el lápiz y el papel son sustituidos por el
ordenador, siendo el más popular el sistema CATI (Computerized Assisted
Telephone Interview). El entrevistador, sentado delante de un ordenador, llama
por teléfono a un sujeto. Una vez establecido el contacto, el entrevistador
comienza a realizar las preguntas que se presentan en pantalla e introduce con
el teclado las respuestas que ofrece el entrevistado.
Podemos
decir que la encuesta computarizada presencial sigue el procedimiento de la
encuesta tradicional, pero en esta ocasión el cuestionario y el lápiz se
sustituyen por un ordenador. Dependiendo de las características de la
investigación y de los objetivos que se persigan nos encontramos, básicamente,
con dos posibilidades. Una primera consiste en la administración del
cuestionario a una muestra de sujetos utilizando para ello un ordenador
personal que permanece fijo en algún lagar del entorno de la
investigación como, por ejemplo, cuando un investigador desea conocer la
opinión de los padres, profesores o alumnos de un centro educativo determinado.
El entrevistador puede situarse con el ordenador en alguna de las dependencias
del centro y los sujetos se acercan hasta el mismo para expresar sus opiniones.
Una segunda opción consiste en disponer de un ordenador portátil o de mano con
el que el entrevistador se desplaza y va recogiendo con él las respuestas que.
ofrezcan los sujetos de la muestra elegido.
En
la entrevista computarizada autoadministrada es el propio sujeto, sin la
presencia del entrevistador, quien responde directamente a la encuesta. En su
versión más primitiva, se envía un disco flexible con la encuesta a los sujetos
que se van a entrevistar y éstos, tras su cumplimentación, devuelven el disco a
la organización encargada de la investigación. Éste es un procedimiento que se
ha utilizado, sobre todo, en el entorno empresarial (Kinnear y Taylos, 1991).
Otra modalidad consiste en mantener un ordenador con el modelo de encuesta y
cada sujeto se acerca al mismo para responder a las cuestiones planteadas,
quedando registradas éstas en el ordenador.
Por
último, gracias al enorme desarrollo que están teniendo las redes de
comunicación, nos encontramos con una nueva modalidad de encuesta como es la
que se realiza a través de las redes de ordenadores. En su versión más simple
nos podemos encontrar con la entrevista realizada dentro de un pequeña red
local, y en su versión más amplia nos podemos encontrar con la utilización de
las grandes redes de comunicación como Internet para llevar a cabo una encuesta
entre los sujetos conectados a la misma. Esta última posibilidad permite el
acceso a determinados grupos de sujetos con características especificas, como
son los que se integran en diferentes grupos de discusión o listas de
distribución, orientados por un interés común sobre tópicos determinados
(investigación educativa, evaluación, desarrollo profesional, diagnóstico, ...
etc.).
Como
recurso tecnológico que facilita las actividades necesarias para la realización
de encuestas asistidas por ordenador nos encontramos con el programa IT 2.2
(Smit, 1994). Su estructura modular permite una fácil recogida y análisis de
los datos recopilados. A través del módulo Vmaker el investigador diseña el
cuestionario y la secuencia en la que se realizarán las preguntas. Con Dmaker
el entrevistador conduce la encuesta. Los datos recogidos se pueden analizar con
el módulo Tables y a través de Files se pueden manejar los datos y los
cuestionarios. Además el programa IT, a través del módulo Utilities, permite
exportar los datos recogidos para su tratamiento con programas como SPSS, SOS,
dBASE y LOTOS, así como la opción de codificar respuestas abiertas, cuyo
análisis se vería con programas como SPAD.T (véase Etxeberria y otros, 1995).
Otro
programa informático que nos permite la realización de encuestas asistidas por
ordenador es MicroSURV (Assessment System Corporation, 1994). Con una capacidad
de manejar hasta 400 cuestiones diferentes, formuladas tanto en formato de
elección múltiple como tipo Likert, permite el control del tiempo que cada
entrevistado tarda en realizar la encuesta y facilita la administración de la
encuesta a diferentes muestras de una población.
Además
de los programas informáticos diseñados específicamente para la realización de
encuestas, existe todo un software desarrollado para la construcción de tests
que puede utilizarse de igual modo para la construcción y aplicación de
encuestas, como veremos a continuación.
2.3.
Los tests computerizados.
Mediante
el empleo de tests o pruebas, sean éstos estandarizados o elaborados sin una
intención comercial, el investigador sitúa a los sujetos de su estudio ante una
situación experimental desde la que plantea cierta problemática que aquellos
deben resolver.
Las
capacidades del ordenador rueden utilizarse en un amplio rango de ctividades
relacionadas con los tests. En concreto, el ordenador se puede utilizar ara
escribir items, construir bancos de items, construir y administrar tests, así
como puntuar, analizar e informar de los resultados obtenidos en los tests.
Para llevar a cabo estas actividades en la actualidad se dispone de un elevado
número de recursos tecnológicos, de los cuales vamos a destacar aquellos que
consideramos de una mayor utilidad en el campo de la investigación educativa.
Todos
los programas informáticos que existen hoy en la actualidad nos permiten la
redacción de items y la construcción de bancos de items. La diferencia
fundamental la encontramos en la capacidad de estos programas en el momento de
la aplicación de los tests construidos con los mismos, pudiendo diferenciar dos
tipos fundamentalmente: los que permiten la aplicación de tests de forma
tradicional (tests computarizados, TC) y los que ofrecen la posibilidad de
aplicar los tests mediante una estrategia adaptativa (tests adaptativos
computarizados, TAC).
Entre
los programas informáticos que nos permiten la realización de tests
computarizados podemos destacar en la actualidad The Examiner 3.5 (Ue Examiner
Corporation, 1994), Pin-Point (Cole y Logotron Limited, 1993) y LXR*TEST 5.0
(Logic Extension Resources, 1994).
The
Examiner es un programa informático diseñado específicamente para la
realización y administración de tests computarizados y tests de lápiz y papel.
Las cuatro funciones fundamentales de The Examiner son: creación de bases de
datos de items e información relacionada con los mismos, talos como
estadísticos de los items; descripción y producción de tests con la posibilidad
de guardarla de cara a una utilización posterior; la recogida de datos y la
presentación de los resultados de los examinados así como de los estadísticos
de los items en la base de datos; y la administración computarizada.
El
programa PinPoint "puede entenderse como un paquete de recogida y análisis
de infor nación diseñado para extraer y presentar de forma significativa hechos
y conclusiones a partir de tal información" (Cole y Logotron Limited, 1993:
I). Básicamente las funciones que desarrolla PinPoint son: diseño y edición de
los formatos de los tests o cuestionarios y hojas de respuesta; administración
computarizada; y análisis de la información recogida tras las respuestas de los
sujetos (estadística descriptiva y correlacionar). Dado que trabaja en entorno
Windows, el programa nos permite la realización de cuestiones integrando
gráficos y texto.
Con
toda probabilidad, actualmente el programa LAR *TEST 5. 0 es la herramienta más
potente para la realización de tests y cuestionarios, trabajando en un entorno
Windows. El programa nos permite la construcción de bancos de items con una
gran flexibilidad en la edición de los mismos; la construcción de tests o
cuestionarios bajo determinadas condiciones fijada por parte del investigador
(tipo de cuestiones, índices estadísticos, etc.); puntuación y análisis de los
datos de los tests y cuestionarios; y la administración computarizada.
Todas
las posibilidades presentadas en los programas anteriores están presentes en
los programas diseñados para la construcción y administración de Tests
Adaptativos Computerizados, destacando en este sentido CATSoftware System
(Computer Adaptive Technologies, 1994) y MicroCAT (Assessment System
Corporation, 1995).
CATSoftware
System se organiza en torno a una serie de módulos, cada uno de los cuales
permite la realización de las actividades relacionadas con la construcción y
aplicación de tests computarizados. El módulo CATBullder se utiliza para la
creación, revisión y almacenamiento de los items. La administración en formato
fijo o adaptativo se lleva a cabo con el módulo CATAdministrator. Los
resultados de los tests o cuestionarios son registrados utilizando el módulo
CATRegistrar, pudiendo introducirse de forma manual, a través de escáner o
importado desde un fichero en formato ASCII. El módulo CATStat facilita los
estadísticos de la Teoría de Respuesta al Item. CATWrite es el módulo que
responde, de una forma sencilla, a las necesidades de escribir los items.
Además de los módulos estandarizados, la empresa Computer Adaptive Technologies
ofrece la posibilidad de crear y adaptar los programas a las necesidades
planteadas por los clientes.
Dentro
del grupo de programas que permiten la administración adaptativa nos
encontramos en el entorno MS-DOS con MicroCAT. Éste quizás sea el programa más
conocido y utilizado en el contexto de los Tests Adaptativos Computerizados. Al
igual que otros programas, éste también se divide en una serie de módulos. El
módulo Development permite la creación de bancos de items, teste computarizados
y secuencias instructivas. El módulo Examination permite la administración de
los tesis, la puntuación, el registro de las puntuaciones de los items y los
teste e interpretar los resultados de los teste. A través del módulo Assessment
podremos analizar los resultados de los tesis administrados tanto a través de
lápiz y papel como computarizados. En este módulo integra una serie de
programas especificas para el análisis de items (ITERAN, RISCAL y ASCAL), así como
un programa que permite el análisis de un test antes de que sea administrado
valorando la potencial utilidad de la administración adaptativa del mismo.
También incluye en este módulo un programa para establecer la validez referida
al criterio calculando para ello estadísticos descriptivos y regresión
(bivariada y múltiple). Por último, a través del módulo Conventional Testing
podremos crear, imprimir y puntuar teste convencionales e imprimir bancos de
items.
2.4.
Recogida de datos secundarios.
La
investigación educativa viene produciendo una gran cantidad de estudios e
informes sobre los temas más diversos. De hecho, existe una gran cantidad de
revistas en las que se publican una mirada de articulas que recogen y presentan
tales investigaciones. Además, suelen ser cada vez más frecuentes las bases de
datos donde se recoge información sobre determinados aspectos de los sistemas
sociales y educativos. Estas fuentes de información permiten al investigador
educativo afrontar dos tipos diferentes de investigación como son el
metaanálisis y el análisis secundario.
Si
uniéramos todas las investigaciones realizadas por distintos autores en torno a
un tema común, dispondríamos de mucha más información que contando con cada una
por separado. Si se analizaran conjuntamente se podría llegar a establecer
conclusiones mucho más generalizables que considerando cada investigación por
separado. Una forma de explotar todo este cúmulo de información es el
meta-análisis (M-A). Se trata de un método para realizar síntesis cuantitativas
de lo ya investigado, establecer el estado de la cuestión y llegar, o intentar
llegar, a una generalización sobre una hipótesis determinada (Morales, 1993).
Podríamos decir que el M-A es una investigación sobre investigaciones, que
intenta integrar en un resultado único los resultados de todas las
investigaciones previas relacionadas con una determinada hipótesis. Como pasos
a seguir en un M-A podemos señalar los siguientes (Bisquerra, 1989, Morales,
1993): 1) seleccionar el tema de interés; 2) localizar la bibliografía; 3)
establecer los criterios para la inclusión de los estudios; 4) codificar y
analizar los estudios; y 5) calcular el tamaño del efecto en cada estudio y de
la media de todos..
El
análisis de datos recocidos con una finalidad distinta de los objetivos del
experimentador (p. 25). El investigador no es quien recoge los datos,
sino que se sirve de las informaciones aportadas por otros investigadores. En
este sentido en el análisis secundario el interés se centra en el análisis no
en la recogida. Aquí nos referiremos al análisis secundario realizado desde un
enfoque cuantitativo. El análisis secundario cualitativo puede consultarse
Reinharz (1993) y Thorne (1994)
En principio puede contundirse el análisis secundario con el meta-análisis. El M-A se refiere a la integración de resultados de varias investigaciones. A través del M-A se reanalizan las conclusiones de uno o varios estudios. El M-A se realiza para aumentar el número de casos o para comparar y contrastar las conclusiones de diferentes estudios (Reinharz, 1993). Básicamente los M-A son revisiones de la literatura de los hallazgos realizados por otros. En cambio, el análisis secundario se basa en el análisis de los datos obtenidos por otros investigadores, no en los resultados de sus investigaciones.
La utilización de datos secundarios en la investigación sociológica suele ser muy popular (véase, p.e. Farjas, 1991 y Fernández Enguita, 1990). Mark Abrahamson (1983; cit. por Reinhartz, 1993) señala que casi la mitad de los articulas publicados en los primeros años de la década de los ochenta utilizaron datos ya existentes. En cambio, en el contexto de la investigación educativa, es un método de análisis prácticamente no utilizado.
Los
datos que pueden ser objeto de AS son censos locales o nacionales, directorios,
datos de encuestas, informes de gobierno o datos procedentes de cualquier
investigación. Con la llegada de los ordenadores y la posibilidad de disponer
de estos datos en un formato fácilmente accesible, transferible y manipulable
este tipo de análisis se ha ido incrementando y lo seguirá haciendo en los años
sucesivos. Los pasos a seguir en un análisis secundario son: 1) seleccionar el
tema de interés; 2) localizar los datos; 3) establecer los criterios para
recopilación de datos; y 4) analizar los datos recogidos. Desde la
consideración de los recursos tecnológicos podemos vislumbrar el importante
papel que los mismos pueden desempeñar, tanto en el meta-análisis como en el
análisis secundario. En el caso del M-A las utilidades informáticas que permiten
el acceso y la gestión de las bases de datos documentales se convertirán en
herramientas imprescindibles (ver Lizosoaín, 1992 y Rodríguez y otros, 1995).
Por lo que se refiere al A-S resulta de suma importancia el acceso a las bases
de datos que en la actualidad nos aportan información sobre aspectos
educativos. En este sentido podemos destacar a nivel internacional la
disponibilidad de bases de datos a través de Gopher, como es el caso del
gobierno de los Estados Unidos. A nivel del estado español podemos acceder en
la actualidad a las bases de datos del Instituto de Estadística, y
progresivamente se van incorporando nuevos datos.
3. Recursos tecnológicos para el análisis de datos.
La
fase de análisis de datos ha sido con mucho la etapa de la investigación
educativa que se ha visto más favorecida por el desarrollo de las nuevas
tecnologías. Si obviamos algunas herramientas básicas como los procesadores de
texto, podemos decir que fueron los programas para el análisis de datos los que
en primer lugar atrajeron la atención de los investigadores educativos, aunque
mucho ha cambiado desde las primeras tentativas en este campo.
"En 1979 ya organizaba en Madrid mi primer curso de SPSS, en el
marco de las actividades del Colegio de Licenciados en CC.PP. y Sociología. Aun
cuando entonces no nos lo pareciera, visto desde nuestros días la cosa era
heroica: las clases "teóricas" se daban en un sitio; las tarjetas se
perforaban en otro, a 3 kms de distancia, y con una perforadora para 30
personas; y, por último, había que llevar las tarjetas a un tercer lugar,
situado a 6 ó 7 kms de los anteriores, donde se introducían en el
ordenador" (Sánchez Carrión, 1988:1 1).
Muy distinta es la situación descrita por el profesor Sánchez Carrión a la actual, en la que desde el propio ordenador personal, en cuestión de segundos o escasos minutos, se pueden llevar a cabo todos los cálculos para los que no hace más de 25 años se necesitaban algunos meses de idas y vueltas de un centro a otro. Debemos confesar que para algunos de los autores de este trabajo la imagen descrita nos evoca una época mucho más antigua y desconocida de lo que en realidad es.
Desde la consideración del análisis de datos cuantitativos, podemos clasificar las aplicaciones informáticas en torno a dos grandes grupos: los programas estadísticos y los diseñados para el análisis de items y teste.
3.1.
Programas estadísticos.
Bajo
la denominación de programas estadísticos englobamos todas aquellas
aplicaciones informáticas que se han desarrollado en los últimos años con el
observo de facilitar el análisis estadístico. El recurso a este tipo de
programas en la investigación educativa ha sido generalizado. En el conocido
trabajo de De la Orden (1988) se señalaba, en aquel momento, como de uso
generalizado los programa SPSS y BA~DP. En un primer momento estos programa
estaban disponibles sólo para grandes ordenadores pero con la llegada del
ordenador personal y las versiones de estos programas para este tipo de
ordenadores, la utilización de los mismos se ha generalizado entre los
investigadores educativos.
En la actualidad podemos diferenciar dos modalidades de aplicaciones informáticas para el análisis estadísticos: las que se basan en la estadística clásica de la escuela anglosajona y la que toma como punto de partida el análisis de datos (Analyse de Données) de la escuela francesa.
Programas
como SPSS/PC+ (Norusis y SPSS Inc., l990a; l990b; l990c), BMDP PC90 (Dixon, 1990)
o SYSTAT (Ato y López, 1994) parten de la estadística clásica para realizar sus
análisis. Frente a éstos nos encontramos con la "familia" SPAD
(Lebart y otros, 1988a; 1988b), que se basa en la corriente estadística de la
escuela francesa. Mientras que la utilización de los programas SPSS/PC+, BMDP
PC90 ó SYSTAT está muy consolidada entre los investigadores educativos, el uso
de programas como SPAD.N o SPAD. T va en aumento, sobre todo debido a la
adecuación del análisis realizado a las características de la investigación
educativa. A través del análisis de datos no se establecen hipótesis a priori
sobre las variables aleatorias estudiadas, sino que se procura representarlas
gráficamente. Como introducción a los fundamentos y utilización de SPAD.N y SPAD.T
puede consultarse Etxberría y otros (1995), obra en la que se explican las
modalidades de análisis, su interpretación y aplicación en la investigación
educativa. Se ofrecen además ejemplos de uso e interpretación de datos. Para
una revisión de las posibilidades y utilización de todos los programas
reseñados se pueden consultar en castellano las obras de Ato y López (1994),
Etxeberría, Joaristi y Lizasoain (1991), Joaristi y Lizasoain (1995), Norusis y
SPSS (1993) y Manzano (1989).
Junto con estos "paquetes de programas" se vienen desarrollando toda una serie de aplicaciones informáticas para la ejecución de análisis especificas. En el cuadro 2 presentamos una muestra de algunos de ellos.
PROGRAMA
|
TIPO DE ANÁLISIS
|
AMOS 3.5
|
Modelos de ecuaciones, estructurales,. Análisis, factorial
confirmatorio
|
EQS
|
Modelos de ecuaciones estructurales
|
VARCL
|
Análisis de la varianza por máxima verosi-militud
|
LISCOMP 1
|
Ecuaciones estructurales lineales
|
MULTIVARIANCE
|
MANOVA, MANCOVA, regresión, análisis discriminante, análisis de
componentes princi-pales y análisis de la curva de Pothoff-Roy
|
DISTAN
|
Análisis de datos categóricos (análisis factorial Booleano, análisis de
corespondencias múlti-ples, análisis de clúster ...etc.)
|
HLM
|
Modelo lineal jerárquico
|
M U D F O LD
|
Escalamiento multidimensional
|
UNFOLD
|
Escalamiento unidimensional
|
BOJA
|
Análisis booctstrap y jacknife
|
Cuadro
2. Selección de programas estadísticos.
Al
presentar el meta-análisis y el análisis secundario hacíamos referencia a las
aplicaciones informáticas que podían ser de utilidad para el acceso a las
fuentes de información (bases de datos, fundamentalmente). En este momento
vamos a centrarnos en su fase de análisis. En el caso del M-A serán de enenne
utilidad las aplicaciones especificas diseñadas para este método de
investigación.
Podemos destacar en este sentido el programa TAMEFECT (Sáez y Aliaga, 1990) el cual permite calcular ciertos índices de medida del tamaño del efecto, fundamentalmente los basados en la diferencia media tipificada y en el coeficiente de correlación. El programa permite hacer la transformación a estos índices desde diversos estadísticos de uso frecuente en la investigación educativa, tales como la prueba T, la prueba F, la razón F o la prueba 2, probabilidad de una cola en la distribución normal, etc. Concretamente, los índices que calcula este programa son: la diferencia media tipificada o d de Cohen; el coeficiente de correlación producto-momento de Pearson; el coeficiente de determinación; y el binomial effect size display (BESD)
Podemos destacar en este sentido el programa TAMEFECT (Sáez y Aliaga, 1990) el cual permite calcular ciertos índices de medida del tamaño del efecto, fundamentalmente los basados en la diferencia media tipificada y en el coeficiente de correlación. El programa permite hacer la transformación a estos índices desde diversos estadísticos de uso frecuente en la investigación educativa, tales como la prueba T, la prueba F, la razón F o la prueba 2, probabilidad de una cola en la distribución normal, etc. Concretamente, los índices que calcula este programa son: la diferencia media tipificada o d de Cohen; el coeficiente de correlación producto-momento de Pearson; el coeficiente de determinación; y el binomial effect size display (BESD)
Para
el caso del análisis secundario, podrán utilizarse todos los programas de
análisis de datos cuantitativos (estadísticos) en general, que se ha presentado
anteriormente.
3.2.
Programas para el análisis de ítems y puntuación de tests.
Cualquier
test se compone de un determinado número de items. Si se conoce la calidad de
cada ítem del test se puede llegar a determinar la calidad de las puntuaciones
totales del mismo. Desde la Teoría de Respuesta al Item (~I) se centra el
análisis del test en las características de los items que lo conforman. La
Teoría Clásica de los Tests (TCT), aunque más centrada en las propiedades del
test considerado globlamente, también reconoció esta importancia y desarrolló
toda una serie de procedimientos de análisis de la calidad de los items. Cuando
el investigador necesita recurrir al análisis de items es preciso tener clara
estas dos formas diferentes de afrontar el análisis de items, pues los recursos
disponibles también variarán. Desde la Teoría Clásica de los Tests, el análisis
de items se realiza sobre la base de una serie de índices (dificultad,
discriminación, validez) que pueden calcularse utilizando programas como
SPSS/PC+, PRELIS, BMDP PC90 o SYSTAT o programas específicos diseñados al
efecto, como es el caso de ITEMAN (Assessment System Corporation, 1995) o
ME12IX (IDEALOGIC, 1992).
Diferente es el caso del análisis de items realizado desde la perspectiva de la Teoría de Respuesta al Item, donde se ha desarrollado una gran cantidad de aplicaciones informáticas que facilitan estas tareas. Destacamos en estos momentos los programas RASCAL, ASCAL y XCALIBRE desarrollados por Assessment System Corporation, BILOG 3 y MULTILOG por Scientific Software o BIGST~PS por Mesa Press. En el cuadro 3 presentamos una selección de los principales programas resellados señalando en cada caso el modelo de medición sobre el que se basan, ya sea la Teoría Clásica o la Teoría de Respuesta al Item (un parámetro (IP), dos parámetros (2P) o tres parámetros (3P)), el tipo de datos que analizan, el sistema operativo (S.O.) sobre el que trabajan y el método de estimación que utilizan.
PROGRAMA
|
MODELO
|
DATOS
|
S.O.
|
MÉTODO DE ESTIMACIÓN
|
METRIX
|
Teoría clásica 1P(Rasch)
|
Dicotómicos/ Multipunto
|
Windows
|
------
|
ITEMAN
|
Teoría clásica
|
Dicotómicos/ Multipunto
|
Windows/DOS
|
------
|
BIGSTEPS
|
1P(Rasch)
|
Dicotómicos/ Multipunto
|
DOS
|
Máx. verosimilitud no condicional
|
RASCAL
|
1P(Rasch)
|
Dicotómico
|
DOS
|
Máx. verosimilitud no condicional
|
ASCAL
|
2P, 3P
|
Dicotómico
|
DOS
|
Bayesiano
|
XCALIBRE
|
2P, 3P
|
Dicotómico
|
Windows/DOS
|
Máx. verosimilitud marginal
|
BILOG
|
1P, 2P, 3P
|
Dicotómico
|
DOS
|
Máx. verosimilitud marginal
Bayesiano
|
MULTILOG
|
GR, L2, L1, BS, NO, L3
|
Multipunto
|
DOS
|
Máx. verosimilitud marginal
|
Cuadro
3. Aplicaciones informáticas para el análisis de items y tests.
ITEMAN
(Assessment System Corporation, 1995) es un programa disecado sobre la base de
la Teoría Clásica de los Teste y permite el análisis de items y teste
compuestos desde una hasta diez escalas (subtests), así como para calcular y
registrar las puntuaciones de los sujetos en los tesis. Permite el análisis de
escalas que contengan tanto items dicotómicos como multipunto.
En
el caso de items dicotómicos, el programa ITEMAN nos ofrece para cada ítem y
cada alternativa de respuesta los índices de discriminación, dificultad y
correlación biserial puntual, e indica la clave de respuesta. Cuando analiza
items multipunto los estadísticos que ofrece el programa son la media del ítem,
la varianza de las respuestas al ítem y la correlación item-es;cala. Al
presentar los resultados de cada escala en conjunto, ITEMAN presenta hasta un
total de 20 estadísticos (número de sujetos, media, varianza, desviación
típica,;, ... etc.).
En esta misma línea de la Teoría Clásica de los Tests, e incorporando también el modelo de un parámetro de la Teoría de Respuesta al Item, contamos con el programa METRLY, desarrollado en España por Idealogic (1992), gracias a un proyecto I+D de esta empresa con la Universidad de Barcelona, bajo la dirección del profesor Renom. METRIX es un sistema de análisis y mantenimiento de tesis convencionales para evaluar la capacidad, rendimiento, aptitudes y otras medidas de personalidad de individuos en distintas asignaturas, materias o áreas de diagnóstico, tanto curriculares como clínicos y de orden laboral. Este programa soporta un completo y variado conjunto de opciones de cálculo y estimación. Algunas de estas opciones son
a)
Definición y creación de tests:
-
Múltiples escalas (I a 10).
-
Escalas dicotómicas o multipunto.
-
Opciones de mantenimiento del test.
b)
Distintos tipos de items:
-
Dicotómicos de 2 a 9 alternativas.
-
Dicotómicos corregidos: respuestas 0 a 1
-
Multimpunto (escalas Likert, ...) de 3 a 9
c)
Datos suplementarlos de los sujetos:
-
Alfanuméricos
-
Numéricos
d)
Estudios de ítem: dificultad, b (Rasch), discriminación, varianza, asimetría,
apuntamiento, índices de reproductibilidad, índice de Jackson, estudio de
alternativas, estudio de homogeneidad de las respuestas, estudio de omisiones,
correlaciones entre items, etc.
e)
Estudios de sujetos: puntuación~directa, theta, puntuación ponderada,
puntuaciones típicas derivadas, índice de reproductibilidad, correlaciones
entre variables, etc.
f)
Estudio del test: estadísticas básicas (medias, SD, SEM, etc.), fiabilidad,
prueba de ajuste a la normalidad y correlación de escalas.
El programa METRIX se ejecuta bajo Windows explotando de forma eficaz las posibilidades gráficas de este entorno. Así, por ejemplo, una vez presentada en pantalla la información se puede ir analizando de forma más específica con tan sólo "picar" con el ratón, obteniendo así nuevas informaciones. Todas estas características reseñadas nos permite considerar a este programa como el mejor producto que existe en la actualidad para analizar teste bajo los supuestos de la Teoría Clásica de los Teste y el modelo de Rasch.
RASCAL
(Assessment System Corporation, 1988) es un, programa informático que estima el
parámetro de dificultad del item y la habilidad de los sujetos tomando como
base el modelo de Rasch (un parámetro) para datos . Utiliza el procedimiento de
máxima verosimilitud no condicional y proporciona pruebas de ajuste de los
datos al modelo. ASCAL (Assesssment System Corporation, 1988) permite analizar
los modelos de dos y tres parámetros, utilizando el modelo Bayesiano, e incluye
análisis de ajuste de los datos a los modelos.
XCALIBRE
(Assessment System Corporation, 1995) utiliza el procedimiento de máxima
verosimilitud para estimar los parámetros, de acuerdo con los modelos de dos y
tres parámetros. Como posibilidad adicional este programa nos permite realizar
el anclaje de iteres a través del procedimiento de la media y la desviación
típica. La principal ventaja de XCALIBRE reside en el reducido número de iteras
(15) y de sujetos (200) que son necesarios para realizar los cálculos.
BIGSTEPS (Wrigth y Linacre, 1992) sigue el método de máxima verosimilitud no condicional, ofreciendo errores típicos de los parámetros, análisis gráfico y estadísticos de ajuste. Se basa en el modelo de Rasch.
BILOG (Mislevy y Bock, 1990) utiliza los procedimientos de máxima verosimilitud marginal y bayesianos para la estimación de parámetros a partir de items dicotómicos. Ofrece una gran cantidad de información y posibilidades, siendo uno de los mejores programas existentes en la actualidad. No obstante, su entorno es poco "amigable" para el usuario, requiriendo de éste una programación exhaustiva para poder realizar los cálculos. De características similares, pero para items multipunto, es el programa MULTILOG (Thissen, 1991).
Además de estos programas comerciales, en la obra de Baker (1992) el autor incluye listados completos de programas en BASIC para la estimación de los parámetros del ítem y de aptitud para modelos dicotómicos y politómicos y con distintos procedimientos de estimación de máxima verosimilitud.
Otra serie de programas, realizados por parte de investigadores que los facilitan de forma gratuita, nos ofrecen ciertas posibilidades a la hora de analizar items y tesis, o llevar a cabo la igualación de parámetros. Entre estos programas destacamos MTDIF, TESTINFO, DIMTEST, EQUA TE y NEXUS.
IRTDIF (Kim y Cohen, 1992) es un programa que utiliza la TRI para suministrar una serie de medidas sobre el funcionamiento diferencial de los items, como la X 2 de Lord, la medida exacta del área y las medidas de área de intervalo cerrado para los modelos de uno, dos y tres parámetros.
TESTINFO (Neel, 1993) es un programa gráfico cuya principal utilidad radica en la posibilidad que ofrece de examinar los efectos que produce la selección de items sobre la función de información del test y el error estándar de medida. Puede utilizar los modelos de 1, 2 ó 3 parámetros.
DIMTEST (Stout y otros, 1992) es un programa que sirve para. comprobar que el modelo subyacente a una matriz de respuestas a items dicotómicos es esencialmente unidimensional calculando para ello el test estadístico T de Stout (1987).
A través del programa EQUATE (Baker, 1993) se puede llevar a cabo la igualación de parámetros a través del método de la curva característica del test, para items punteados dicotómicamente o teste que empleen procedimientos de puntuaciones nominales o de respuesta graduada.
En esta misma línea de programas para la igualación de tesis, en el Departamento de Didáctica y Organización Escolar y Métodos de Investigación y Diagnóstico en Educación de la Universidad de Sevilla, se ha desarrollado el programa NEXUS (Moreno y otros, 1995) que, a través del procedimiento de la media y la desviación típica permite la igualación de teste cuando se utilizan diseños de bloques entrelazados, y el número de subtests e items es muy elevado.
4. La presentación de los resultados de la investigación.
Como
nos recuerda Tejedor (1995) "hasta hoy las revistas y libros impresos
constituían la base del conocimiento y la comunicación del mismo, pero las
posibilidades que nos ofrecen en la actualidad los medios telemáticos hacen que
se vayan introduciendo de forma paulatina otros medios como libros y revistas
electrónicos, cuyo formato de presentación ha pasado del papel al soporte
magnético u óptico".
Al comienzo de la década de los 90 empiezan a publicarse una serie de revistas en este nuevo formato, siendo de destacar en el contexto educativo la revista pionero en este campo, editada por Glass (Edurational Policy Analyses Archives) desde la Universidad del Estado de Arizona (U.S.A.).
Las características diferenciales de una revista electrónica reside en su formato de presentación, el modo de acceso al contenido y el tipo de distribución de la misma.
Hasta la llegada de las redes de comunicación, el formato de presentación de una revista tomaba como base el papel impreso, mas una revista electrónica carece de este tipo de soporte, aunque puede ser trasladado a papel siempre que el suscriptor o usuario así lo desee. Los articulas que componen un ejemplar de una revista electrónica se archivan en ficheros en un ordenador central. El acceso a estos ficheros se puede realizar de varias formas, siendo las más comunes a través de herramientas de transferencia de ficheros (FTP) y/o consultores Gopher o a través de World-Wide Web (WWW).
Progresivamente se va dando una implantación mayoritaria de WWW, dadas las posibilidades gráficas del mismo, que nos permite reproducir cualquier tipo de material textual, gráfico e incluso sonoro.
Sea cual fuere el modo adoptado, lo cieno es que la información estará a disposición de todas aquellas personas que tengan acceso a las herramientas citadas, aunque siempre cabe la posibilidad de establecer filtros de selección que reduzcan este acceso. No obstante, dada la función divalgativa de cualquier revista científica, por lo general el acceso es abierto. Por tanto, cualquier persona, desde cualquier lugar del mundo, teniendo acceso a la red de servicios INTERNET podrá localizar cualquier revista electrónica y disponer al momento del contenido de la misma.
Respecto a la distribución de una revista electrónica, por regla general se recurre a los programas servidores de listas, de tal forma que automáticamente cualquier persona interesada puede darse de alta como suscriptor, a través del correo electrónico, y desde ese momento recibirá en su dirección electrónica los sucesivos números de la revista, o aquellos números ya publicados que desee.
En el cuadro 4 ofrecemos dos de las revistas que se centran en educación y que se publican en formato electrónico, con las direcciones y servidores de lista de distribución de cada una.
REVISTA
|
DIRECCIÓN
|
SERVIDOR DE LISTA
|
Revista Electrónica de Investigación y Evaluación Educativa
|
gopher.cica.es
|
listserv@ls.cica.es
|
Educational Policy Analysis Archives
|
gopher.info.asu.edu
|
listserv@asu.edu
|
Cuadro
4. Relación de revistas electrónicas con sus respectivas direcciones y listas
de distribución.
5. Buscando más información.
El
desarrollo continuo de nuevas aplicaciones tecnológicas para su utilización en
el campo de la investigación hace casi imposible que se pueda mostrar una
relación actualizada de los diferentes recursos, si no es a través de sistemas
que permitan una actualización permanente. En la actualidad, gracias a las
redes de comunicación' disponemos de un conjunto de recursos que nos informan
de los últimos avances tecnológicos aplicables en las ciencias sociales.
Gracias a las posibilidades gráficas que permiten los actuales ordenadores, cada vez se va implantando más la utilización de World Vide Web (WWW) para acceder a fuentes de información. Esta herramienta informática permite estructurar la información como hipertexto, uniendo unos documentos a otros. Las uniones en hipertexto se pueden hacer con otras fuentes de información dentro de un WWW, lates como ficheros de texto, gráficos o sonidos, y también se puede relacionar con. información externa. A través de WWW se tiene acceso a otros protocolos como Gopher, ftp, telnet, WAIS y News. Uno de los programas más populares que permiten navegar a través de WWW es Netscape (1994), disponible para diferentes tipos de ordenadores y plataformas (Windows, UNIX, Mac).
Para el tema que nos ocupa, si deseamos mantener nuestra información actualizada podemos consultar la página WWW elaborada por parte de la Asociación Interuniversitaria de Investigación Pedagógica Experimental (ALDIPE), que viene funcionando desde septiembre de 1995, y a través de la cual se puede acceder a otros nudos de información que resulta de interés para el investigador educativo. Otras instituciones que pueden facilitarnos información sobre recursos tecnológicos aplicados a la investigación educativa son las que aparecen en el cuadro 5, donde además se especifican las direcciones de contacto. De entre ellas destacamos la de iec ProGAMMA, por tratarse de una iniciativa europea cuyo fin es estimular el desarrollo y la distribución de las aplicaciones informáticas en el campo de las ciencias sociales y de la educación, y a través del cual podremos obtener una descripción de las características de los programas informáticos, empresas que los distribuyen, precios, etc.
INSTITUCIONES
|
DIRECCIONES
|
AIDIPE. Asociación Interuniversitaria de Investigación Pedagógica
Experimental
|
http://www.uv.es/aidipe
|
SSIT page iecProGAMMA
|
http://www.gamma.rug.nl
|
IASC. International Association for Statistical
Computing
|
http://www.stat.unipg.it/iasc
|
CTI Center for Psychology
|
http://ctipsych.york.ac.uk/MainMenu.html
|
CORDIS
|
http://www.cordis.lu
|
Cuadro
5. URLs de fuentes de información sobre recursos tecnológicos en investigación
educativa.
6. A modo de conclusión.
Como
hemos podido comprobar a lo largo de la lectura de este trabajo, en la
actualidad disponemos de una ingente cantidad de recursos tecnológicos al
servicio de la investigación educativa, considerada desde una perspectiva
cualitativa. Esta enorme cantidad de información nos impide realizar una
propuesta concreta de utilización de programas: serán las necesidades de la
investigación las que determinen la utilización de unas herramientas u otras.
No
obstante es preciso señalar la necesidad de estar informados sobre todas las
posibilidades existentes, pues sólo de esta forma podremos hacer una elección
eficaz. Es más, en multitud de ocasiones, el desconocimiento de las
posibilidades ofrecidas por la tecnología nos lleva a no considerar el análisis
de los problemas educativos desde estas otras perspectivas que se nos abren y
que nos permiten aproximarnos a través de múltiples formas a la compleja
realidad educativa.
A
pesar de ello nos aventuramos a adelantar que las tendencias se sitúan en un
futuro donde el entorno gráfico y el acceso a las redes de comunicación se
hacen indispensables. Las herramientas concretas que utilicemos para ello
quizás resulten anecdóticas, lo importante es tener la suficiente capacidad
como para instalarnos flexiblemente en un mundo "virtual" que nos
arrolla con sus posibilidades.
Una
última consideración en torno a la multitud de recursos disponibles es la
necesidad de ir desterrando del campo de la investigación educativa la imagen
del investigador "solitario", e ir asumiendo que resulta
imprescindible el trabajo en equipo, donde cada uno asume la responsabilidad de
especializarse en la búsqueda, utilización y mejora de los recursos
tecnológicos necesarios para dar respuesta a los problemas educativos que se
plantean en la investigación educativa.
Referencias bibliográficas.
ASSESSMENT SYSTEMS CORPORATION (1995). User`s manual for the
XCALIBRE Marginal Maximun-Likelihood Estimation Program. St. Paul, MN: Autor.
ATO,
M. y LÓPEZ, J.J.(Eds) (1994).).Fundamentos de Estadística con SYSTAT. Madrid:
RA-MA.
BAKER, F. (1992). Item Response Theory. Nueva York: Marcel Dekker,
Inc.
BAKER, F. (1993). EQUATE 2.0: a Computer Program for the Characteristic
Curve Method of IRT Equating. Applied Psychelogical Measurement, 17(1),
20.
DIXON, W.J. (Ed.) (1990). BDMP Statistical Software Manual. Los Angeles, CA:
University of California Press.
ETXEBERRIA,
J. y otros (1995). Análisis de datos y textos. Madrid: RAMA.
FARJAS
ABADÍA, A. (1991). Escuela pública - Escuela privada: ¿Igualdad de oportunidades?.
En G. RODRÍGUEZ (Comp.), Reflexiones en torno a la escuela pública. (pp.
47-84). Jerez: Centro de Profesores de Jerez.
FERNÁNDEZ
ENGUITA, M. (1990). La escuela a examen. Madrid: Eudema.
FINK, J.C. (1983). CATI's first decade: The Chilton experience.
Sociological Methods and Research, 12, 153-168.
HARRIS, D. (1992-95). Pegasus Mail for Windows. Software libre.
HECHT,
J.B. y otros (1993). VTLOGANL: VideoTape Logging and Analysis:
Manual. Technological Innovations in Educational Reseach Laboratory (TIER Lab.)
Illinois, State University.
HECHT,
J.B. y otros (1994). VTLOGANL: A Computer Program for Coding and Analysing
Data Gathered on Video TapeComunicación presentada en la reunión anual de la
AERA, Nueva Orleans.
HECHT, J.B. (1995). VTLOGANL: A Computer Program for Coding Video
Data. Comunicación
presentada en la reunión anual de la AERA. San Francisco.
JOARISTI,
L. y LIZASOAIN, L. (1995). SPSS para Windows Madrid: Paraninfo.
KIM,
S. y COHEN, A. (1992). IRTDIF: A Computer Program for IRT Differential
Functioning Analysis. Applied Psychelogical Measurement, 16 (2), 158.
KINNEAR, T.C. y TAYLOR, J.R (1991). Marketing research: An applled
appronch. Nueva York: McGraw Hill.
LEBART, L., MORIMEAU, A. y LAMBERT, T. (1988). SPAD.N. Systeme
Portable pour l'Analyse des Dounces. Paris. CISIA.
MANZANO,
V. (1989). Domine el SPSS/PC+. Madrid: RA-MA.
MARMOLEJO,
A. (1990).Aplicación del Meta-análisis en la evaluación de programas de
lectura. Revista de Investigación Educativa, 8(16), 255-264.
MISLEVY,
R.J. y BOCK, RD. (1990). BILOG 3. Item Analysis and Test Scoring
with Binary Logistic Models. Mooresville, IN: Scientific Software.
MORALES,
P. (1993). Líneas actuales de investigación en métodos cuantitativos. El
meta-análisis o la síntesis integradora. Revista Educación, (300), 191
-224.
MORENO,
C. y otros (1995). NEXUS 1.0: Un programa para la iguialación de tests
mediante el procedimiento, de la media y la desviación típica. Sevilla:
Dpto. DOE y MIDE.
NEEL, J.H. (1993). TESTINFO. A graphics basad program for exemining
the effects of ítem selection on tes information and standard error of
measurement. Atlanta, GA: Autor.
NOLDUS, L.P. (1991). The Observer: A software for collection and analysis
of observational data. Behavior Research Methods,Instruments &
Compute",23(3), 415-429.
NORUSIS, M.J. y SPSS Inc. (199Oa). SPSS/PC+ Statistics for the IBM
PC/XT/AT and PS/2. Chicago: SPSS Inc.
NORUSIS, M.J. y SPSS Inc. (199Ob). SPSS/PC+ Advanced Statistics 4.0 for
the IBM PC/XT/AT and PS/2. Chicago: SPSS Inc.
NORUSIS, M.J. y SPSS Inc. (1990c). SPSS/PC+ Base Manual for the IBM
PC/XT/AT and PS/2. Chicago: SPSS Inc.
NORUSIS, M.J. y SPSS Inc. (1993). SPSS Base para Windows Versión 6.0.
Guia del usuario.Chicago. IL: SPSS Inc.
NETSCAPE COMMUNICATION CORPORATION (1994). Nescape Navigator versión 1.0N. Autor.
REINHARZ, S. (1993). Empty Explanations for Empty Wombs: An Illustration
of a Secondary Analysis of Oualitative Data. En M. Schratz (Ed.), Qualitative
Voices in Educational Research. (pp. 157-178).Londres: The Falmer Press.
RENOM
PINSACH, J. (1993). Tests adaptativos computerizados Fundamentos y
aplicaciones Barcelona: PPU.
ROBERTS,
N.K. y otros (1993). VTLOGANL: A methodology for the qualitative
analysis of video tape data. Comunicación presentada en la reunión anual de la
Mid-Western Educational Research Association, Chicago.
RODRÍGUEZ,
G. y otros (1995). El tratamiento de la información en la investigación
educativa (una propuesta informatizada en entorno PC. Pixel-Bit. Revista de
Medios y Edutación, (5), 5573.
SÁNCHEZ
MECA, J. (1990). Posibilidades del meta-análisis en evaluación de programas. Revista
de Investigación Educativa, 8 (16), 443-446.
SÁEZ,
A. y ALIAGA, F. (1990). Metaanálisis: Un programa informático para el cálculo
del tamaño del efecto. Revista de
Articulo extraído de la http://www.ub.edu/comporta/tide/Downloads/METRIX.htm