Dra. Marcela Genero Bocco - PowerPoint PPT Presentation

1 / 42
About This Presentation
Title:

Dra. Marcela Genero Bocco

Description:

Experimentaci n en Ingenier a del Software: Ejemplo de Validaci n ... Calidad en el Dise o ... por lo que los datos son normales y, adem s, no hay outliers ... – PowerPoint PPT presentation

Number of Views:88
Avg rating:3.0/5.0
Slides: 43
Provided by: coralcaler
Category:

less

Transcript and Presenter's Notes

Title: Dra. Marcela Genero Bocco


1
Experimentación en Ingeniería del Software
Ejemplo de Validación Empírica de Métricas
CURSO DE DOCTORADO Calidad en el Diseño de
Aplicaciones Web
  • Dra. Marcela Genero Bocco
  • UCLM
  • Marcela.Genero_at_uclm.es
  • http//alarcos.inf-cr.uclm.es

2
Ejemplo
  • El objetivo de nuestro estudio empírico es
    determinar si dos métricas, NFK (Number of
    Foreign Keys) y DRT (Depth of Referential Tree)
    pueden ser utilizadas como mecanismos para
    controlar la mantenibilidad de las bases de datos
    relacionales.
  • El experimento que presentaremos en detalle es la
    réplica de otro experimento controlado llevado a
    cabo con el mismo objetivo.

3
EjemploExperimento previo
  • Del primer experimento, solamente mencionaremos
    algunas características específicas y los
    resultados obtenidos
  • Los participantes fueron estudiantes de último
    curso de Informática de la Universidad de
    Castilla-La Mancha. El experimento fue realizado
    por 60 estudiantes aunque al final sólo se
    trabajó con los resultados de 59 ya que uno de
    ellos dió las respuestas a los tests de forma
    incorrecta.
  • La variable dependiente se midió como el número
    de respuestas correctas obtenidas en un
    determinado tiempo dado.
  • Con los datos obtenidos, aplicamos el
    F-statistic, concluyendo que NFK podría ser un
    sólido indicador de la complejidad de un esuqema
    de base de datos relacional, que DRT podría no
    ser relevante y que existe interacción entre
    ambas métricas.

4
EjemploCaso de estudio previo
  • Nuestro caso de estudio se centró en cuatro bases
    de datos del CIEMAT (Centro de Investigaciones
    Energéticas, Medioambientales y Tecnológicas).
  • Para cada una de esas bases de datos se nos
    proporcionó el valor de algunas características
    que se usaron para el calculo de las métricas.
  • Además, se pidió a los diseñadores su opinión
    sobre ciertos aspectos del proceso de desarrollo,
    todos ellos relacionados con diferentes aspectos
    de la mantenibilidad.
  • Los datos obtenidos de ambas fuentes de
    informaciíon se utilizaron para obtener los
    resultados estadísticos de nuestro caso de
    estudio.
  • Tras aplicar el coeficiente de Spearman obtuvimos
    un coeficiente de correlación de 0.775 entre NFK
    y la anazabilidad de la base de datos.

5
ExperimentosProceso Experimental (Wohlin et
al., 2000)
Idea

6
Ejemplo
  • Este experimento es la réplica del experimento
    controlado previo.
  • Las hipótesis no varían en la réplica respecto al
    experimento original.
  • Sin embargo, incorporamos algunos cambios
  • La forma en que se midió la variable dependiente
  • Los sujetos
  • Mediante la realización de este tipo de réplicas,
    en las que las mismas hipótesis se estudian
    cambiando algunos detalles del experimento, tiene
    como objetivo que los resultados obtenidos sean
    más fiables.

7
EjemploDefinición
  • La definición del objetivo de nuestro
    experimento puede ser definido como 
  • Analizar las métricas para bases de datos
    relacionales
  • con el propósito de evaluar si pueden ser
    utilizados como mecanismos útiles
  • respecto a la analizabilidad de las bases de
    datos relacionales
  • desde el punto de vista de los investigadores
  • en el contexto de profesionales con experiencia
    en bases de datos

8
EjemploPlanificación del experimento
Planificación del experimento
Definición
Selección del contexto
Formulación de la hipótesis
Selección de las variables
Selección de los sujetos
Diseño del experimento
Instrumen- tación
Evaluación de la validez
9
EjemploPlanificación del experimento
Selección del contexto
  • Caracterización Más de un objeto y Más de un
    sujeto
  • El contexto del experimento es un grupo de
    profesionales y se lleva cabo off-line
  • Los sujetos son profesionales
  • El experimento aborda un problema real
  • El experimento es específico

10
EjemploPlanificación del experimento
Planificación del experimento
Definición
Selección del contexto
Formulación de la hipótesis
Selección de las variables
Selección de los sujetos
Diseño del experimento
Instrumen- tación
Evaluación de la validez
11
EjemploPlanificación del experimento
Formulación de la hipótesis
  • Las hipótesis de nuestro experimento son
  •  
  • Hipótesis Nula Valores diferentes de DRT y NFK
    no afectan a la analizabilidad del esquema de la
    base de datos.
  • Hipótesis alternativa H1 El valor de DRT afecta
    a la analizabilidad del esquema de la base de
    datos.
  • Hipótesis alternativa H2 El valor de NFK afecta
    a la analizabilidad del esquema de la base de
    datos.
  • Hipótesis alternativa H3 La interacción de DRT y
    NFK afecta a la analizabilidad del esquema de la
    base de datos.

12
EjemploPlanificación del experimento
Planificación del experimento
Definición
Selección del contexto
Formulación de la hipótesis
Selección de las variables
Selección de los sujetos
Diseño del experimento
Instrumen- tación
Evaluación de la validez
13
EjemploPlanificación del experimento
Selección de las variables
  • Variables Independientes. Estas variables se
    corresponden con las dos métricas bajo estudio
    NFK and DRT. Cada una de estas métricas
    (factores) pueden tomar dos valores diferentes
    (niveles) cinco y ocho para la métrica NFK y dos
    y cinco para la DRT.
  • Variables Dependientes. La analizabilidad de los
    tests se midió como el tiempo que cada sujeto
    utilizó para realizar todas las tareas de cada
    test experimental y la corrección can la que
    completaban las tareas incluidas en cada test
    (delete, update and insert).
  • Es importante puntualizar que este tiempo incluía
    el tiempo utilizado en el análisis del esquema y
    el requerido para completar las tres preguntas
    sobre el mismo.

14
EjemploPlanificación del experimento
Planificación del experimento
Definición
Selección del contexto
Formulación de la hipótesis
Selección de las variables
Selección de los sujetos
Diseño del experimento
Instrumen- tación
Evaluación de la validez
15
EjemploPlanificación del experimento
Selección de los sujetos
  • Once profesionales de Cronos S.A. realizaron el
    experimento
  • Todos ellos tenían una experiencia media de tres
    años trabajando con bases de datos relacionales.

16
EjemploPlanificación del experimento
Planificación del experimento
Definición
Selección del contexto
Formulación de la hipótesis
Selección de las variables
Selección de los sujetos
Diseño del experimento
Instrumen- tación
Evaluación de la validez
17
EjemploPlanificación del experimento
Diseño del experimento
  • El experimento trabaja con dos factores DRT y
    NFK, por lo que tenemos un modelo factorial.
  • En nuestro caso ambas métricas pueden tomar dos
    valores (tratamientos), 2 y 5 para la métrica DRT
    y 5 y 8 para la métrica NFK.  

Diseño factorial 2 x 2 Intra-sujetos
18
EjemploPlanificación del experimento
Planificación del experimento
Definición
Selección del contexto
Formulación de la hipótesis
Selección de las variables
Selección de los sujetos
Diseño del experimento
Instrumen- tación
Evaluación de la validez
19
EjemploPlanificación del experimento
Instrumentación
  • Para el experimento se utilizaron cuatro esquemas
    de bases de datos relacional.
  • Para cada diseño la documentación constaba de
    unas siete páginas que incluían además de los
    esquemas de las bases de datos, una descripción
    general y un documento de requisitos.
  • Para conseguir que los diseños fueran
    comparables, tratamos de que fueran lo más
    similares posible.
  • Para cada diseño había que realizar tres
    operaciones (insert, delete and update) y los
    sujetos debían anotar cuantas columnas de cada
    tabla iban a resultar afectadas como resultado de
    cada una de estas operaciones.

20
EjemploPlanificación del experimento
Instrumentación
Con los resultados obtenidos debían rellenar un
cuestionario
21
EjemploPlanificación del experimento
Planificación del experimento
Definición
Selección del contexto
Formulación de la hipótesis
Selección de las variables
Selección de los sujetos
Diseño del experimento
Instrumen- tación
Evaluación de la validez
22
EjemploPlanificación del experimento
Evaluación de la validez
  • Validez de constructo
  • Proponemos el tiempo para determinar el estado
    final de la base de datos (tras realizar las
    tareas) como medida razonable de la
    analizabilidad.
  • Para asegurar la validez de constructo sería
    necesario realizar más experimentos, variando las
    operaciones a desarrollar.

23
EjemploPlanificación del experimento
Evaluación de la validez
  • Validez Interna
  • Diferencias entre sujetos. Los experimentos
    intra-sujetos reducen la variabilidad entre
    sujetos. En los experimentos todos los sujetos
    tenían, aproximadamente, la misma experiencia
    trabajando con bases de datos relacionales.
  • Diferencias entre esquemas. Todos los esquemas
    fueron diseñados con seis tablas relacionadas con
    más o menos claves ajenas dependiendo de los
    valores de las métricas. Sin embargo, el dominio
    de los esquemas eran diferentes lo que pudo
    influenciar, de alguna forma, en los resultados
    obtenidos.

24
EjemploPlanificación del experimento
Evaluación de la validez
  • Precisión de los valores del tiempo. Los sujetos
    fueron los encargados de apuntar los tiempos de
    comienzo y fin de cada test. Pensamos que este
    método es más efectivo que tener un supervisor
    encargado de anotar los tiempos de cada sujeto.
    Sin embargo, somos conscientes de que el sujeto
    puede introducir alguna imprecisión.
  • Efectos de aprendizaje. Los tests fueron
    colocados en distinto orden para los diferentes
    sujetos. De esta forma, cada sujeto debía
    contestar los tests en el orden que se le
    entregaban.
  • Efectos de fatiga. El tiempo medio para completar
    el experimento fue una hora por lo que los
    efectos de fatiga son prácticamente inexistentes.
    Además, el orden diferente de los tests ayudaron
    a evitar este tipo de efectos.

25
EjemploPlanificación del experimento
Evaluación de la validez
  • Efectos de persistencia. Este tipo de efectos no
    se dieron ya que era la primera vez que los
    sujetos realizaban un experimento de estas
    características.
  • Motivación de los sujetos. En el caso de los
    profesionales se les indicó que los tests eran
    anónimos y que en ningún caso la información
    obtenida sería comentada entre los trabajadores
    ni entre los jefes. Pensamos que la motivación es
    mayor cuando se trabaja con estudiantes que con
    profesionales.
  • Otros factores. El plagio y la influencia entre
    los sujetos fueron controlados. Los sujetos
    fueron informados sobre la imposibilidad de
    hablar con otros sujetos y compartir respuestas.
    Sin embargo, no hubo ningún tipo de vigilancia
    por lo que no podemos asegurar que no aparecieran
    efectos del tipo comentado, aunque no parece
    posible.

26
EjemploPlanificación del experimento
Evaluación de la validez
  • Validez externa
  • Materiales y tareas utilizados
  • Intentamos utilizar en los experimentos esquemas
    y operaciones que sean representativos de casos
    reales
  • Son necesarios más experimentos con bases de
    datos relacionales de mayor tamaño y complejidad.
  • Sujetos.
  • Debido a la dificultad de conseguir
    profesionales, el experimento se realizó la
    primera vez con estudiantes.
  • Son necesarios nuevos experimentos con un mayor
    número de sujetos (estudiantes y profesionales) y
    con una mayor diferencia entre los valores de las
    métricas.
  • Intentamos aumentar la validez externa de las
    métricas realizando la réplica con profesionales,
    con lo que los resultados obtenidos se han podido
    generalizar considerablemente.

27
EjemploOperación
Operación
Preparación
Ejecución
Validación de datos
28
EjemploOperación
Preparación
  • Antes de que los sujetos realizaran el
    experimento, este fue realizado por un grupo
    reducido para mejorarlo y asegurar que tanto el
    experimento como la documentación estaban bien
    diseñados.
  • Como resultado de este pre-ejecución el único
    cambio necesario fue en el cuestionario que fue
    cambiado para hacerlo más fácil de utilizar
    (transformándolo en tabla).

29
EjemploOperación
Operación
Preparación
Ejecución
Validación de datos
30
EjemploOperación
Ejecución
  • Los tests se realizaron a lo largo de una hora.
    Antes de comenzar se explicó a los sujetos que
    tipo de ejercicios iban a realizar, el material
    que se les iba a entregar, que tipo de respuestas
    debían proporcionar y como debían anotar el
    tiempo utilizado en resolver los ejercicios.
  • Antes de comenzar cada test, los sujetos debían
    anotar el tiempo de comienzo y, al terminar los
    ejercicios, el tiempo de fin. De esta forma,
    cuando un sujeto terminaba un test podía seguir
    adelante con el siguiente sin necesidad de
    esperar al resto de sujetos.
  • Los tests fueron realizados en diferente orden
    por los distintos sujetos para evitar los efectos
    de aprendizaje.

31
EjemploOperación
Operación
Preparación
Ejecución
Validación de datos
32
EjemploOperación
Validación de datos
  • Como todos los tests fueron contestados
    correctamente pudimos utilizar el número de
    minutos utilizados por cada sujeto para la
    obtención de los resultados del experimento.
  • Asimismo, por ser correctos todos los tests,
    contamos con 11 conjuntos de datos para cada
    test, cada uno de los cuales corresponde a la
    respuesta de cada sujeto. 

33
EjemploInterpretación Cuantitativa
Interpretación Cuantitativa
Estadísticos descriptivos
Reducción del conjunto de datos
Testeo de las hipótesis
34
EjemploInterpretación Cuantitativa
Estadísticos descriptivos
35
EjemploInterpretación Cuantitativa
Interpretación Cuantitativa
Estadísticos descriptivos
Reducción del conjunto de datos
Testeo de las hipótesis
36
EjemploInterpretación Cuantitativa
Reducción del conjunto de datos
  • Mediante el gráfico del test de normalidad, los
    puntos están cerca de la línea por lo que los
    datos son normales y, además, no hay outliers
  • También aplicamos los test de Shapiro-Wilk y de
    Kolmogorov-Smirnov encontrando también que los
    datos eran normales.

37
EjemploInterpretación Cuantitativa
Interpretación Cuantitativa
Estadísticos descriptivos
Reducción del conjunto de datos
Testeo de las hipótesis
38
EjemploInterpretación Cuantitativa
Testeo de las hipótesis
  • Como nuestros datos siguen una distribución
    normal, la mejor opción es la utilización de
    tests paramétricos (que requieren menor cantidad
    de datos)
  • Antes de proceder al análisis, es necesario fijar
    el nivel de significación. Decidimos establecer
    un valor de a0.1 que significa un nivel del 90
    de confianza.
  • Después de todas estas consideraciones es posible
    seleccionar el mejor test para aplicar a nuestros
    datos. Teniendo en cuenta nuestras hipótesis,
    reaizamos un ANOVA.

39
EjemploInterpretación Cuantitativa
Testeo de las hipótesis
Fuente de variación Grados de libertad F-Ratio Sig
DRT 1 9.137 0.013
NFK 1 12.659 0.005
Interacción 1 0.631 0.445
Error 1
Total 40
Fuente de variación Grados de libertad F-Ratio Sig
DRT 1 9.137 0.013
NFK 1 12.659 0.005
Interacción 1 0.631 0.445
Error 1
Total 40
Fuente de variación Grados de libertad F-Ratio Sig
DRT 1 9.137 0.013
NFK 1 12.659 0.005
Interacción 1 0.631 0.445
Error 1
Total 40
Fuente de variación Grados de libertad F-Ratio Sig
DRT 1 9.137 0.013
NFK 1 12.659 0.005
Interacción 1 0.631 0.445
Error 1
Total 40
  • H1. El valor de la métrica DRT afecta a la
    analizabilidad del esquema de base de datos.
  • Como 9.137gt2.84, la hipótesis alternativa 1 es
    válida porque el valor de la métrica DRT influye
    en los resultados obtenidos.
  • H2. El valor de la métrica NFK afecta a la
    analizabilidad del esquema de base de datos.
  • Como 12.659gt2.84, la hipótesis alternativa 2 es
    válida ya que el valor de la métrica NFK influye
    en los resultados obtenidos.
  • H3. La interacción de las métricas DRT y NFK
    afecta a la analizabilidad del esquema de base de
    datos.
  • Como 0.631lt2.84, la hipótesis alternativa 3 es
    inválida ya que los valores de las métricas DRT y
    NFK no infuyen en los resultados obtenidos.

40
EjemploInterpretación Cuantitativa
Testeo de las hipótesis
  • Ambas métricas parecen ser buenos indicadores de
    la analizabilidad de esquemas de bases de datos
    relacionales.
  • También parece quedar demostrado que no existe
    interacción entre ambas métricas.

41
EjemploInterpretación Cuantitativa
Testeo de las hipótesis
  • De todo el proceso experimental podemos concluir
    que
  • NFK parece ser un buen indicador de la
    analizabilidad de bases ded atos relacionales.
  • Sin embargo, es difícil extraer una conclusión
    sobre DRT
  • Sería imprescindible realizar más experimentos
    con las métricas para llegar a conclusiones más
    sólidas.

42
Experimentación en Ingeniería del Software
Ejemplo de Validación Empírica de Métricas
CURSO DE DOCTORADO Calidad en el Diseño de
Aplicaciones Web
  • Dra. Marcela Genero Bocco
  • UCLM
  • Marcela.Genero_at_uclm.es
  • http//alarcos.inf-cr.uclm.es
Write a Comment
User Comments (0)
About PowerShow.com