Descargar

Diseño de Conjuntos moleculares balanceados para su aplicación en la teoría QSPR-QSAR (página 7)


Partes: 1, 2, 3, 4, 5, 6, 7

Apéndice

I. Discriminación y Clasificación en LDA

Si consideramos una matriz de atributos o variables independientes edu.redpara cada objeto que pertenece a una clase G1 determinada, este conjunto de muestras es el llamado conjunto de entrenamiento o calibración. El problema consiste entonces en hallar una buena predicción de la clase G1 de un objeto considerado, con el uso de la misma distribución del conjunto de entrenamiento, a través de los valores de las variables edu.red

La obtención de la función discriminante incluye una serie de aproximaciones, a saber:

i. las funciones densidad de probabilidad, edu.redy edu.redson ambas distribuciones normales, G1.

ii. si edu.redy edu.redson los parámetros media y covarianza de G1=0 y G1=1, respectivamente, se supone que las covarianzas son iguales.

Función Discriminante Lineal

Es posible encontrar una relación lineal que caracterice a cada objeto según los valores de sus atributos. De esta manera, si tenemos un conjunto de N objetos de los que se conocen D variables explicativas, y se observa que N1 de ellos pertenecen a la clase C1, y los N2 restantes a la clase C2, con N1+N2=N, es posible construir una función lineal en base a las D variables y puede usarse para predecir si pertenece a un grupo u otro con una probabilidad determinada. En la función lineal:

edu.red (AI.1)

edu.redes una variable clasificadora, edu.redes la i-ésima variable atributo, y edu.redes su coeficiente. El objetivo principal de tal función lineal desde el punto de vista de la varianza consiste en responder a la pregunta de si dos o más grupos son significativamente distintos uno a otro respecto a la medida de una variable en particular. Debe tenerse presente que si la media de una variable es significativamente diferente en varios grupos, puede decirse que esta variable discrimina bien entre grupos.

En caso de que sea posible identificar más de dos grupos en los datos, pueden estimarse funciones discriminantes múltiples, cada una de ellas similares a la presentada en la Ec. (AI.1). Por ejemplo, cuando se tienen tres grupos, puede estimarse: 1) una función para discriminar entre el grupo 1 y los grupos 2 y 3 combinados; y 2) otra función para discriminar entre el grupo 2 y el grupo 3. Además, se pueden considerar sólo las funciones discriminantes múltiples que resulten más significativas: si se observan los coeficientes estandarizados de las variables de cada una de las funciones escogidas, cuanto mayor sean estos coeficientes, más alta es la contribución a la discriminación especificada. Finalmente, pueden considerarse las medias de las funciones discriminantes significativas para analizar entre cuales grupos éstas discriminan.

II. Tipos de Medida de Distancia

Sea una matriz X (mxn) que es tratada como m vectores fila x1, x2, …, xm. Varios tipos de medida de distancia que son posibles definir para el par de objetos r y s, con xr y xs, se incluyen a continuación:

i. Distancia Euclídea: es la distancia entre dos puntos que se mide en el espacio euclídeo, se define como

edu.red (AII.1)

ii. Distancia Euclídea Estandarizada: cada coordenada en la suma cuadrática se pesa inversamente por la varianza muestral de esa coordenada.

edu.red(AII.2)

donde edu.redes la matriz con elementos diagonales dados por vj2, que se refiere a la varianza de la variable edu.redsobre los m objetos.

iii. Distancia Mahalanobis: es una forma de determinar la similitud entre dos variables aleatorias multidimensionales. A diferencia de la distancia Euclídea, esta medida tiene en cuenta la correlación de las variables.

edu.red(AII.3)

donde edu.redes la matriz de covarianza muestral.

iv. Distancia Manhattan: aquí la distancia entre dos puntos es la suma de las diferencias (absolutas) de sus coordenadas.

edu.red(AII.4)

v. Distancia Minkowski

edu.red(AII.5)

En el caso especial p=1, la distancia Minkowski coincide con la distancia Manhattan, y para el caso especial p=2, la distancia Minkowski coincide con la distancia Euclídea.

vi. Distancia Coseno: uno menos del ángulo incluido entre los puntos (en forma de vector).

edu.red(AII.6)

vii. Distancia de Correlación: uno menos la correlación entre los puntos (tratado como secuencias de valores).

edu.red (AII.7)

donde edu.redy edu.red

viii. Distancia Hamming: es el porcentaje de coordenadas que difieren.

edu.red (AII.8)

III. Métodos de Enlace o Vinculación

En el método HCA, se utiliza una función vinculante que crea un árbol de agrupamiento jerárquico a partir de las distancias entre pares de objetos previamente obtenidas. La función puede utilizar diversos métodos de vinculación, los cuales difieren en la forma que se calculan las distancias entre los agrupamientos.

La solución que se obtiene en HCA es una matriz (m-1)x3 llamada Q, donde m es el número de observaciones en el conjunto original de datos. Las primera y segunda columnas de Q contienen a los índices de los agrupamientos vinculados de a pares, para formar el árbol binario. La tercera columna contiene la distancia de vinculación entre los agrupamientos formados.

La siguiente notación se utiliza para describir los distintos métodos de vinculación:

  • Un agrupamiento r es formado a partir de los agrupamientos p y q

  • nr es el número de objetos en el agrupamiento r.

  • xir es el i-ésimo objeto en el agrupamiento r.

a. Vinculación individual, también llamado vecino más cercano, utiliza la menor distancia entre dos objetos en los dos agrupamientos.

edu.red (AIII.1)

b. Vinculación completa, también llamado vecino más lejano, utiliza la mayor distancia entre dos objetos en los dos agrupamientos.

edu.red (AIII.2)

c. Vinculación promedio, utiliza la distancia promedio entre todos los pares de objetos en cualquiera de los dos agrupamientos.

edu.red(AIII.3)

d. Vinculación centroide, utiliza la distancia Euclídea entre los centroides de los dos agrupamientos.

edu.red (AIII.4)

donde edu.redy edu.redse refiere a la distancia Euclídea.

e. Vinculación media, utiliza la distancia Euclídea entre los centroides ponderados de los dos agrupamientos,

edu.red (AIII.5)

donde edu.redy edu.redson los centroides pesados para los agrupamientos r y s. Si el agrupamiento r fue creado por la combinación de los agrupamientos p y q, edu.redes definido recursivamente como edu.red

f. Vinculación de Ward, utiliza la suma incremental de los cuadrados, es decir, el incremento en la suma total de los cuadrados dentro del agrupamiento, como resultado de la unión de dos grupos. La suma de los cuadrados dentro del agrupamiento es definida como la suma del cuadrado de las distancias entre todos los objetos en el agrupamiento y el centroide del agrupamiento. La distancia equivalente es:

edu.red (AIII.6)

g. Promedio ponderado de vinculación, utiliza una definición recursiva para la distancia entre dos agrupamientos. Si el agrupamiento r fue creado mediante la combinación de los agrupamientos p y q, la distancia entre r y otro agrupamiento s se define como el promedio de las distancias entre p y s y la distancia entre q y s:

edu.red (AIII.7)

IV. Eliminación de Mínimos Locales y Descripción del Cálculo Iterativo en el Método K-Medias.

Eliminación de mínimos locales

Al igual que sucede en muchos otros problemas de optimización numérica, la solución que se alcanza con el método K-Medias depende a menudo del punto de partida, en este caso la posición inicial del centroide de cada agrupamiento. Es posible así alcanzar un mínimo local, donde la reasignación de cualquier punto a un nuevo agrupamiento debería incrementar la suma total de distancias centroide-punto, pero donde puede existir realmente una mejor solución. Para solucionar este problema, es posible especificar en el método el número de "réplicas", es decir, el número de veces en que se repetirá el proceso de agrupación, cada uno con un nuevo conjunto de posiciones iniciales del centroide del agrupamiento. Por supuesto, la mejor solución será aquella para la cual la suma de las distancias centroide-punto para cada uno de los agrupamientos sea mínima.

Descripción del algoritmo

El algoritmo consta de dos partes:

Primera fase. Cada iteración consiste en la reasignación colectiva de elementos al centroide del agrupamiento más cercano, todos a la vez, seguida de un nuevo cálculo de las posiciones de los centroides. La primera fase ocasionalmente converge a soluciones que son un mínimo local; es más probable alcanzar un mínimo global si se trabaja con pequeños grupos de datos. La fase de actualización colectiva es rápida, pero posiblemente sólo aproxime una solución que sea el punto de partida de la segunda fase.

Segunda fase. Los elementos son reasignados individualmente si con ello se reduce la suma de distancias, y en cada reasignación se calcula la ubicación del centroide del agrupamiento. Cada iteración consiste en la ubicación de todos los elementos. En esta fase la solución converge a un mínimo local, aunque puede haber otro mínimo local con menor suma total de distancias. Generalmente el problema de hallar un mínimo global puede ser resulto únicamente por medio de una selección exhaustiva de los puntos de partida, aunque la utilización de varias réplicas con puntos de partida aleatorios generalmente converge a una solución que es un mínimo global.

V. Definición del Parámetro Silueta

La definición de los valores silueta es la siguiente: dado un grupo G1 y un objeto i asignado a éste, la disimilitud promedio de i para todos los objetos j en G1 está dada por:

edu.rednúmero de objetos en G1 (AV.1)

donde edu.redes la distancia de cada objeto i a cada objeto j en G1. La menor disimilitud correspondiente a i respecto a cualquier otro agrupamiento, b(i), también es calculada. Si i es más similar a los objetos en un grupo G2 que a los del grupo G1, entonces:

edu.rednúmero de objetos en G2 (AV.2)

Por lo tanto, el valor silueta s(i) definido para un objeto i es:

edu.red (AV.3)

donde edu.redse refiere al mayor valor entre edu.redy edu.red

VI. El Clasificador del Método K-Vecinos Más Cercanos

Si se quiere conocer la clase a la que pertenece un objeto dado, entre varias clases posibles, se introduce el concepto de clasificador. Un clasificador es una función que asigna un objeto a una clase determinada, para lo cual se basa en el conocimiento de sus variables atributo. Existen dos tipos de clasificadores:

  • Paramétricos: asumen que la distribución estadística que sigue el conjunto de variables es conocido, y trata de estimar los parámetros de dicha distribución.

  • No-paramétricos: no asume ninguna distribución en particular. El clasificador se construye únicamente con los datos del conjunto de entrenamiento.

Entre los clasificadores no-paramétricos, el más conocido es el basado en el método K-vecinos más cercanos: si Ki es el número de objetos que pertenecen a la clase Gi entre los K vecinos más cercanos al objeto considerado x, la probabilidad a posteriori edu.red(la probabilidad de que la clase sea Gi cuando x se describe con el conjunto de variables d ) se estima como edu.redDe esta manera, el clasificador asigna x a la clase más frecuente entre sus K vecinos más cercanos, según una cierta medida de distancia.

VII. Algunos Algoritmos Utilizados en Matlab

Algoritmo clusterskmeans.m

edu.red

edu.red

Algoritmo clustersknn.m

edu.red

edu.red

Tabla de abreviaturas

QSAR-QSPR

Relaciones cuantitativas estructura-actividad/estructura-propiedad

PCA

Análisis de Componentes Principales

PC

Componentes principales

LDA

Análisis Discriminante Lineal

HCA

Análisis de agrupamiento Jerárquico

K-NN

Análisis K-Vecinos Más Cercanos

K

Número de agrupamientos

s(i)

Parámetro silueta para el objeto i

edu.red

Propiedad predicha

edu.red

Propiedad experimental

m(silh3)

Valor medio del parámetro silueta

min(silh3)

Valor mínimo del parámetro silueta

d

Descriptor molecular

rrcm

Raíz cuadrada del residuo cuadrático medio

res(i)

Residuo para la molécula i

cal1

Conjunto de calibración 1

val

Conjunto de validación

N

Número de moléculas

D

Número total de descriptores

edu.red

Número de moléculas presentes en el grupo G1

Agradecimientos

A la Facultad de Ciencias Exactas (UNLP) donde cursé mi carrera y realice el presente trabajo.

A mis directores, Eduardo A. Castro y Pablo R. Duchowicz por la confianza y constante ayuda.

A mis compañeros de carrera por su compañía diaria.

A mis familiares y amigos, por su apoyo constante y confianza a lo largo de mi carrera.

Esta tesina fue realizada en el Instituto de Investigaciones Fisicoquímicas Teóricas y Aplicadas (INIFTA). Departamento de Química, Facultad de Ciencias Exactas, Universidad Nacional de La Plata, bajo la dirección de los Dres. Eduardo A. Castro y Pablo R. Duchowicz.

 

 

Autor:

Rafael Villamayor

Enviado por:

Eduardo Castro

edu.red

Universidad Nacional de La Plata Facultad de Ciencias ExactasDepartamento de Química

Marzo de 2011

Partes: 1, 2, 3, 4, 5, 6, 7
 Página anterior Volver al principio del trabajoPágina siguiente