Análisis comparativo de bases de datos de Código abierto vs. Código cerrado (determinación de índices de comparación) (página 2)
Enviado por Ing. Diego Javier Burbano
- El código abierto en las empresas
En el Ecuador el tema es controversial unos prefieren lo corporativo por que es seguro, además existe alguien que puede responder si algo falla, un punto importante es que las empresas tienen miedo al cambio. En fin, es una decisión que tarde o temprano será evaluada con mayor seriedad.
Una percepción usual es "Si es libre (o gratis), probablemente no valga gran cosa". De hecho, existen diferentes motivaciones para renunciar al ingreso de las licencias. No lograr el éxito comercial puede ser una, obtener mayor soporte es otra.
El principal temor que los usuarios pueden tener es el tener que confiar en medios informales tales como grupos de usuarios para obtener ayuda y soporte. Otra preocupación puede ser lo imprevisible del desarrollo de funciones y características.
Se puede pagar por un sistema operativo o programa, o no. Hoy día en la mayoría de casos hay un sistema operativo o programa, cuando menos equivalente, en los dos sectores tanto en código abierto como en código cerrado. Por ejemplo, hoy en día ya hay un gran número de aplicaciones con licencia GPL que corren sobre varios sistemas operativos, tanto propietarios como abiertos.
A nivel laboral, a fin de cuentas es lo mismo. Tanto si contratan un ingeniero en sistemas, o en un negocio propio, para un tipo de producto u otro no quiere decir que se utilizará el mismo producto toda la vida.
Un ingeniero de sistemas es un recurso humano que en particular debe adaptarse a su entorno de trabajo, no importa el sector, lo importante es mantenerse, puede ser linux, unix, windows, pero lo importante es que el ingeniero este capacitado.
En el caso de las empresas, es una apuesta de negocio. En esta vida, hay que adaptarse al entorno y necesidades del mercado, y en el caso de las empresas, a veces, se tienen que arriesgar.
Las distribuciones de linux fueron un riesgo, y alto, ya que el mercado de los sistemas operativos es muy duro. La inversión de las empresas no fue una inversión a corto plazo, estaban concientes que iban a necesitar algunos años. Todas las empresas empiezan de una manera muy dura, es la ley del mercado, ni más ni menos.
Es el mercado el que decide quién sigue y quién no. Pero lo importante es que muchos clientes mirarán la diferencia entre un precio y otro, se encantarán por la opción de código abierto?
Una vez más será el mercado quién decida. Si el código abierto es igual o más fiable que el cerrado y se sabe promocionar, por la ley de la oferta y la demanda, tiene las de ganar. Aunque hay muchas variables en el mercado real que hacen que no se tan trivial.
En definitiva, a un profesional de la informática le es igual trabajar en un sistema abierto o cerrado. A fin de cuentas no tiene importancia. Si una persona desea utilizar un sistema u otro en su casa, eso es elección de cada uno. A nivel de empresa, viene a ser igual, es inapropiado pensar que las grandes del código cerrado desaparecerán si se impone el código abierto. Se adaptaran, o desaparecerán, pero como las empresas las llevan humanos, y si algo tenemos es instinto de supervivencia, seguramente se adaptarán al nuevo modelo de mercado de nuevas tecnologías que implica el Open Source.
Varias de las operaciones que se realizan sobre la base de datos forman a menudo una única unidad lógica de trabajo. Un ejemplo de esto es la acreditación de cuentas en un banco, en la que el valor acreditado se resta en la cuenta (A) y se debe actualizar tanto el saldo contable como el disponible, a parte de este proceso se debe insertar un registro en la tabla de auditoria.
Es esencial que se ejecuten todos los procesos o ninguno. Este requisito de todo o nada se denomina atomicidad. Además es fundamental que el valor restado a los saldos sea preservado, este requisito se conoce como consistencia. Finalmente tras la ejecución correcta de la transacción, los nuevos valores de los saldos debe persistir, a pesar de la posible falla del sistema. Este requerimiento del sistema se denomina durabilidad. También es importante y necesario si ocurre algún error durante la ejecución de cualquiera de los procesos que forman parte de la transacción se ejecute un roolback de forma que deje los valores como estaban al principio, es decir, como estaban antes de la ejecución.
El componente encargado de lograr la atomicidad de la transacción se conoce como administrador de transacciones y las operaciones COMMIT (comprometer o confirmar) y ROOLBACK (retroceder) son la clave de su funcionamiento.
La operación COMMIT indica el término exitoso de una transacción: le dice al administrador de transacciones que se ha finalizado con éxito, que la base de datos está o debería estar de nuevo en un estado consistente y que se pude comprometer o hacer permanentes todas las modificaciones efectuadas.
La operación ROLLBACK, en cambio, nos indica el término no exitoso de una transacción: le dice al administrador de transacciones que algo salió mal, que la base de datos podría estar en un estado no consistente y que todas las modificaciones realizadas hasta el momento deben retroceder o anularse.
Una transacción es una colección de operaciones que se lleva a cabo como una única función lógica en una aplicación de base de datos. Cada transacción es una unidad de atomicidad y consistencia. Así, se requiere que las transacciones no violen ninguna restricción de consistencia de la base de datos, Es decir, si la base de datos era consistente cuando la transacción comenzó, la base de datos debe ser consistente cuando la transacción termine con éxito. Sin embargo, durante la ejecución de una transacción puede ser necesario permitir inconsistencias temporalmente, ya que una de las operaciones que forma parte de la transacción se debe realizar una antes de la otra. Esta inconsistencia temporal, aunque necesaria, puede conducir a dificultades si ocurre un fallo.
Es responsabilidad del programador definir adecuadamente las diferentes transacciones, de tal manera que cada una preserve la consistencia de la base de datos.
Asegurar las propiedades de atomicidad y durabilidad es responsabilidad del propio sistema de base de datos, específicamente del componente de gestión de transacciones. En ausencia de fallos, toda transacción completada con éxito y atómica se archiva fácilmente.
El sistema de base de datos debe realizar la recuperación de fallos, es decir, detectar los fallos del sistema y restaurar la base de datos al estado que existía antes de que ocurriera el fallo.
Finalmente cuando varias transacciones actualizan la base de datos concurrentemente, la consistencia de los datos puede no ser preservada, incluso aunque cada transacción individualmente sea correcta. Es responsabilidad del gestor de control de concurrencia controlar la interacción entre las transacciones concurrentes para asegurar la consistencia de la base de datos.
En esencia, lo que se persigue con el procesamiento de transacciones es, por una parte, obtener una transparencia adecuada de las acciones concurrentes a una base de datos y por otra, manejar adecuadamente las fallas que se puedan presentar en una base de datos.
La mayoría de medianas y grandes compañías modernas utilizan el procesamiento de transacciones para sus sistemas de producción, y es tan inprescindible que las organizaciones no pueden funcionar en ausencia de él. El procesamiento de transacciones representa una enorme y significativa porción del mercado de los sistemas informáticos (más de cincuenta billones de dólares al año) y es, probablemente, la aplicación simple más amplia de las computadoras. Además, se ha convertido en el elemento que facilita el comercio electrónico.
Como puede percibirse, el procesamiento de transacciones es una de las tareas más importantes dentro de un sistema de base de datos, pero a la vez, es una de las más difíciles de manejar debido a diversos aspectos, tales como:
- Confiabilidad.- Puesto que los sistemas de base de datos en línea no pueden fallar.
- Disponibilidad.- Debido a que los sistemas de base de datos en línea deben estar actualizados correctamente todo el tiempo.
- Tiempos de Respuesta.- En sistemas de este tipo, el tiempo de respuesta de las transacciones no debe ser mayor a diez segundos.
- Throughput.- Los sistemas de base de datos en línea requieren procesar miles de transacciones por segundo.
- Atomicidad.- En el procesamiento de transacciones no se aceptan resultados parciales.
- Permanencia.- No se permite la eliminación en la base de datos de los efectos de una transacción que ha culminado con éxito.
Para conseguir anular y recuperar las transacciones, el método más usado consiste en utilizar un archivo de log en el que se va guardando toda la información necesaria para deshacer (en caso de fracasar) o rehacer (en caso de recuperar) las transacciones. Este log consta de los siguientes datos:
- Identificador de la transacción
- Hora de modificación
- Identificador del registro afectado
- Tipo de acción
- Valor anterior del registro
- Nuevo valor del registro
- Información adicional
Otra alternativa es manejar 2 archivos de log, uno con la imagen anterior a las modificaciones y otro con la imagen posterior a las modificaciones. El archivo log es usualmente una pila que una vez llena va eliminado registros según van entrando nuevos.
Un concepto relacionado con los archivos de log es el CHECKPOINT, que permite manejar en forma eficiente el contenido de los archivos log, ya que permiten no tener que recorrer todo el archivo de log, ante fallas.
Los puntos marcados como checkpoint, permiten la recuperación de la base de datos en caliente, es decir, después de la caída del sistema se obtiene la dirección del registro de recuperación más reciente y se recorre el archivo de log desde el punto marcado como checkpoint.
El objetivo del concepto de recuperación es proteger la base de datos contra fallas lógicas o físicas que destruyan los datos en forma total o parcial. Estas fallas pueden afectar al correcto almacenamiento de los datos.
Para asegurar que la base de datos siempre esté en un estado consistente, cada base de datos tiene un proceso para obtener copias de seguridad, esto ayuda a mantener un registro confiable de los datos ante desastres o posibles fallas del sistema.
Por otro lado, las bases de datos crean unidades de ejecución llamadas transacciones, que pueden definirse como una secuencia de operaciones que se ejecutan en forma atómica, es decir, se realizan todas las operaciones que comprende la transacción o no se realiza ninguna.
La transacciones, o terminan el proceso con éxito y son completadas en la base de datos, o fracasan y deben ser restaurado el estado anterior de la base de datos.
La recuperación en frío, consiste en disponer de un backup o respaldo de la BD, que permitirá junto con los archivos de log, que se han ido produciendo desde el ultimo backup, reconstruir la BD, para dejarla consistente.
El error fatal, se produce cuando se pierde el archivo de log. En este caso resulta imposible recuperar la base. La solución pasa por disponer los archivos de log en respaldos.
El DBA debe definir responsabilidades, procedimientos, situaciones y plazos en los que se deben realizar las copias de seguridad y el respaldo del archivo de log, especificando a los operadores los procedimientos de recuperación ante caídas. El principio básico en el que se basa la recuperación es la redundancia.
- Recuperación de la Información
- Tipos de Datos
En las bases de datos existentes en la actualidad se sigue una norma SQL que soporta un conjunto de dominios predefinidos, que incluye los siguientes:
- Char. (n) es una cadena de caracteres de longitud fija, con una longitud n especificada por el usuario. También se puede utilizar la palabra completa character.
- Varchar. (n) es una cadena de caracteres de longitud variable, con una longitud n especificada por el usuario. También se puede utilizar la forma completa character varying.
- Int. Es un entero (un subconjunto finito de los enteros, que es dependiente de la máquina). También se puede utilizar la palabra completa integer.
- Smallint. Es un entero pequeño (un subconjunto del dominio de los enteros, tambien dependiente de la maquina).
- Numeric. (p,d) es un numero en coma flotante, cuya precisión la especifica el usuario. El número está formado por p dígitos (más el signo), y de esos p dígitos, d pertenecen a la parte decimal. Así, numeric(3,1) permite que el número 56,5 se almacene exactamente, mientras que los números 444,5 y 0,32 no se pueden almacenar exactamente en un campo de este tipo.
- Real, double precision. Son respectivamente números en coma flotante y números en coma flotante de doble precisión , con precisión dependiente de la maquina.
- Float. (n) es un número en coma flotante , cuya precisión es de al menos n dígitos.
- Date es una fecha del calendario, que contiene un año (de cuatro dígitos), un mes y un día del mes. Ejm: "2004-02-01" La fecha se debe especificar en formato aaaa-mm-dd.
- Time es la hora del día, expresada en horas, minutos y segundos. Se puede usar una variante, time (p), para especificar el número de dígitos decimales para los segundos (el número predeterminado es cero). También es posible almacenar la información del uso horario junto al tiempo. Ejm: "09:30:00".
- Timestamp es una combinación de date y time. Se puede usar una variante, timestamp (p), para especificar el número de dígitos decimales para los segundos (el número predeterminado es 6). Ejm: "2004-02-01 09:30:01.45".
SQL permite incluir en la declaración de dominio de un atributo la especificación not null de este modo se prohíbe la inserción de un valor nulo para ese atributo.
SQL permite realizar operaciones de comparación sobre todos los dominios que se listan aquí, y permite realizar operaciones aritméticas y de comparación sobre los diferentes dominios numéricos. SQL también proporciona un tipo de datos llamado interval y permite realizar cálculos basados en fechas, horas e intervalos.
Las restricciones de integridad proporcionan un medio de asegurar que las modificaciones hechas a la base da datos por los usuarios autorizados no provoquen la pérdida de la consistencia de los datos. Por tanto las restricciones de integridad protegen a las bases de datos de daños accidentales.
La integridad tiene como función proteger la BD contra operaciones que introduzcan inconsistencias en los datos. Se habla de integridad en el sentido de corrección, validez o precisión de los datos.
El subsistema de integridad de un SGBD debe por tanto detectar y corregir, en la medida de lo posible, las operaciones incorrectas. En la práctica es el punto débil de los SGBD comerciales, ya que casi toda la verificación de integridad se realiza mediante código de procedimientos escritos por los usuarios.
Habrá operaciones cuya falta de corrección no sea detectable, por ejemplo, introducir un fecha de nacimiento 25/12/1945 cuando en realidad era 25/12/1954.
En lo que tiene que ver con la seguridad también se protege los datos frente al acceso de personas no autorizadas y destrucción o alteración malintencionada.
- Integridad y Seguridad
Son las que transgreden las restricciones que ha definido el administrador al diseñar la base de datos, tales como:
- Restricciones sobre dominios por ejemplo, el dominio edad esté comprendido entre 18 y 65 años.
- Restricciones sobre los atributos, por ejemplo, la edad de los empleados ingenieros debe ser mayor de 21 años.
Estas restricciones pueden ser estáticas, como las anteriores o dinámicas por ejemplo, el sueldo de un empleado no puede disminuir.
Otra forma de clasificar las restricciones es en:
- simples: si se aplican a una ocurrencia de un atributo con independencia de los demás, por ejemplo, el sueldo de un empleado tiene que ser mayor que 60000.
- compuestas: si implican más de una ocurrencia, como es el caso de las restricciones de comparación, por ejemplo, el sueldo de un empleado debe ser menor que el de su jefe. O bien , las llamadas de globalidad, por ejemplo, el sueldo medio de los empleados de un determinado departamento debe ser menor de 250000.
Los SGBD tienen que ofrecer en su lenguaje de definición, facilidades que permitan describir las restricciones con una sintaxis adecuada.
Por ejemplo, CREATE DOMAIN, CREATE ASSERTION, CREATE INTEGRITY RULE
En general, una regla de integridad está compuesta por tres componentes:
- La restricción propiamente tal, que establece la condición que deben cumplir los datos.
- La respuesta a la trasgresión, que especifica las acciones a tomar, como rechazar las operaciones, informar al usuario, corregir el error con acciones complementarias, etc.
- Condición de disparo, que especifica cuándo debe desencadenarse la acción especificada en la restricción de integridad: antes, después o durante cierto evento.
Los triggers, son casos especiales de reglas de integridad. Un trigger es un procedimiento que se activa o dispara al ocurrir un evento, que tienen muchas utilidades.
Las reglas de integridad deben almacenarse en el diccionario de datos, como parte integrantes de los datos(control centralizado de la semántica), de modo que no han de incluirse en los programas. Esto trae algunas ventajas:
- Las reglas de integridad son más sencillas de entender y de cambiar, facilitando su mantenimiento.
- Se detectan mejor las inconsistencias.
- Se protege mejor la integridad, ya que ningún usuario podrá escribir un programa que las transgreda, llevando a la BD a estados inconsistentes.
El subsistema de integridad del SGBD debe realizar las siguientes funciones:
- Comprobar la coherencia de las reglas que se definen.
- Controlar las distintas transacciones y detectar las transgresiones de integridad.
- Cuando se produce una transgresión, ejecutar las acciones pertinentes.
En una base de datos es necesario asegurar que un valor x se encuentre en las tablas que determinan una relación, a esta condición se le denomina integridad referencial.
En el mundo real existen ciertas restricciones que deben cumplir los elementos en él existentes; por ejemplo, una persona sólo puede tener un número de identificación y una única dirección oficial. Cuando se diseña una base de datos se debe reflejar fielmente el universo del discurso que estamos tratando, lo que es lo mismo, reflejar las restricciones existentes en el mundo real.
Los componentes de una restricción son los siguientes:
La operación de actualización (inserción, borrado o eliminación) cuya ejecución ha de dar lugar a la comprobación del cumplimiento de la restricción.
La condición que debe cumplirse, la cual es en general una proposición lógica, definida sobre uno o varios elementos del esquema, que puede tomar uno de los valores de verdad (cierto o falso).
La acción que debe llevarse a cabo dependiendo del resultado de la condición.
En general, se puede decir que existen tres tipos de integridad:
Integridad de dominio: restringimos los valores que puede tomar un atributo respecto a su dominio, por ejemplo EDAD >= 18 – 65.
Integridad de entidad: la clave primaria de una entidad no puede tener valores nulos y siempre deberá ser única, por ejemplo la cedula de identidad.
- Integridad Referencial
- Disparadores
Un disparador es una orden que se ejecuta de manera automática como efecto secundario de la modificación de la base de datos. Para diseñar un mecanismo disparador se debe tomar en cuenta lo siguiente:
Especificar las condiciones en las que se va a ejecutar el disparador. Esto se descompone en un evento que causa la comprobación del disparador y una condición que de debe cumplir para ejecutar el disparador.
Especificar las acciones que se va a realizar cuando se ejecute el disparador.
Este modelo de disparadores se denomina modelo evento-condición-acción.
Una vez que el disparador es almacenado en la base de datos, el sistema asume la responsabilidad de ejecutarlo cada vez que se cumpla el evento especificado y se satisfaga la condición correspondiente.
Los disparadores son mecanismos útiles para alertar a los usuarios o para realizar de manera automática ciertas tareas cuando de cumplen determinadas condiciones.
Por ejemplo, en el caso de un almacén que desee mantener un inventario mínimo por cada producto; cuando el nivel de inventario de un producto cae por debajo del mínimo, se debe solicitar un pedido automáticamente. Para la implementación de este disparador se debe tomar en cuenta cuando se modifique el nivel de inventario de un producto, el disparador debería comparar el nivel con el mínimo y si el nivel es inferior al mínimo se añadiría un nuevo pedido.
Los datos almacenados en la base de datos deben estar protegidos contra accesos no autorizados, de la destrucción o alteración malintencionada además de la introducción de inconsistencias que evitan las restricciones de integridad.
- Seguridad y autorización
En este grupo tenemos:
- Lectura no autorizada de los datos (robo de información).
- Modificación no autorizada de datos.
- Destrucción no autorizada de datos.
Un punto muy importante es lograr la seguridad de la base de datos, aunque no es posible la protección absoluta, pero se puede elevar lo suficiente para disuadir lo suficiente la mayor parte, si no la totalidad, de los intentos de tener acesso a la base de datos sin la debida autorización.
Para lograr tal nivel de seguridad hay que adoptar medidas en varios niveles:
- Sistema de base de datos. Dar acceso a los datos a usuarios de acuerdo al tipo de usuario, esto quiere decir, que se debe dar los permisos correspondientes a una parte limitada de la base. Por ejemplo, a ciertos usuarios de la base de datos se les puede dar permiso para consulta pero no se les permite la modificación. Es responsabilidad del sistema gestor de base de datos asegurarse de que no se violen estas restricciones de autorización.
- Sistema Operativo. La debilidad del sistema operativo puede servir como medio de acceso no autorizado a los datos. Lo importante aquí es que el sistema operativo debe ser seguro para minimizar la posibilidad de que se pueda ingresar a la base de datos.
- Red. Este es un punto muy importante porque hoy en día casi todos los sistemas de base de datos permiten el acceso remoto desde terminales, la seguridad a nivel de red juega un papel muy importante.
- Físico. Los sitios que contienen los sistemas informáticos como el lugar donde están los servidores por ejemplo, deben tener seguridades contra intrusos.
- Humano. Los usuarios administradores de la base de datos deben ser cuidadosamente elegidos para reducir la posibilidad de que alguno de ellos dé acceso a personas no autorizadas.
Hay que tomar en cuenta que la debilidad de los dos últimos puntos puede burlar las medidas de seguridad tomadas para los niveles superiores.
Los usuarios pueden tener varios tipos de autorización.
- Autorización de lectura.- permite la lectura de los datos, pero no su modificación.
- Autorización de inserción.- permite la inserción de nuevos datos, pero no la modificación de los existentes.
- Autorización de actualización.- permite la modificación de los datos, pero no su borrado.
- Autorización de borrado.- permite el borrado de los datos.
Los usuarios pueden recibir todos los tipos de autorización, ninguno de ellos o una combinación determinada de los mismos.
Además de estas autorizaciones, los usuarios pueden recibir autorización para modificar el esquema de la base de datos:
- Autorización de índices.- permite la creación y borrado de índices.
- Autorización de recursos.- permite la creación de relaciones nuevas.
- Autorización de alteración.- permite el añadido o borrado de atributos de las relaciones.
- Autorización de eliminación.- permite el borrado de las relaciones.
Las autorizaciones de eliminación y de borrado se diferencian en que la autorización de borrado sólo permite el borrado de registros. Si un usuario borra todos los registros de una relación, la relación sigue existiendo, pero está vacía. Si se elimina una relación deja de existir.
La capacidad de crear nuevas relaciones queda regulada mediante la autorización de recursos. El usuario con la autorización de recursos que crea una relación nueva recibe automáticamente todos los privilegios sobre la misma.
La autorización de índices puede parecer innecesaria, dado que la creación o borrado de un índice no afecta a los datos de las relaciones. Más bien, los índices son una estructura para la mejora del rendimiento. Sin embargo los índices también ocupan espacio y se exige que todas las modificaciones de las bases de datos actualicen los índices. Si se concediera a todos los usuarios la autorización de índices, los que llevaran a cabo actualizaciones estarían tentados a borrar los índices, mientras que los que formulan consultas estarían tentados a crear numerosos índices. Para permitir al administrador de la base de datos que regule el uso de los recursos del sistema es necesario tratar la creación de índices como un privilegio.
Muchas aplicaciones de bases de datos seguras requieren que se mantenga una traza de auditoria. Una traza de auditoria es un registro histórico de todos los cambios (inserciones, borrados o actualizaciones) de la base de datos, junto con información con el usuario que realizo el cambio y en que momento.
La traza de auditoria ayuda a la seguridad de formas diferentes. Por ejemplo, si el saldo de una cuenta es incorrecto, el banco desearía revisar todas las actualizaciones realizadas sobre la cuenta para encontrar las actualizaciones incorrectas (o fraudulentas), así como las personas que realizaron los cambios.
- Trazas de Auditoria
- Indexación a Asociación
Un índice sirve para encontrar datos específicos en la base de datos se forma rápida y eficiente. Muchas consultas solamente hacen referencia a una pequeña porción de los registros de una tabla. Para reducir el gasto adicional en la búsqueda de estos registros se puede construir índices.
Tenemos dos tipos básicos de índices:
- Indices ordenados. Estos índices están basados en una disposición ordenada de los valores.
- Indices asociados. (hash índices). Estos índices están basados en una distribución uniforme de los valores a través de una serie de cajones (buckets). El valor asignado a cada cajón está determinado por una función, llamada función de asociación.
Se consideran varias técnicas de indexación y asociación. Ninguna es la mejor. Sin embargo, cada técnica es la más apropiada para una aplicación específica de bases de datos. Cada técnica debe ser valorada bajo los siguientes criterios:
- Tipos de acceso. Los tipos de acceso que se soportan eficazmente. Estos tipos podrían incluir la búsqueda de registros con un valor concreto en un atributo, o buscar los registros cuyos atributos contengan valores en un rango especificado.
- Tiempo de acceso. El tiempo que se tarda en buscar un determinado elemento de datos, o conjunto de elementos, usando la técnica en cuestión.
- Tiempo de inserción. El tiempo empleado en insertar un nuevo elemento de datos. Este valor incluye el tiempo utilizado en buscar el lugar apropiado donde insertar el nuevo elemento de datos, así como el tiempo empleado en actualizar la estructura del índice.
- Tiempo de borrado. El tiempo empleado en borrar un elemento de datos. Este valor incluye el tiempo utilizado en buscar el elemento a borrar, así como el tiempo empleado en actualizar la estructura del índice.
El control de concurrencia en las bases de datos permite que la información se maneje en forma eficiente, permite además la ejecución de transacciones en paralelo, accesando a información compartida y, por lo tanto, interfiriendo potencialmente unas con otras. El hecho de reservar un pasaje aéreo por internet, cuando miles de personas pueden reservarlo también, nos da la idea de lo importante que es el manejo concurrente de la base de datos.
El procesamiento de transacciones en línea es utilizado por entidades como bancos, aerolíneas ya que la forma de negocio que este tipo de entidades tiene así lo requiere, para que todo funcione correctamente, es necesario, que las bases de datos estén actualizadas todo el tiempo.
Es una preocupación del programador que sus aplicaciones sean confiables y funcionen apropiadamente, pero a pesar de que estas aplicaciones son probadas antes de salir a producción, son vulnerables a ciertos errores que están fuera de su control. Estos errores potenciales surgen debido a dos factores: concurrencia y fallas.
Un algoritmo de control de concurrencia asegura que las transacciones se ejecuten atómicamente, controlando la intercalación de transacciones concurrentes, estas se ejecutan una después de otra.
El concepto principal es el de transacción. Informalmente, una transacción es la ejecución de ciertas instrucciones que accedan a una base de datos compartida. El objetivo del control de concurrencia y recuperación es asegurar que dichas transacciones se ejecuten atómicamente, es decir:
Cada transacción accede a información compartida sin interferir con otras transacciones, y si una transacción termina normalmente, todos sus efectos son permanentes, caso contrario no tiene efecto alguno.
En sistemas multiusuario, es necesario, un mecanismo para controlar la concurrencia, se pueden producir inconsistencias importantes derivadas del acceso concurrente, como por ejemplo, el problema de la operación perdida.
En un sistema de biblioteca por ejemplo, existe un campo que almacena el número de copias disponibles de cada ejemplar que esta disponible. Este campo debe incrementarse en uno cada vez que una persona devuelve un libro y disminuye uno cada vez que se realiza un préstamo.
El problema se da cuando existen varias bibliotecas, ubicadas en diferentes puntos alrededor de la ciudad, una de ellas inicia la transacción t1, leyendo la variable número de ejemplares (n) que se almacena en la variable n1. Tiempo después, otra biblioteca podría leer la misma variable incrementándola en una unidad, transacción t2. Después, la transacción t1 añade una unidad a esta variable y la actualiza, el resultado es erróneo, ya que la variable n debería haber aumentado en 2 unidades, y solo ha aumentado en una. La transacción t2 se ha perdido.
- El problema del control de concurrencia
- Control de Concurrencia
Existen varias técnicas:
- Pesimistas: bloqueo y marcas de tiempo
- Optimistas
Es una variable asociada a cada elemento de datos que describe el estado de dicho elemento respecto a las posibles operaciones (recuperación o actualización) que se pueden realizar sobre ellos en cada momento.
Las transacciones pueden llevar a cabo bloqueos, impidiendo a otros usuarios la recuperación o actualización de los elementos bloqueados, para evitar inconsistencias en el acceso concurrente.
Los SGBD tienen bloqueos (por registro, por tabla) para asegurar la consistencia. Los usuarios también pueden bloquear explícitamente los objetos, impidiendo el acceso por parte de otros usuarios.
- Técnicas de bloqueo
- Exclusivos: cuando una transacción mantiene un bloqueo de este tipo, ninguna otra transacción puede acceder al objeto bloqueado, ni bloquearlo, hasta que sea liberado por la transacción que lo había retenido. Se utiliza cuando se quiere actualizar datos.
- Bloqueo compartido: cuando una transacción bloquea en este modo, permite que otras transacciones retengan también el objeto en bloque compartido, pero no exclusivo. Este tipo se utiliza cuando no se requiere actualizar datos, pero se desea impedir cualquier modificación mientras los datos son consultados.
El algoritmo que se utiliza se llama bloqueo de dos fases (two phase locking).
El problema de las técnicas de bloqueo es que puede producirse un interbloqueo (deadlock), dos o mas transacciones están esperando cada una de ellas que la otra libere algún objeto antes de seguir
Se puede solucionar:
- Prevenir el deadlock: obliga a que las transacciones bloqueen todos los elementos que necesitan por adelantado. En caso de no poder conseguir todos esos elementos no bloquea ninguno y se queda en espera hasta volver a intentarlo.
- Detectar el deadlock: Se controla de forma periódica si se ha producido un deadlock. Se construye un grafo en espera, cada nodo es una transacción en ejecución y un arco de una transacción Ti a Tj, en caso que Ti esté esperando un elemento que ocupa Tj. Si existe un ciclo en el grafo tenemos un deadlock. La solución es escoger transacciones víctimas y deshacerlas, hasta que desaparezca el deadlock. Cada SGBD tiene políticas diferentes para escoger víctimas.
Este tema influye notoriamente en el rendimiento de los sistemas. Los SGBD pueden bloquear:
- un campo de un registro (un atributo de una tabla)
- un registro (una tupla)
- un archivo (una tabla)
- la BD total
Esto se llama granularidad del bloqueo.
Granularidad.- muy gruesa implica gestionar menor número de bloqueos, pero retrasa la ejecución de muchas transacciones (los objetos no se van liberando). Una granularidad muy fina, permite mayor concurrencia, pero aparecen más situaciones de deadlock que han de ser resueltas.
Indica el momento en que una transacción puede bloquear y desbloquear cada uno de los elementos de datos.
Un protocolo que asegura la secuencialidad en cuanto a conflictos es el protocolo de bloqueo en dos fases. Este protocolo exige que cada transacción realice las peticiones de bloqueo y desbloqueo en dos fases:
- Fase de crecimiento.- Una transacción puede obtener bloqueos pero no puede liberarlos.
- Fase de decrecimiento.- Una transacción puede liberar bloqueos pero no puede obtener ninguno nuevo.
- Técnicas de marca de tiempo (timestamping)
Las marcas de tiempo son identificadores únicos que se asignan a las transacciones, que se consideran como el tiempo de inicio de una transacción. Con esta técnica no existen bloqueos. Ordena las transacciones. Se retrasan.
Las transacciones acceden libremente a los elementos, y antes de finalizar se determina si ha habido interferencias.
Este tipo de técnicas considera que las transacciones tienen 3 fases:
- Lectura: las transacciones realizan operaciones sobre copias privadas de los objetos (accesibles solo por la transacción)
- Validación : en la que se comprueba si el conjunto de objetos modificados por una transacción se solapa con el conjunto de objetos modificados por alguna otra que haya hecho la validación durante la fase de lectura de dicha transacción
- Grabación: en el caso de no detectar interferencias se graban las modificaciones, convirtiendo las versiones privadas de los objetos en versiones actuales.
El procesamiento de consultas hace referencia a la serie de actividades implicadas en la extracción de la información de la base de datos. Estas actividades incluyen la traducción de consultas expresadas en lenguajes de bases de datos de alto nivel en expresiones implementadas en el nivel físico del sistema, así como transformaciones de optimización de consultas y la evaluación real de las mismas.
Los pasos básicos para el procesamiento de una consulta son:
- Análisis y traducción
- Optimización
- Evaluación
Antes de realizar el procesamiento de la consulta, el sistema debe traducir la consulta en una utilizable. Un lenguaje como SQL es adecuado para el uso humano, pero es poco apropiado para una representación interna en el sistema de la consulta. Así, una representación más útil es la basada en el álgebra relacional extendida.
Entonces, la primera acción que el sistema realiza es esta traducción de la consulta al formato interno. Este proceso es similar al que realiza el analizador de un compilador. Durante este proceso, el analizador comprueba la sintaxis de la consulta del usuario, verifica que sean nombres de las relaciones en la base de datos, etc.
Para especificar completamente cómo evaluar una consulta, no basta con proporcionar la expresión del álgebra relacional, además hay que anotar en ellas las instrucciones que especifiquen cómo evaluar cada operación. Estas anotaciones podrían ser el algoritmo a usar para una operación específica o el índice o índices concretos a utilizar. Las operaciones de álgebra relacional anotadas con instrucciones sobre la evaluación recibe el nombre de primitivas de evaluación. Una secuencia de operaciones primitivas que se pueden utilizar para evaluar una consulta establecen un plan de ejecución de la consulta o plan de evaluación de la consulta.
Gráfico # 4: Pasos en el procesamiento de una consulta
Fuente: Fundamentos de bases de datos
Página anterior | Volver al principio del trabajo | Página siguiente |