Descargar

Modelo para Pruebas de Software y auditoría en Entorno Microsoft.Net

Enviado por alexcal2004


Partes: 1, 2

    1. Identificación del problema
    2. Planteamiento del problema
    3. Justificación del problema
    4. Marco teórico sobre modelo, informática, sistemas, auditoria en informática, pruebas de software
    5. Hipótesis
    6. Operacionalización de la hipótesis general
    7. Plan de solución
    8. Descripción capitular
    9. Metodología de la investigación
    10. Presupuesto de tesis
    11. Cronograma de tesis
    12. Bibliografía

    I. IDENTIFICACION DEL PROBLEMA.

    En que medida la falta de un Modelo para Pruebas de Software y auditoria en Entorno Microsoft.Net, afecta los sistemas de información de la mediana empresa del sector servicio en el área metropolitana de San Salvador.

    II. PLANTEAMIENTO DEL PROBLEMA.

    Hoy en día en que las comunicaciones y los sistemas de información han evolucionada tanto, para nadie es desconocido el potencial que Microsoft tiene y ejerce sobre las empresas y su información a nivel mundial ya que brinda una gama de productos como sistemas operativos, navegadores, sistemas de correos, procesadores de texto y paquetes más específicos para desarrollar aplicaciones.

    Microsoft no quiere rendirse. Su último golpe de efecto lleva por nombre Microsoft .Net y es la estrategia con la que la compañía de Redmond pretende transformar y dominar Internet durante los próximos diez años con el permiso de la justicia estadounidense y, por supuesto, la complicidad de los usuarios.

    Como ultima innovación de Microsoft tenemos Microsoft .NET

    Que es la plataforma de Microsoft para servicios Web XML, la siguiente generación de software que conecta nuestro mundo de información, dispositivos y personas de una manera unificada y personalizada.

    La Plataforma .NET permite la creación y uso como servicios de aplicaciones, procesos y sitios Web basados en XML, que compartan y combinen información y funcionalidad entre ellos por diseño, en cualquier plataforma o dispositivo inteligente, para proveer soluciones a la medida de las empresas.

    Con base en los estándares abiertos de Internet, Microsoft .NET es la plataforma de servicios Web XML para potenciar aplicaciones, servicios y dispositivos a fin de que trabajen juntos para permitir el acceso y acción a la información en cualquier momento, en todo lugar y desde cualquier dispositivo; proporcionando desarrollo simplificado y experiencias ricas de usuario, así como oportunidades sin precedentes para los negocios.

    Es por eso que en nuestro medio las medianas empresas están casi sujetas a Microsoft y sus aplicaciones, debido a que son las más accesibles por lo que es indispensable un modelo para pruebas automáticas y auditoria de las aplicaciones desarrolladas en dicha plataforma, para estar seguros que las aplicaciones desarrolladas en Microsoft. Net brinden sistemas de información confiable, segura para la toma de decisiones.

    La creciente necesidad que las empresas tienen para manejar los sistemas de información de una manera más eficiente, las empuja a buscar tecnologías de última generación, pero a la vez, que sean accesibles a sus recursos financieros y técnicos, es por eso que las soluciones que Microsoft a ofrecido durante más de una década son ampliamente aceptadas en nuestro medio y la convierte en una de las herramientas más populares y conocidas.

    Ante el surgimiento de éstas nuevas tecnologías integradas para desarrollar aplicaciones nos encontramos ante un reto, de demostrar que los sistemas de información de las empresas dan como resultado información confiable y oportuna.

    Por lo que nosotros proponemos el desarrollo de un modelo para pruebas automáticas y auditorias de software en entorno Microsoft.Net.

    Con éste modelo, pretendemos proporcionar a las medianas empresas una herramienta confiable de prueba y auditoria, para las aplicaciones desarrolladas en .NET que les de la pauta para saber y estar seguros, de que sus sistemas de información les brindaran como resultado información útil en la toma de sus decisiones.

    III. JUSTIFICACION DEL PROBLEMA.

    Tan solo hace 20 años, el mundo seguía estando en la era mainframe. Pocas personas tenían acceso a las computadoras, y entonces solo se hacía a través del departamento de informática más cercano. La PC y la interfaz del usuario gráfico cambiaron todo eso, democratizando la computación para cientos de millones de personas y transformando la computadora en un producto de mercado realmente masivo. Las corporaciones se dieron cuenta que las redes de PC y servidores basados en PC podían cambiar la manera en que realizaban sus negocios. Entre los consumidores, la PC se estableció rápidamente como un nuevo medio para entretenimiento en el hogar. En los últimos 5 años, Internet revolucionó la manera en la que la gente se comunica, creó una nueva fuente de información y entretenimiento, y abrió el mundo del comercio electrónico. Hoy en día, cerca de 300 millones de personas en todo el mundo utilizan el Web. De acuerdo con International Data Corp., más de un cuarto de trillón de dólares de negocios se operará a través de Internet este año.

    La información que poseen las empresas es un recurso valioso para el desempeño eficiente y eficaz, sobre todo a la hora de tomar las decisiones de planificación, inversión, reestructuración, etc.

    Por lo anterior es de vital importancia que los datos que se obtiene de los sistemas de información, sean lo más exactos y precisos posibles, esto se convierte en un enorme problema cuando no existe una herramienta que determine la confiabilidad del software que se desarrolla o se adquiere, en especial aquellas empresas que usan las aplicaciones Microsoft.net.

    En los días previos a la presentación de la estrategia Microsoft .Net, efectuada el pasado jueves 22 de junio 2003, los directivos de Microsoft lo vendieron como el anuncio más importante que iba a realizar la compañía desde hacía cinco años.

    Los cuatro principios sobre los que Microsoft basa su nueva estrategia son los siguientes: lograr una mejor experiencia del usuario de manera que éste tenga el control; la simplicidad; la utilización de estándares de Internet (en particular, XML), y la integración empresarial. Además de diversas tecnologías que deben facilitar la tarea tanto a usuarios como a desarrolladores, Microsoft .Net supone también la creación de software específico para impulsar un nuevo tipo de aparatos inteligentes conectados a Internet.

    En nuestro medio las empresas están sujetas a los productos Microsoft como por ejemplo: según la empresa especializada en análisis de audiencia de Internet WebSideStory, el 86% de los usuarios de Internet utiliza el navegador de Microsoft, frente a un escaso 14% que se inclina por el de Netscape ¿Alguien quiere más poder que éste?

    El navegador se convertirá en la principal interfaz de usuario (lienzo universal, dicen en Microsoft) para recibir y utilizar este futuro bombardeo de servicios digitales.

    Por lo consiguiente, las afectadas son todas las medianas empresas de el sector servicio del área metropolitana de san salvador, que usan las aplicaciones de Microsoft.net.

    Con el desarrollo de un modelo de pruebas Automáticas y auditorias para aplicaciones desarrolladas con la herramienta de Microsoft.net, se busca mejorar la calidad y la confiabilidad de los sistemas de información, disminuyendo los costos operativos y los riesgos de los sistemas, beneficiando así a las medianas empresas.

    Con el desarrollo de éste modelo se buscará varios aportes, entre los que se destacan:

    La disminución de los costos en compra o desarrollo de aplicaciones de óptima calidad, mejorando así la eficiencia de las aplicaciones traerá un beneficio económico.

    Dando como resultado sistemas de información confiables, seguros que den soporte a la toma de decisiones de las diferentes áreas funcionales de las medianas empresas.

    Facilitando el trabajo a las empresas ya que ésta es una herramienta no muy difícil de utilizar, gracias a esto proporciona la oportunidad de que un buen número de personas desarrollen aplicaciones de calidad, generando así fuentes de empleos, dando como resultado un aporte social.

    Permite que las personas adquieran conocimientos más avanzados acerca de la tecnología y sus aplicaciones brindando así un aporte académico.

    Más allá de solo agregar una interfaz Web a sus aplicaciones de negocios existentes y esencialmente sin cambio, estas transformaciones redefinirán algunas de las suposiciones básicas de su modelo de negocios. Las compañías que desean sobrevivir a la transformación de la economía digital necesitan prepararse reevaluando sus negocios en vistas de tres acciones:

    Creando una infraestructura conectada. Esto significa no únicamente extraer el máximo valor de sus sistemas internos utilizando el rango completo de datos disponibles a través de esos sistemas de una manera integrada y coherente, si no que también ampliando esa infraestructura conectada más allá de las paredes de su negocio, para sus socios y proveedores. El flujo integrado de datos a través de todos los procesos de negocios (sin importar los límites organizacionales) proporciona una oportunidad importante para reajustarlos y reinventarlos a fin de lograr aumentos masivos de eficiencia. Además de las mejoras en los aspectos principales, existen oportunidades para crear todo un nuevo negocio que antes no podía concebirse debido a la fricción entre esas infraestructuras no integradas.

    Microsoft está creando la plataforma .NET para ayudarle a transformar su negocio y responder a estos imperativos. Se basa en el modelo de servicios Web XML, el cual es un crecimiento natural del aumento del poder de cómputo, la conectividad y el movimiento hacia estándares que caracterizan a toda la industria de la tecnología.

    Por lo anterior, con el desarrollo de éste modelo se buscará solucionar el problema de la calidad de las aplicaciones, a través de la auditoria así como determinar en que medida dichos problemas, afectan a los sistemas de información de las medianas empresas.

    1. MARCO TEORICO SOBRE MODELO, INFORMATICA, SISTEMAS, AUDITORIA EN INFORMATICA, PRUEBAS DE SOFTWARE.

    A. MODELO.

    1. Generalidades.

    La construcción de los modelos, no es una idea nueva; el proceso se utiliza todos los días con frecuencia en forma inconsciente, en situaciones de problemas básicos. El uso de información y el manejo de la incertidumbre, es un elemento clave para la dirección eficiente en una organización. De igual forma, los ejecutivos que se enfrentan a situaciones difíciles en las que deben tomar decisiones para resolver problemas presentes pero con repercusiones en el futuro; deben elegir entre diversas estrategias y cursos de acción. Esto supone la elaboración y uso de un modelo.

    2. Definiciones.

    • "Es la abstracción de los sucesos que rodean un proceso, una actividad, o un problema. Aíslan una entidad de su entorno de tal manera que pueda examinarse sin el "ruido" o perturbación de otras influencias del medio circundante".
    • "Es una representación ideal y concreta de un objeto, de un fenómeno con fines de estudio y experimentación. Es un concepto de valores, creencias y normas de conducta que condicionan la actuación y el modo de pensar de todos".
    • "Los modelos muestran los pasos de procesamiento, como los flujos de datos en un sistema; es una parte intrínseca de varios métodos de análisis, donde se muestra el procesamiento de datos de principio a fin".
    1. Antecedentes.

    Todos los científicos tienen conciencia de que el propósito fundamental y central del método científico es crear un modelo. El concepto de construcción de modelos, en particular en años recientes, se ha complicado un poco hasta parecer oscuro y, sin embargo, toda la historia del hombre aun en sus actividades menos científicas hace patente que éste es un animal esencialmente orientados a la construcción de modelos.

    Es interesante observar cómo a través de los siglos el hombre ha ido desarrollando el concepto de construcción de modelos, especialmente en torno a un área que le ha interesado desde sus primeros días sobre la tierra: el estudio y pronóstico de los movimientos de estrellas y planetas. El descubrimiento de los archivos de las grandes ciudades de Mesopotamia ha revelado que desde sus primeros días la civilización Babilonia preservó de manera legible grandes cantidades de datos de escrituras cuneiforme, es decir impresiones en horma de cuña hechas con un instrumento punzante en arcilla blanda que luego se endurecía en un horno a fin de preservar lo grabado.

    Las primeras tablillas contenían textos acerca de leyes y rituales e inventarios de ganado, esclavos y cosechas. Además aparecían los nombres de sus deidades, que también eran los nombres de los cuerpos celestes. Esto evolucionó hasta convertirse en una serie de observaciones planetarias (es decir, cuadros que se usaban para predecir movimientos y eclipses de la luna) y textos de aritmética sobre cómo calcular las posiciones de los planetas día por día, fechas y horas en que se ocurrirían terremotos o azotarían plagas de langostas y otras desastres naturales.

    En todo esto se empezaba a poner de manifiesto la búsqueda por parte del hombre de cielos recurrentes y patrones definidos. Todos los seres humanos se plantean preguntas con respecto a la naturaleza del Universo en que viven y una forma de planteamiento es interrogarse si los seres humanos están sujetos a un patrón determinado o son simples cautivos en un caos a la deriva. Por tanto, se pude decir que a historia del hombre es una evolución de la construcción de modelos, de constante búsqueda de patrones y de generalización.

    Probablemente sea una lástima comentar acerca de algunos diseños de modelos contemporáneos para la tomas de decisiones que se hacen las mismas suposiciones; es decir, que si dos diseños matemáticos conducen al mismo resultado, se puede suponer que no existe una diferencia filosófica o administrativa – gerencial entre dichos diseños.

    4. Características:

    • El modelo debe ser lo más simple posible.
    • El modelo no debe ser incompatible con las teorías establecidas en campos de estudio relacionados.
    • El modelo debe ser capaz de predecir fenómenos que puedan ser comprobados experimentalmente.
    • Los modelos hacen que los gerentes reconozcan un problema o un área de problemas y decidan lo más adecuado.
    • Hacen que los gerentes reconozcan los factores del problema y determinen cuales variables pueden ser controladas, para que no afecten el desempeño del sistema.
    • Obliga a los gerentes a reconocer los costos significativos y a conocer su magnitud.
    • Permite a los gerentes a identificar las relaciones entre los costos y las variables de decisión.
    • Permite reconocer importantes alternativas entre los costos y conocer la investigación general entre las variables y los costos.
    1. Clasificación.

    Un modelo puede ser tan sencillo como una simple explicación con palabras, de lo fundamental de una realidad, a este tipo se le suele llamar Modelo Verbal.

    En otros modelos se usan diagramas en los que se dibujan de una forma simplificada, los componentes del sistema señalado, con flechas las acciones de unos sobre otros, son Modelos Gráficos. Algunos pueden ser muy esquemáticos, pero cuando en cada flecha se indica el tipo de acción que tiene lugar y se señalan diferentes compartimentos y tipos de interacción, pueden llegar a ser muy complicados.

    5.1. Modelos físicos.

    Los Modelos físicos se dividen en:

    a. Modelos icónicos

    Representan la unidad estudiada en cuanto a su apariencia y en cuanto a sus funciones. Con frecuencia son versiones a escala reducida a lo real, como por ejemplo: aviones de escala, maquetas de edificios y paisajes como los que emplean los ingenieros, diseñadores y arquitectos.

    b. Modelo Analógico.

    Exhibe el comportamiento de la entidad real del que esta siendo estudiada pero no tiene el mismo aspecto. Los modelos analógicos son mucho más abstractos que los modelos íconos.

    5.2. Modelos simbólicos.

    Los modelos simbólicos se dividen en:

    a. Modelo Narrativo.

    Es una descripción por medio del lenguaje de las relaciones que existen en un proceso o en un sistema.

    b. Modelos Gráficos.

    Describe partes o pasos de una entidad o proceso mediante una representación grafica. Un diagrama de flujo, que se usa en el desarrollo de las aplicaciones de las computadoras, simboliza los sucesos, las acciones, y muestra el orden o la secuencia que debe seguir en el caso de que cierta acción deba ser ejecutada, o un problema especifico deba ser resuelto.

    c. Modelos Matemáticos.

    Son mucho mas rigurosos que los anteriores y se valen de variables cuantitativas (Formulas) para representar las partes de un proceso o de un proceso o de un sistema.

    5.3. Modelos de comunicación.

    El modelo de comunicación se divide en:

    a. Modelo Lineal de Pasqualí

    La comunicación es lineal porque se dirige hacia delante y al hecho de que no puede hacerse retroceder una palabra ya emitida.

    b. Modelo Circular

    La comunicación circular se expresa en dos funciones:

    • Lo que comunicamos y el modo de hacerlo la altera para el futuro
    • La comunicación circular, retrocede hasta llegar al punto de partida, pudiendo restringir y obstaculizar futuras comunicaciones.

    c. Modelo helicoidal de Dance

    El helicoide combina los rasgos deseables de la línea recta y del círculo, evitando a la vez los puntos débiles de ambos. El helicoide presenta una variedad bastante atractiva de posibilidades de dar forma grafica a los aspectos patológicos de la comunicación.

    d. Modelo Análogo

    Se recurre a la similitud que se puede establecer entre una variable de interés, y una variable a la cual se puede recurrir para su presentación análoga.

    6. Importancia de los modelos.

    La importancia de los modelos esta fundamentada en dos ventajas que guardan estrecha relación entre si, pero que no son idénticas.

    La primera es el ahorro en la presentación y en la búsqueda. Así, es mas barato representar visualmente el plano de una fábrica o de un sistema de información administrativa que construir uno, y también hacer modificaciones de ese sistema mediante rediseño.

    La segunda consiste en que los modelos permiten analizar y experimentar situaciones tan complejas en una forma que resultaría imposible si se reprodujera el sistema y su ambiente real.

    Uso de los modelos

    Para usar un modelo hay que incorporar el objeto gráfico correspondiente y conectarlo adecuadamente al resto del circuito.

    La correspondencia entre los modos del modelo usado y de la definición tiene que ver con el orden en el que aparecen.

    Hay previsto un sólo símbolo; pero hay muchas posibilidades en cuanto a su significado.

    Un modelo puede ser predictivo sin ser necesariamente explicativo, pero un modelo explicativo, forzosamente tiene que ser predictivo. Un modelo meramente predictivo opera dentro de márgenes muy estrechos, no conduce a una comprensión ni tampoco brinda ningún medio para controlar, cuando la lógica fundamental del mismo ha cambiado significativamente.

    Los puntos de conexión de un modelo se consideran en determinado orden. Ese orden tiene importancia a la hora de poner en correspondencia las conexiones de un modelo usado con las de la definición.

    Para construir un modelo que nos ayude en la toma de decisiones, debemos de lograr entender:

    a. Los motivos para su construcción y las relaciones existentes dentro y fuera de la organización, en sí todo su entorno.

    b. El tipo de tecnología existente en la organización, el sistema de comunicación y los controles de que dispone.

    c. La forma de trabajo de la organización, y la metodología de solución que apliquen a los eventos cotidianos.

    d. Las restricciones existentes en el trabajo de la organización y factibilidad de sustituir algunas de éstas.

    B. NFORMATICA.

    1. Generalidades.

    La palabra "Informática" está compuesta por los vocablos información y automatización, y fue empleada por primera vez en el año 1962 por Philipe Dreyfus. Se refiere al conjunto de técnicas destinadas al tratamiento lógico y automático de la información, con el fin de obtener una mejor toma de decisiones. Surgió por el impulso del hombre del formular nuevos postulados y desarrollar técnicos que le permitieran satisfacer la creciente necesidad de información para la toma de decisiones.

    La informática se desarrolla con base a normas, procedimientos y técnicas definidas por institutos establecidos a nivel nacional e internacional.

    La informática es el campo que se encarga del estudio y aplicación practica de la tecnología, métodos, técnicas, y herramientas relacionadas con las computadoras y el manejo de la información por medios electrónicos, el cual comprende las áreas de la tecnología de información orientadas al buen uso y aprovechamiento de los recursos computacionales para asegurar que la información de las organizaciones fluya de manera oportuna, veraz y confiable. Además, es el proceso metodológico que se desarrolla de manera permanente en las organizaciones para el análisis, evaluación, selección, implementación y actualización de los recursos humanos, tecnológicos, materiales y financieros, encaminados al manejo de la información, buscando que no se pierdan los propósitos de calidad, confiabilidad, oportunidad, integridad y veracidad, entre otros propósitos.

    2. Definiciones.

    • "Conjunto de conocimientos científicos y técnicos que se ocupan del tratamiento de la información por medio de ordenadores electrónicos".
    • "Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores electrónicos".
    • "La Informática, es el estudio del tratamiento de la información en general y, particularmente, del tratamiento automático de la información utilizando computadoras".
    • "Ciencia del tratamiento racional, particularmente por máquinas automáticas, de la información considerada como el soporte de conocimientos humanos y de comunicaciones en los aspectos técnico, económico y social. Conjunto de disciplinas científicas y de técnicas especialmente aplicables al tratamiento de datos efectuado por medios automáticos".

    3. Antecedentes.

    Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana.

    Otros dispositivos fueron la Pascalina por Balicé Pascal y la maquina de Gottfried Wilhelm Von Leibniz. Con estas maquinas, los datos se representaban mediante las posiciones de los engranajes y se introducían manualmente estableciendo las posiciones finales de las ruedas de manera similar a como leemos los números en el cuenta kilómetros de un automóvil.

    La primera computadora fue la maquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Canbridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método, Babbage abandono la maquina de diferencias y se dedico al proyecto de una maquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier calculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas. El mundo no estaba listo, y no estaría por cien años mas. En 1944 se construyo en la Universidad de Harvard la Mark I, diseñada por un equipo encabezado por Howard H. Aiken.

    Esta maquina no esta considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados reveladores.

    En 1947 se construyo en la Universidad de Pennsylvania la ENAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica. El equipo de diseñado lo encabezaron los ingenieros John Mauchly y John Eckert. Esta maquina ocupaba todo un sotano de la Universidad, tenia mas de 18,000 tubos de vació, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenia la capacidad de realizar cinco mil operaciones aritméticas en un segundo. El proyecto, auspiciado por el departamento de Defensa de los Estado Unidos, culmino dos años después, cuando se integro a ese equipo el ingeniero y matemático húngaro John Von Neumann. Las ideas de Von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.

    La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenia aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos. La idea fundamental de Von Neuman fue permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, no por medio de alambres que electrónicamente interconectaban varias secciones de control, como en la ENAC.

    Todo este desarrollo de las computadoras se clasifica por generaciones; el criterio que se determino para marcar el cambio de generación no esta muy bien definido, aunque resulta evidente que deben cumplirse al menos los siguientes requisitos: la forma en que están construidas y la forma en que el ser humano se comunica con ellas.

    a. Primera Generación (1951 a 1958).

    Las computadoras de la primera generación emplearon bulbos para procesar la información, eran mucho más grandes y generaban más calor que los modelos contemporáneos.

    b. Segunda Generación (1959 a 1964).

    El invento del transistor hizo posible una nueva generación de computadoras, mas rápidas, mas pequeñas y con menores necesidades de ventilación, utilizaban redes de núcleos, magnéticos, estos núcleos contenían pequeños anillos de materia magnético, enlazados entre si, en los cuales podían almacenarse datos e instrucciones.

    c. Tercera Generación (1964 a 1971).

    Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio en las cuales se colocan miles de componentes electrónicos), en una integración en miniatura. Las computadoras nuevamente se hicieron mas pequeñas, mas rápidas, dependían menos calor y eran energéticamente mas eficientes y trabajaban a tal velocidad que proporcionaban la capacidad de correr mas de un programa de manera simultanea (multiprogramación).

    d. Cuarta Generación (1972 a 1982).

    En esta generación aparecieron los microprocesadores, un gran adelanto de la microelectrónica: son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacieron las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general y sobre la llamada "Revolución Informática".

    e. Quinta Generación (1983 – al presente).

    • Inteligencia artificial: La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora.
    • Robótica: La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo.
    • Sistemas Expertos: Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas.
    • Redes de Comunicación: Los canales de comunicación que interconectan terminales y computadoras se conocen como redes de comunicaciones; es decir, todo el "Hardware" que soporta las interconexiones y todo el "Software" que administra la transmisión.
    • Tecnologías futuras: La tecnología de los microprocesadores y de la fabricación de circuitos integrados esta cambiando rápidamente. Los microprocesadores complejos contienen unos 10 millones de transistores. Se pronostica que en el 2010 los microprocesadores avanzados contendrán unos 800 millones de transistores.

    f. Pioneros.

    La historia del desarrollo informático registra un grupo de científicos y estudiosos que destacan por sus aportes y legados:

    • Blaise Pascal, quien construyo la primera maquina sumadora y soluciono el problema del acarreo de dígitos.
    • Gottfried Wilhelm Leibniz fue la persona que demostró las ventajas de utilizar el sistema binario en lugar del decimal en las computadoras mecánicas, invento y construyo una maquina aritmética que realizaba las cuatro operaciones básicas y calculaba raíces cuadradas.
    • Joseph Marie Jacquard invento y utilizo las tarjetas perforadas para dirigir el funcionamiento de un telar.
    • Charles Babbage diseño la primera computadora automática llamada maquina analítica.
    • George Boole fue el creador de la lógica simbólica o álgebra booleana que hoy utilizan todas las computadoras.
    • Augusta Ada Byron fue la primera programadora de la historia.
    • Herman Hollerith fue quien primero uso las tarjetas perforadas como un instrumento de conteo rápido.
    • Norbet Wiener, conocido como el "el padre de la cibernética", fue quien estableció las bases de la cibernética moderna.
    • John Von Neumann diseño la primera computadora de cinta magnética, fue el primero en usar la aritmética binaria en una computadora electrónica y afirmo que los programas, al igual que los datos, se pueden almacenar en memoria.

    4. Componentes.

    a. Hardware.

    Es el conjunto de elementos físicos, electrónicos y electromagnéticos, que proporcionan capacidad de cálculos y funciones rápidas, exactas y efectivas (computadoras, censores, maquinarías, lectores y circuitos), que proporcionan una función externa dentro de los sistemas.

    Se conoce con éste nombre, a todo aquel equipo físico de una computadora, Es lo tangible, todo lo que podemos tocar.

    Pueden incorporarse en una sola unidad, o estar por separado.

    El hardware de una computadora debe realizar cuatro tareas vitales que son:

    • Entrada: El usuario ingresa los datos e instrucciones en la computadora, utilizando; por ejemplo el teclado.
    • Procesamiento: La computadora procesa o manipula esas instrucciones o datos.
    • Salida: La computadora comunica sus resultados al usuario; por ejemplo, desplegando la información en un monitor, o imprimiéndola.
    • Almacenamiento Secundario: La computadora coloca la información en un almacenado electrónico del que puede recuperarse más tarde.

    b. Software:

    Son instrucciones codificadas electrónicamente (programas) que dirigen a la computadora para realizar ciertas tareas, y los programas utilizados para dirigir las funciones de un sistema computacional.

    El software se divide en otras ramas que son:

    • SISTEMAS OPERATIVOS: son todos aquellos programas que controlan todas las actividades de una computadora. Sin un sistema operativo una computadora es inservible.
    • LENGUAJES DE PROGRAMACIÓN: son un conjunto de reglas e instrucciones mediante el cual se construye un programa que la computadora pueda interpretar.
    • PROGRAMAS DE APLICACIÓN (paquetes). Son un conjunto de instrucciones en secuencia lógica, escritas en un lenguaje de programación, cuyo objetivo es realizar alguna función específica para la cual se ha programado.

    5. Evolución.

    a. POO (OOP).

    Programación orientada a objetos (object oriented programming) es un concepto revolucionario que cambió las reglas en el desarrollo de programas. OOP está estructurada con base en "objetos" en vez de acciones; datos en vez de lógica. Históricamente, un programa se veía como un procedimiento lógico que tomaba datos de entrada, los procesaba y producía datos de salida. El reto en programación era cómo escribir esta lógica y no como definir los datos.

    La programación orientada a objetos se fundamenta en que lo que realmente nos interesa son los objetos que queremos manipular y no la lógica requerida para manipularlos. A manera de ejemplo, se pueden considerar objetos desde las personas (descritos por la el nombre, dirección, teléfono, etc.) hasta edificios y pisos (cuyas propiedades se pueden describir y administrar) y hasta los pequeños dispositivos en un computador.

    b. E- Business.

    Negocios electrónicos, derivado de términos como e-mail, es conducir negocios por la Internet, no solo compra y venta, sino también brindando servicio a clientes y colaborando con los socios de negocios. El primero que utilizó este término fue IBM en 1997 cuando lanzó una campaña temática alrededor de éste. Hoy, la mayoría de las corporaciones están repensando sus negocios en términos de la Internet y su nueva cultura y capacidades. Las empresas están utilizando la Internet para comprar partes y suministros de otras empresas, colaborar en promociones de ventas, y hacer investigación conjunta. La explotación de la conveniencia, disponibilidad y alcance global de la Internet hace que muchas empresas como Amazon.com hayan descubierto como utilizar la Internet en forma exitosa.

    c. E-Commerce.

    Es la compra y venta de productos y servicios en la Internet, especialmente por la Web. Este término y uno mas nuevo, e-business, por lo general son utilizados en forma intercambiada. Para la venta al detal en línea también se utiliza el término

    e-tailing.

    E-Commerce se puede dividir en:

    • E-Tailing o tiendas virtuales en sitios Web con catálogos en línea, algunas veces amalgamados en un centro comercial virtual
    • El acopio y uso de información demográfica a través de contactos en la Web
    • Intercambio electrónico de datos (EDI), el intercambio electrónico de datos entre empresas.
    • Correo electrónico y fax en su uso como medio para llegar a prospectos y clientes establecidos, por ejemplo, con boletines electrónicos,
    • Compra y venta entre negocios
    • La seguridad de las transacciones electrónicas

    d. EDI.

    Electronic Data Interchange, Intercambio electrónico de datos, es un formato estándar para intercambiar información de negocios. El estándar es ANSI X12 y se desarrolló por el Data Interchange Standards Association. Este estándar está coordinado y en vías de migración hacia el EDIFACT.

    Un mensaje EDI contiene una serie de elementos de datos, cada uno representando un hecho concreto, como el precio, modelo del producto, etc., separados por un delimitador. El conjunto completo se conoce como el segmento. Uno o más segmentos enmarcados en un encabezado y un mensaje de cola conforman un set transaccional, la unidad de transmisión del EDI (equivalente a un mensaje.) Un set de transacciones consiste de lo que normalmente se compondría un documento o formato de negocios.

    e. Internet.

    Es una red de comunicación global de computadoras interconectadas y de rápido crecimiento. Juntos, esos millones de computadoras interconectadas forman un gran almacén de información hipé reenlazada. Internet es el resultado de unos estándares que fueron creados originalmente por el gobierno de los Estados Unidos y que han sido adoptados por organizaciones de todo el mundo. Proporciona un sistema que permite a las computadoras de cualquier lugar comunicarse con otras, independientemente de quien las haya fabricado o del tipo de software que ejecuten.

    Internet es a menudo llamada "la superautopista de la información" y por buenas razones. Se puede tener una idea de la estructura de Internet fijándose en el sistema de autopistas de los Estados Unidos. Hay varios sistemas de autopistas principales que cruzan el país, que se conectan con otras autopistas y otras carreteras secundarias más lentas. Internet funciona de forma similar. Las principales compañías, como AT&T, Sprint y MCI, han construido canales de comunicación de alta velocidad que cruzan el país (o rodean la Tierra). De estas líneas principales salen rutas secundarias a las ciudades más importantes y de estas parten enlaces a proveedores de servicios locales y comerciales.

    El origen de la red actual son los cables ópticos instalados por las principales compañías de comunicación, con la ayuda de organismos de gobierno.

    Además, Internet es un sistema de comunicación compartido, lo que significa que pueden tener lugar varias sesiones de comunicación diferentes sobre la misma línea y al mismo tiempo. En cambio, una llamada telefónica consiste en un circuito único que solamente la utiliza la persona que llama y a la que se llama, por lo cual, la conexión solamente dura el tiempo de llamada. En Internet, la información se divide en trozos, y estos se colocan en paquetes. Los paquetes se dirigen a una computadora destino y se envían a través de Internet. Los dispositivos llamados enrruteadores se aseguran que los paquetes se envíen por los mejores caminos para llegar a su destino.

    Servicios de Internet

    A continuación se muestran los servicios que proporciona la súper autopista denominada Internet y que se describen muy brevemente:

    • Correo Electrónico:
      • El correo electrónico se ha convertido en uno de los servicios de INTERNET mas ampliamente utilizados; aunque el correo electrónico se diseño originalmente para la comunicación entre dos personas, se ha ampliado y proporciona un medio de comunicación entre los miembros de un grupo y permite la comunicación con un grupo de computadoras.
    • Servicio de Noticias.
      • Dado que el software para noticias en red no notifica en forma automática al usuario cuando hay un nuevo articulo en un grupo de discusión, el usuario que participa en un grupo debe acordarse de verificar con regularidad si han aparecido nuevos artículos.
      • El software para noticias en red cuenta con información que permite determinar que artículos han leído cada usuario.
    • Transferencia de Archivos (FTP ).
      • Este permite al usuario transferir copia de un archivo de datos de una computadora a otra a través de INTERNET.
    • Acceso Remoto (Telnet).
      • Un servicio de acceso remoto permite que el usuario interactúe con programas de aplicación que corran en una computadora ubicada en otro sitio.
    • Búsqueda de Información.
      • Un servicio de rastreo de información permite que una persona localice y evalúe información en computadoras remotas. El rastreo difiere de la recuperación de información, ya que éste no requiere que el usuario recupere archivos de datos para determinar su contenido.
    • Bibliotecas Virtuales.
      • Son servicios de búsqueda de información mediante herramientas de que automatizan encontrar los temas de nuestro interés. 

    7. Otros aspectos importantes.

    7.1) Las Computadoras

    Una computadora es una maquina que puede ejecutar operaciones aritméticas, puede escoger, copiar, mover, comparar y ejecutar otras operaciones no aritméticas, con los diversos símbolos alfabéticos, numéricos y otros que usan los humanos para representar objetos. La computadora maneja estos símbolos de una forma deseada, siguiendo un mapa intelectual llamado PROGRAMA.

    Un programa, es un detallado conjunto de instrucciones preparado por humanos para dirigir a la computadora y que esta funcione de manera que produzca el resultado deseado.

    Una computadora, es un rápido y exacto sistema de manipulación de símbolos electrónicos o datos, diseñado y organizado para aceptar y almacenar datos automáticamente, procesarlos y producir resultados de salida bajo la dirección de un programa almacenado de instrucciones detalladas paso a paso.

    La computadora realiza un paso a la vez. Puede sumar y restar números, comparar letras para determinar secuencias alfabéticas, mover y copiar números y letras.

    La velocidad de las computadoras es medida en unidades de milisegundos (ms), microsegundos (Ms), nanosegundos (ns) y picosegundos (ps), el tiempo requerido para que una computadora ejecute una operación básica.

    La ventaja de esta velocidad es que los humanos quedamos excepto de hacer cálculos y podemos distribuir nuestro tiempo con fines mas útiles.

    Las computadoras, además de ser muy rápidas, también son muy exactas. Se estima que con una calculadora el usuario puede tener un error en cada 500 o 1000 operaciones. Pero en una computadora no, porque los circuitos, no requieren intervención humana entre operaciones de procesamiento y no tienen partes mecánicas que se desgasten y funcionen mal.

    Estos circuitos pueden ejecutar cientos de miles de operaciones cada segundo y pueden correr sin errores por horas y días, sin interrupción. Además de esto, las computadoras tienen como parte de su estructura la capacidad de autocomprobación que les permite verificar la exactitud de sus operaciones internas.

    Si los datos introducidos a la computadora son correctos, y si el programa de instrucciones de procesamiento es confiable, entonces, generalmente pueden ser rastreados hacia datos incorrectos de entrada o programas no confiables y ambos son usualmente causados por los humanos y no por las computadoras.

    C. SISTEMAS.

    1. Generalidades.

    El concepto de sistema en general está sustentado sobre el hecho de que ningún sistema puede existir aislado completamente y siempre tendrá factores externos que lo rodean y pueden afectarlo, por lo tanto podemos referir a Muir citado en Puleo (1985) que dijo: "Cuando tratamos de tomar algo, siempre lo encontramos unido a algo más en el Universo".

    La palabra "sistema" tiene muchas connotaciones: un conjunto de elementos interdependientes e ínteractuantes; un grupo de unidades combinadas que forman un todo organizado y cuyo resultado (output) es mayor que el resultado que las unidades podrían tener si funcionaran independientemente. El ser humano, por ejemplo, es un sistema que consta de un número de órganos y miembros, y solamente cuando estos funcionan de modo coordinado el hombre es eficaz. Similarmente, se puede pensar que la organización es un sistema que consta de un número de partes interactuantes. Por ejemplo, una firma manufacturera tiene una sección dedicada a la producción, otra dedicada a las ventas, una tercera dedicada a las finanzas y otras varias. Ninguna de ellas es más que las otras, en sí. Pero cuando la firma tiene todas esas secciones y son adecuadamente coordinadas, se puede esperar que funcionen eficazmente y logren las utilidades. "El concepto de sistema pasó a dominar las ciencias, y principalmente, la administración. Si se habla de astronomía, se piensa en el sistema solar; si el tema es fisiología, se piensa en el sistema nervioso, en el sistema circulatorio, en el sistema digestivo.

    Aun cuando los sistemas de información basados en las computadoras emplean tecnología de computación para procesar datos en información significativa, existe una deferencia profunda entre una computadora y un programa de computadora, y un sistema de información. Las computadoras electrónicas y sus programas relativos de software son los fundamentos técnicos, las herramientas y los materiales de los modernos sistemas de información. Las computadoras constituyen el equipo para almacenar y procesar la información. Los programas de computadoras o software, son conjuntos de instrucciones operativas que dirigen y controlan el procesamiento mediante computadora. Saber cómo trabajan las computadoras y los programas de cómputo es importante para el diseño de soluciones a los problemas de la institución, pero la razón de emplearlas de deriva del sistema de información del que las computadoras sólo son una parte.

    2. Definiciones.

    • "Conjunto de cosas que ordenadamente relacionadas entre sí contribuyen a determinado objeto".
    • "Un conjunto de entidades caracterizadas por ciertos atributos, que tienen relaciones entre sí y están localizadas en un cierto ambiente, de acuerdo con un cierto objetivo".
    • "Es una red de procedimientos relacionados entre si y desarrollados de acuerdo con un esquema integrado para lograr una mayor actividad de las empresas".
    • "Es un ensamble de partes unidas por inferencia y que se lleva acabo por las empresas para lograr el objetivo de la misma".

    3. Antecedentes.

    La teoría de sistemas (TS) es una rama específica de la teoría general de sistemas (TGS).

    La TGS surgió con los trabajos del alemán Ludwig von Bertalanffy, publicados entre 1950 y 1968. La TGS no busca solucionar problemas o intentar soluciones prácticas, pero sí producir teorías y formulaciones conceptuales que pueden crear condiciones de aplicación en la realidad empírica.

    Los supuestos básicos de la TGS son:

    • Existe una nítida tendencia hacia la integración de diversas ciencias naturales y sociales.
    • Esa integración parece orientarse rumbo a un teoría de sistemas.
    • Dicha teoría de sistemas puede ser una manera más amplia de estudiar los campos no-físicos del conocimiento científico, especialmente en ciencias sociales.
    • Con esa teoría de los sistemas, al desarrollar principios unificadores que atraviesan verticalmente los universos particulares de las diversas ciencias involucradas, nos aproximamos al objetivo de la unidad de la ciencia.
    • Esto puede generar una integración muy necesaria en la educación científica.
    • La TGS afirma que las propiedades de los sistemas, no pueden ser descritos en términos de sus elementos separados; su comprensión se presenta cuando se estudian globalmente.

    La TGS se fundamenta en tres premisas básicas:

    • Los sistemas existen dentro de sistemas: cada sistema existe dentro de otro más grande.
    • Los sistemas son abiertos: es consecuencia del anterior. Cada sistema que se examine, excepto el menor o mayor, recibe y descarga algo en los otros sistemas, generalmente en los contiguos. Los sistemas abiertos se caracterizan por un proceso de cambio infinito con su entorno, que son los otros sistemas. Cuando el intercambio cesa, el sistema se desintegra, esto es, pierde sus fuentes de energía.
    • Las funciones de un sistema dependen de su estructura: para los sistemas biológicos y mecánicos esta afirmación es intuitiva. Los tejidos musculares por ejemplo, se contraen porque están constituidos por una estructura celular que permite contracciones.

    El interés de la TGS, son las características y parámetros que establece para todos los sistemas. Aplicada a la administración la TS, la empresa se ve como una estructura que se reproduce y se visualiza a través de un sistema de toma de decisiones, tanto individual como colectivamente.

    Desde un punto de vista histórico, se verifica que:

    • La teoría de la administración científica usó el concepto de sistema hombre-máquina, pero se limitó al nivel de trabajo fabril.
    • La teoría de las relaciones humanas amplió el enfoque hombre-máquina a las relaciones entre las personas dentro de la organización. Provocó una profunda revisión de criterios y técnicas gerenciales.
    • La teoría estructuralista concibe la empresa como un sistema social, reconociendo que hay tanto un sistema formal como uno informal dentro de un sistema total integrado.
    • La teoría del comportamiento trajo la teoría de la decisión, donde la empresa se ve como un sistema de decisiones, ya que todos los participantes de la empresa toman decisiones dentro de una maraña de relaciones de intercambio, que caracterizan al comportamiento organizacional.
    • Después de la segunda guerra mundial, a través de la teoría matemática se aplicó la investigación operacional, para la resolución de problemas grandes y complejos con muchas variables.
    • La teoría de colas fue profundizada y se formularon modelos para situaciones típicas de prestación de servicios, en los que es necesario programar la cantidad óptima de servidores para una esperada afluencia de clientes.

    Las teorías tradicionales han visto la organización humana como un sistema cerrado. Eso a llevado a no tener en cuenta el ambiente, provocando poco desarrollo y comprensión de la retroalimentación (feedback), básica para sobrevivir.

    El enfoque antiguo fue débil, ya que 1) trató con pocas de las variables significantes de la situación total y 2) muchas veces se ha sustentado con variables impropias.

    El concepto de sistemas no es una tecnología en sí, pero es la resultante de ella. El análisis de las organizaciones vivas revela "lo general en lo particular" y muestra, las propiedades generales de las especies que son capaces de adaptarse y sobrevivir en un ambiente típico. Los sistemas vivos sean individuos o organizaciones, son analizados como "sistemas abiertos", que mantienen un continuo intercambio de materia/energía/información con el ambiente. La TS permite reconceptuar los fenómenos dentro de un enfoque global, para integrar asuntos que son, en la mayoría de las veces de naturaleza completamente diferente.

    Partes: 1, 2
    Página siguiente