Descargar

El simulador en el proceso enseñanza-aprendizaje de microcontroladores


Partes: 1, 2

  1. Resumen
  2. Introducción
  3. De la lámpara al micro
  4. El micro controlador de Motorola QT
  5. WinIDE, es una buena idea
  6. Trabajo de campo
  7. Una luz encendida
  8. Conclusiones
  9. Bibliografía de referencia

Este documento analiza el proceso enseñanza aprendizaje de microcontroladores mediante el empleo de un simulador. Para ello se eligió el microcontrolador QT, sencillo y económico producto de la empresa Motorola perteneciente a la familia HC908 y como soporte informático, el programa de simulación WinIde.

El trabajo consistió en la realización de una práctica por un grupo de alumnos pertenecientes al 6° año de la carrera de Electrotécnico, los cuales carecían de conocimientos elementales de programación, esto le dio al trabajo de campo un carácter especial ya que debieron aprender conceptos elementales de programación.

En la introducción se da la justificación del trabajo y como evolucionó la tecnología electrónica en esta rama hasta nuestros días. Luego de esto se elaboró, con base en los manuales y otros documentos, un análisis de las características del microcontrolador, sus posibilidades Paso seguido se presenta el trabajo de campo el cual consiste en el desarrollo del proceso seguido por los alumnos, las dificultades a que tuvieron que enfrentar y como fueron orientados para solucionarlas pos sí mismos.

Por último se extraen algunas conclusiones referidas al proceso enseñanza aprendizaje y se bosqueja la posibilidad de aplicación de la teoría de inteligencias múltiples dejando abierta una línea de investigación en tal sentido.

Palabras clave: mcrocontrolador, HC908QT, enseñanza-aprendizaje, inteligencias múltiples.

Abstract

This paper discusses the teaching-learning process through the use of microcontroller simulators. For this, QT was chosen, a simple and economic product of the company belonging to the family motorola HC08 and the simulation program WinIde.

The essay consisted of conducting a practice carried out by a group of students from the 6th year of the electrotechnical degree, who lacked basic knowledge of programming. This gave the field work a special character as the challenge was huge.

The introduction gives the rationale for the work and explains how electronics technology evolved evolved up to now. After it was developed, based on manuals and other documents, an analysis of the characteristics of the microcontroller, its possibilities and a summary of some technical aspects of programming, such as addressing modes, programming concepts, and so on are developed.

Next, the fieldwork is presented which include the development of the process followed by students, the difficulties it had to face and how they were guided to solve the problems by themselves.

Finally some conclusions are drawn concerning the teaching-learning process and outlines the possibility of the theory of multiple intelligences, leaving an open line of investigation.

Keywords: mcrocontrolador, HC908QT, teaching and learning, multiple intelligences.

…Compara con el siguiente cuadro imaginario el estado de nuestra naturaleza según esté o no esclarecido por la educación. Represéntate a unos hombres encerrado en una especie de vivienda subterránea en forma de caverna, cuya entrada abierta a la luz, se extiende en toda su longitud. Allí los hombres están encadenados por el cuello y por las piernas, de suerte que permanecen inmóviles y solo pueden ver los objetos que tienen delante. Pues las cadenas les impiden volver la cabeza. Detrás de ellos, … hay un fuego cuyo resplandor los alumbra y entre ese fuego y los cautivos se extiende un camino escarpado, a lo largo del cual imagina que se alza una tapia semejante a un biombo que los titiriteros levantan entre ellos y los espectadores y por encima del cual exhiben sus fantoches.

Los encadenados, … pueden ver de si mismos y de los que a su lado caminan, alguna otra cosa fuera de las sombras que se proyectan al resplandor del fuego?

(Platon, 2003).

El hombre trata de encontrar modelos que permitan representar nuestro mundo de forma tal que facilite su comprensión. Se busca, mediante estos, tener una aproximación a la realidad sin tomar contacto con ella, lo cual facilita el manejo de la situación imaginaria. Percepción sensible, memoria, experiencia, imaginación y razón se hallan ligadas entre sí por un vínculo común; no son sino etapas diferentes y expresiones diversas de una y la misma actividad fundamental, que alcanza su perfección suprema en el hombre (Cassirer, 1968). La comprensión de nuestro entorno se dificulta si no encontramos una manera de representarla en forma diferente. En forma ontológica se trata de determinar cantidades, cuentas que permitan responder al interrogante cuanto al referirnos a entes discretos, …para contestar al interrogante cuanto debe medir magnitudes físicas continuas, tales como el tiempo, longitud, la temperatura, la velocidad, la corriente eléctrica, etc. (Ginsburg, 1991).

Se encuentra en el ábaco un elemento para contar auxiliar a lo natural del hombre.

Una recta se define como una sucesión infinita de puntos, esto está implícito en el concepto de continuidad, entre dos puntos cualesquiera siempre habrá un punto intermedio. Al acotar nuestro universo al mundo natural, tenemos en cuenta entes enteros, números enteros, entre dos números consecutivos no existirá nunca otro número entero. Esto nos lleva al salto que nos permite acotar nuestra realidad.

En función de los parámetros podemos acotar nuestra realidad sin tocarla pero casi nunca podemos contemplar todas las variables que forman parte de la realidad en un hecho. Al intervenir en un sistema se interfiere en él, lo cual lleva a modificarlo; Por ejemplo el caso de las mediciones eléctricas, donde al medir tensión con un voltímetro o corriente con un amperímetro, se está cometiendo un error en la medición, el cual dependerá de factores tales como calidad del instrumento o el error de paralaje en caso de un instrumento analógico; es por ello que, tenemos una aproximación infinitesimal a la realidad, pero nunca llegaremos a una exactitud de un 100%.

Esto último ha llevado, en los comienzos, a sembrar algunas dudas y desconfianza respecto de la tecnología, especialmente en lo referido a simulación, como bien lo sintetiza el Lic. Neri se trata sin dudas de un cambio en la concepción de la relación entre sujeto y tecnología, dado que durante décadas la tecnología computacional apareció como un objeto externo, incluso amenazante (Neri, 2008).

Hay dos palabras que toman una significación de envergadura a la hora de enseñar y aprender, estas son diálogo y acción (hablar y hacer). Cuando el hombre transmite una idea habla, lo ejecuta con su voz; pero cuando hace, cuando lleva una imagen mental a un producto concreto emplea las manos. Desde tiempos inmemoriales el hombre construye hacia a dentro con su conciencia y hacia fuera con sus manos. Mediante los sentidos se percibe, y el tacto es el que está ligado a lo concreto, a lo externo, a lo que permite conceptualizar el objeto; esto se entiende a partir de que "los conceptos son segmentos de experiencia que forman un dominio coordinado con el de las percepciones" (Durkheim, 2003).

Los simuladores nos permiten de una forma simple representar la realidad sin intervenir en ella. Como todo aquello no puede verse, en el caso de los microcontroladores el problema de no poder ver el funcionamiento del dispositivo lo hace muy difícil. Y lo dificulta aún mas el tener que imaginar el funcionamiento del dispositivo con el cual se debe imaginar el diseño. El que aprende a programar un microcontrolador, debe imaginarse como funciona el dispositivo e imaginar que quiere diseñar con él.

El fin de la educación estriba en proporcionar a las generaciones actuales y porvenir la suma de bienes culturales que la humanidad ha conquistado en el curso de los siglos, "toda educación se efectúa por la participación del individuo en la conciencia social de la raza" (Dewey, 1962). Además en el proceso de formación de ciudadanos íntegros e independientes, la autonomía es un objetivo de peso, lo cual "significa ser capaz de tener en cuenta todos los factores pertinentes al determinar el mejor curso de acción para todos los interesados" (Kamii, 1987).

Teniendo en cuenta esto último, la simulación tiende a complementar los métodos tradicionales de aprendizaje. En el caso particular de los microcontroladores, la dificultad de aprender como funciona un microcontrolador es algo diferente, ya que siendo un dispositivo programable debemos comprender como es su proceso secuencial de funcionamiento e interpretarlo para poder traducir lo requerido a un lenguaje propio que puede decodificar.

Sin duda toda nuestra tecnología comienza con la estructura social del ser humano, pero el motor, el impulso principal al desarrollo continuo se dio con la revolución industrial y el perfeccionamiento de la máquina de vapor de Watt. En esos tiempos el desafío fue crear tecnología sin antecedentes, crear de la nada.

edu.red

En los comienzos la electrónica fue solamente comunicaciones.

El efecto termoiónico fue el principio de las válvulas electrónicas, T. Edison observó este fenómeno en el denominado tríodo. El experimento consistió en una lámpara ordinaria con filamento donde introdujo un electrodo suplementario denominado placa, cuando se introdujo un galvanómetro en el circuito, se produjo la deflexión de la aguja, lo cual indicaba que existía una corriente eléctrica entre la placa y el filamento.

En el siglo IXX se da el gran impulso científico que marcó el avance en los estudios y los conocimientos sobre la electricidad y sus efectos. Faraday y la inducción magnetica, Oreted estudió los efectos de la corriente en un conductor sobre una brújula, Ohm analizó el comportamiento de la corriente producida por una pila termoeléctrica, Joule estudió el efecto térmico de la corriente eléctrica, Maxwell con su teoría del campo electromagnético pudo sintetizar varios fenómenos, Coulomb, Volta, Ampere, Henry, Hertz y otros plantaron las bases para que Marconi aplicara estos conceptos para la radiodifusión.

"Aquí todo es nuevo" (Buch, 2001) con esta expresión Bach en su Tecnoscopio señala al reciente desarrollo electrónico, y bien al comienzo fueron las comunicaciones, electrónica implicaba solamente eso y la válvula de vacío era la pieza fundamental en este rompecabezas. La comunicaciones se realizaban de dos formas, por un lado la telefonía y por otro la radiodifusión. La telefonía utilizaba elementos electromecánicos para generar la comunicación, estos eran los relevadores o relés, los transformadores, las bobinas (inductores), etc. En cambio las radiodifusión necesitaba amplificar una señal eléctrica, generalmente sinodal, y transmitirla a través del aire para que un aparato pueda recibirla. En ambos casos lo que se transmitió al principio fue la voz humana, la cual requería ser codificada en el transmisor y decodificada en el receptor para hacer a la señal eléctrica audible.

El paso siguiente fue el descubrimiento de la transmisión de datos por ambos medios, lo cual llevó por un lado a que un relé no solo podía encontrar un aparato telefónico para conectar otro, sino que también podía determinar que un dispositivo electromecánico, tal como un motor eléctrico que acciona un cambio de vía ferroviario podía operarse a kilómetros de distancia. Por otro lado estuvo el concepto del calculador lo cual derivó en diferentes mecanismos utilizados para sumar, restar y realizar algunas acciones condicionales que pueden considerarse computadoras mecánicas o electromecánicas aunque no se programaban como hoy en día, simplemente se armaban, eran dispositivos electromecánicos, como el desarrollado por Holelerith, quien en la década de 1880 desarrolló un sistema de tarjetas perforadas que permitía clasificar rápidamente información compleja…" (Buch, 2001). Este se basaba en las tarjetas perforadas para producir telas de variados diseños construido por Jacquard en el siglo anterior.

edu.red

No hubo muchas novedades hasta que IBM en 1944 fabrico y puso en servicio un artefacto tecnológico que puede considerarse como la primer computadora, en realidad era un ordenador de datos, la cual cumplía con las operaciones básicas matemáticas y operaciones condicionales, se llamo Mark 1 y su función fue ordenar y clasificar datos; poseía gran cantidad de relés y válvulas electrónicas. Inmediatamente después se construyo la ENIAC, proyectada por Mauchly, tenia 17000 válvulas de 16 tipos diferentes, 70000 resistores y 7500 relés e interruptores, pesaba aproximadamente 30 toneladas, y trabajaba a una frecuencia de 100kHz.

En lo referido al control de mecanismos en la industria, el transporte, y dispositivos militares, a pesar del desarrollo de algunos sistemas automáticos tal como el regulador de Watt, los procesos y procedimientos se efectuaban con lo que hoy denominamos sistemas de control de lazo abierto, donde el operador humano tenia una función importante al ser sus sentidos, tacto, vista, olfato, oído y gusto, los sensores que determinaban la orden para ejecutar una acción sobre un actuador para por ejemplo abrir o cerrar una válvula de paso de un fluido o alimentar con mas o menos carbón una caldera.

La segunda guerra mundial marco un salto cualitativo y cuantitativo en lo que respecta a los desarrollos tecnológicos de todo tipo, cohetería, comunicaciones, transporte, sistemas de producción y también introdujo la simulación como una representación de la realidad debido a las limitaciones de equipamiento y a la rapidez con que debían entrenarse a los diferentes operadores, sobre todo a los pilotos de combate. En todos estos casos los desarrollos eran analógicos, lo cual implicaba un control continuo de las variables físicas que intervenían pero una complejidad enorme respecto de los lazos de realimentación de los sistemas de control.

Una vez finalizado el conflicto, todo ese desarrollo no se detuvo, en 1946 la ENIAC "resolvió en dos horas un problema de física nuclear que hubiera llevado 100 años de trabajo a un hombre", Angulo, 1997 . Se comenzaban a apreciar los beneficios de estos sistemas, pero existía una limitación en cuanto a la potencia de funcionamiento de estos equipos y su tamaño. Por otro lado existía la misma inquietud en cuanto a las comunicaciones debido a que en la pos guerra se incrementaron significativamente.

edu.red

La válvula ele ctrónica consumía mucha energía eléctrica, el crecimiento constante de las comunicaciones hacía necesario disminuir el consumo de los equipos de transmisión, ya que cada vez mas se hacía necesario el ahorro de energía. La Bell Company tenía esto claro y disponía de varios equipos de científicos desarrollando nuevos dispositivos y diferentes sistemas para una mayor eficiencia en las comunicaciones. Fue allí donde en 1947, los físicos Schockley, Brattain y Bardeen, inventaron el transistor; basándose en el descubrimiento de nuevos comportamientos de unos elementos químicos llamados semiconductores, inicialmente germanio y silicio, los cuales presentaban un comportamiento similar al de la válvula electrónica cuando se los trataba químicamente en forma secuencial con diferentes gases tales como el indio y el arsénico. Inmediatamente después de su invención comenzó a ocupar el lugar que tenía la válvula de vacío en el campo de la amplificación de señales.

El desarrollo de nuevos circuitos donde se instalaban transistores en un solo paquete comenzó a comercializarse a principios de los 60, estos primeros circuitos fueron llamados híbridos, ya que si bien se integraban transistores, los componentes pasivos, tales como resistores y capacitores se adicionaban mecánicamente al dispositivo conformando una unidad, en principio solo se integraban unos pocos transistores, pero la tecnología fue creciendo a pasos agigantados hasta nuestros días.

Este progreso fue permitiendo la fabricación de diferentes dispositivos complementarios, las memorias son un ejemplo de esto, en principio se diseñaron relevadores de retención mecánica, luego fueron las memorias magnéticas, pero el concepto de guardar información fue concretado con el llamado flip-flop. Este dispositivo es un conjunto de transistores conectados de tal forma que funcionan como un oscilador biestable, el cual tiene dos testados, alto "1" y bajo "0", o sea un bit. Una combinación adecuada de unos y ceros nos permite identificar palabras, eventos, estados de sensores, etc.

edu.red

Lo analógico y lo digital son conceptos opuestos, en la naturaleza todos los fenómenos son analógicos, un ejemplo claro es la variación de la temperatura de un objeto o líquido cuando se calienta. El control industrial se realizó hasta hace algunos años mediante sistemas analógicos continuos como se mencionó anteriormente, pero una vez detectado por la industria el concepto de lo digital, este corrió como reguero de pólvora por su sencillez y economía.

edu.red

A medida que se integraban más dispositivos en un circuito, este se volvía más complejo y el comportamiento del transistor de juntura perdía rendimiento por su baja eficiencia respecto del ruido y su comportamiento comparado con la válvula era poco satisfactorio. La técnica empleada para integrar dispositivos se llama TTL (transistor transistor logic – lógica transistor transistor). En los integrados de LSI (large scale integration – integración a gran escala) se utiliza otro transistor, el FET (field efect transistor – transistor de efecto de campo), este no solo es mas sencillo de fabricar, es muy similar al primer modelo, sino que también tiene un mejor comportamiento ante el ruido y las sobrecargas. El tipo más empleado es el MOSFET (metal-oxide semiconductor field efect transistor – transistor de efecto de campo de metal oxido semiconductor).

edu.red

En este punto estamos en la alborada del primer microprocesador, una empresa llamada Intel, dedicada a la construcción de memorias, en 1971 diseña un dispositivo para controlar un monitor de video a solicitud de la empresa Datapoint; el resultado fue un procesador que controlaba 4 bits en forma simultánea, formaba palabras de 4 bits. La empresa que encargó el dispositivo no lo utilizó debido a que la velocidad de respuesta era inadecuada al controlar una salida para un monitor. Sin embargo como los costos de desarrollo estaban amortizados, Intel incluyó en su catalogo el dispositivo y grande fue la sorpresa porque la demanda fue creciendo constantemente. Esto animó a los técnicos e ingenieros a desarrollar nuevos dispositivos.

El primer microprocesador de 8 bits fue el 8080, luego apareció una versión mejorada, el 8085, pero hubo otras compañías que comenzaron a trabajar en el mismo sentido, Motorola, Sun Microsistem, Digital Equipment Co., Apple son algunas de las que siguieron la estela de Intel.

edu.red

Todo esto dio origen a la computadora personal (PC). Hasta mediados de los 70, el acceso a una computadora estaba restringido a las grandes compañías o a la administración pública, compañias como IBM y NCR dominaban el mercado, para las empresas pequeñas y medianas instalar un sistema informático era realmente costoso y desalentaba cualquier inversión en tal sentido. Sin embargo los nuevos dispositivos permitían prestaciones similares a la de los grandes computadores pero a pequeña escala y a un precio mucho menor, empresas como Apple o Sinclair comercializaban las llamadas PC. El éxito fue tal que para 1980 los gigantes de la informática comenzaron a prestar atención a este equipo y lo implementaron.

Hemos visto hasta aquí como se transformó la computadora desde la primera Mark I hasta la primera PC, Intel ha llevado la delantera del desarrollo de micro procesadores hasta no hace mucho, pero ahora han surgido otras empresas como AMD que le han salido al cruce con buenos resultados, desde la serie 80X86 hasta Celerom y los nuevos micros con múltiple núcleo se han ido desarrollando basados en el 8085.

Ahora, ¿como es el procedimiento con el que el programador le dice al micro que tiene que hacer, o mejor dicho, que se espera que haga?. Como vimos al principio la programación se hacía modificando las conexiones eléctricas, lo cual resultaba muy engorroso, cada vez que se quería hacer una consulta diferente se debía desconectar y volver a conetar una serie de cables predeterminada. Ante este problema, y siempre con la idea de que una computadora sirva para varias tareas, J. Von Newmann propuso modificaciones a la ENIAC, "…construyó en 1952 el EDVAC, que representaba importantes modificaciones respecto a su procesador:

  • (1) Aritmética binaria codificada: al realizarse los cálculos aritméticos con este sistema, se simplificaron los circuitos encargados de su resolución.

  • (2) Programa almacenado: al usar esta forma de trabajo, en lugar del programa cableado, se mantenía invariablemente la arquitectura física del ordenador."

(Angulo, 1992) esto dio origen al software (componente blando) haciendo referencia a la parte no rígida del microprocesador.

El micro debe interpretar un código binario adecuado con 1 y 0, muy simple para él, pero engorroso para el programador. La primera simplificación consistió en programar mediante un código hexadecimal, o sea los números van del 0 al 9 mas las letras A, B, C, D, E y F, con lo cual se consiguen 2 x 23 combinaciones binarias de unos y ceros. Pero como el hombre es un animal simbólico (Casirer, 2000), se creo un lenguaje denominado mnemónico o mnemotécnico donde combinaciones de letras representaban las abreviaturas correspondientes a las palabras que identificaban las instrucciones a ejecutar por el microprocesador en idioma ingles. En el cuadro siguiente se muestran las instrucciones en diferentes codificaciones:

Instrucción

Lenguaje de máquina

Hexadecimal

Nemónico

Sumar

1111 0000

F0

ADD

Restar

10101010

AA

SUB

Cargar el acumulador

01110011

73

LDA

Almacenar el acumulador

00101111

2F

STA

Operación and

00011011

1B

AND

Si bien es mucho mas sencillo programar en mnemonico que en hexadecimal y muchisimo mas que hacerlo en binario, el micro solo interpreta este último sistema de numeración, con lo cual hace falta un traductor denominado "ensamblador" para la interpretación del porgrama por parte del dispositivo. Este lenguaje es muy útil cuando uno se encuentra en la etapa de aprendizaje del micro, ya que permite conocer la arquitectura del mismo, todas sus posibilidades de programación y su usabilidad.

Existen distintos tipos de instrucciones las cuales pueden ser interpretadas por el micro, tales como aritméticas, lógicas, de transferencia, de lectura, de escritura, de salto, de bifurcación, etc., todas están definidas para poder leer los datos guardados en memoria y procesarlos de acuerdo a la secuencia de instrucciones especificada por el programador. Al mismo tiempo cada instrucción tiene un modo de direccionamiento mediante el cual se define de que forma se relaciona la instrucción con el operando, o sea de que forma va a buscar e identificar dato e instrucción.

Existen otros lenguajes, tales como el Visual Basic, Pascal y C, los cuales son de alto nivel, o sea sus instrucciones deben ser interpretadas y traducidas al leguaje del micro por un programa denominado compilador. Esto permite trabajar con una estructura de programación orientada a objeto, con todas las ventajas que ello implica.

Un grado de simbolismo mayor representa el diagrama de flujo, este permite plasmar la idea de un programa mediante rectángulos y rombos, de forma que el programador puede representar la idea del proyecto en forma general sin necesidad de definir instrucciones, lo cual permite llevar la idea a cualquier lenguaje de programación.

El microprocesador necesita de diferentes dispositivos para interactuar con su operador, esto es módulos de entrada, módulos de salida y memorias, la mayoría de los dispositivos consta de una unidad central de proceso con una unidad operativa. Para armar una computadora hay que conectarle los circuitos adicionales que permitan conectar al chip con el mundo exterior. Para un equipo fijo de oficina esto no es problema, pero para la industria esto representa conexiones que implican fallas y elevación de costos.

Los avances de la tecnología MOS permitieron que todos los dispositivos antes mencionados puedan ser instalados en un solo chip, a esto se lo llama microcontrolador, estos contienen los siguientes dispositivos:

  • Unidad Central de Proceso

  • Memoria dedicada Flash

  • Memoria de soporte de datos temporales RAM

  • Módulos de entrada y salida tales como temporizadores y puertos paralelo y serie.

Debido a que los sistemas de control en tiempo real no necesitan una gran capacidad de memoria, las variables a controlar son discretas, la cantidad de periféricos es pequeña y los sistemas ejecutan siempre el mismo programa, son dedicados, el microcontrolador tuvo una gran cabida y un rápido desarrollo dentro de la industria, diferentes controles de tráfico y equipos de seguridad.

Si bien Intel ha desarrollado un poderoso microcontrolador, el 8052, otras empresas como Microchip con su Pic y Motorola con su HC08 han copado el mercado tanto de hobistas como de la industria con dispositivos que van desde el manejo de palabras de 4 bit hasta palabras de 32 bit, conformando un abanico de productos que satisfacen diferentes necesidades técnicas y económicas.

Los Fabricantes y sus Modelos de Microcontroladores:

  • INTEL: 8048,8051,80C196,80386

  • MOTOROLA: 6805,68HC908,68HC11 y 68HC12.

  • HITACHI: HD64180

  • PHILIPS: 8051

  • SGS-THOMSON: ST-62XX

  • NATIONAL SEMICONDUCTOR: COP400,COP800

  • ZILOG: Z8,Z86XX

  • TEXAS INSTRUMENTS: TMS370

  • TOSHIBA: 68HC11

  • MICROCHIP: PIC

Para este trabajo se ha elegido el microcontrolador de Motorola 68HC908, el cual posee una amplia familia y un satisfactorio soporte comercial tanto para hobistas como para profesionales.

El gran simulador

Como se mencionó anteriormente, la simulación tiene múltiples aplicaciones, sus técnicas se han aplicado a diferentes ciencias para la solución de problemas; en física o química, donde las variables aleatorias toman un papel preponderante "a fines de 1940 von Newmann y Ulam acuñaron un término (análisis de Monte Carlo) para aplicarlo a una técnica matemática que usaban entonces para resolver ciertos problemas de protección nuclear" (Naylor, 2002). El ordenador abrió un panorama enorme a esta técnica con la posibilidad de crear modelos matemáticos que permitieran representar un fenómeno sin necesidad de realizar el experimento y manipular variables discretas y establecer variables aleatorias de forma tal de intentar predecir los resultados de un experimento real.

A continuación se enumeran diferentes definiciones sobre simulación:

…es una técnica numérica para conducir experimentos en una computadora, estos experimentos comprenden ciertos tipos de relaciones matemáticas y lógicas, las cuales son necesarias para describir el comportamiento y la estructura de sistemas complejos del mundo real a través de largos periodos de tiempo. Thomas Naylor

…es el desarrollo de un modelo lógico matemático de un sistema, de tal forma que se tiene una imitación de la operación de un proceso de la vida real o de un sistema a través del tiempo. La simulación involucra la generación de una historia artificial de un sistema, la observación de esta historia mediante la manipulación experimental, nos ayuda a inferir las características operacionales de tal sistema. Jerry Banks.

La predicción del futuro es uno de los principios que ha movido a la humanidad, saber que sucederá mañana "el fundamento racional para usar la simulación en cualquier disciplina (sea economía o investigación científica) es la búsqueda constante del hombre por adquirir conocimientos relativos a la predicción del futuro" (Naylor, 2004). Pues bien, en la actualidad nuestra predicción esta orientada al estudio de los fenómenos, muchas veces por cuestiones económicas, un ejemplo de ello es el éxito de la simulación en la carrera especial, tanto los científicos rusos como estadounidenses han desarrollado simuladores que permitieron predecir el comportamiento de las expediciones realizadas al espacio con un grado de certeza elevado.

Las técnicas de simulación demostraron su eficiencia en diferentes campos de la ciencia, pero, como es costumbre, la educación siempre esta a la cola de todo esto. Los alumnos, de todos los niveles sufren la inflexibilidad de un sistema excesivamente academicista basado en clases magistrales, en muchos casos alejadas de la realidad de los alumnos. J. Dewey sienta las bases para esta discusión y pone sobre el tapete el exceso de teoría en el sistema educativo en su libro Experiencia y Educación.

Toda simulación se basa en un modelo matemático, Naylor establece 4 según la siguiente clasificación:

  • Determinísticos

  • Estocásticos

  • Estáticos

  • Dinámicos

En nuestro caso el modelo que corresponde a un simulador del tipo que nos interesa es determinístico, ya que ninguna variable es aleatoria, todas están relacionadas con el funcionamiento esperado del sistema sin necesidad de recurrir a funciones probabilísticas. En todo proceso, un hecho es consecuencia de otro, por ejemplo el sistema de control para el llenado de un tanque de líquido tiene sus variables determinadas que indican los niveles máximo y mínimo indicarán cuando debe funcionar o no el motor que acciona la bomba que introducirá fluido en él.

El presente trabajo se centra en la línea de microcontroladores de Motorola, esta empresa posee un simulador sencillo, denominado WinIde, muy sencillo, y otro denominado Corel Warrior el cual permite diseñar sistemas complejos porgramando en lenguaje C. Esto implica que el diseñador debe conocer programación orientada a objeto, muy útil para realizar proyectos de gran elaboración y complejidad, pero difícil de manejar para principiantes que están realizando sus primeros pasos en la programación de microcontroladores.

El Win Ide permite elaborar proyectos con el dispositivo de forma directa, sencilla y amigable, tanto al proyectista como al alumno, accediendo al manejo y observación de la evolución de las diferentes variables que se procesan en el transcurrir de un programa juntamente con los pasos de ejecución y el estado de los registros del micro.

El MC68HC908QT es un miembro de la familia de bajo costo y alto rendimiento del microcontrolador M68HC08 de 8-bit (MCU – Micro Controller Units). La misma posee un complejo listado de instrucciones de computadoras (CISC – Complex Instruction Set Computer), diseñado con una arquitectura Von Neumann. Todos los MCUs de la familia utilizan la misma unidad central proceso (MCU – Central Procesor Unit) y están disponibles con una variedad de módulos, tipos, tamaños de memoria, y envases (chips).

edu.red

Figura 1-1

Sus principales características son:

• Alto rendimiento de la MCU principal M68HC08.

• El código objeto es totalmente compatible con la familia M68HC05.

• Las tensiones de funcionamiento van de 3 a 5V de corriente continua.

• La frecuencia de funcionamiento del bus interno es de 8-MHz para 5 V, 4-MHz a 3 V.

• Oscilador interno seccionable

– 3.2 MHz de bus interno de funcionamiento

– capacidad de 8-bits permite recortar 0,4% de precisión

– ± 25% sin recortar

• Encendido automático de parada (despertador).

• Capacidad de configuración individual de registros (CONFIG) las opciones de configuración MCU, incluyendo inhibición por baja tensión (LVI – Low Voltage Inhibit)

• Sistema de programación de memoria FLASH

• Seguridad de memoria Flash

• Memoria Flash programable en el chip 4096 byte.

• 128 bytes en el chip de memoria de acceso aleatorio (RAM)

• Canal de interfaz de módulo temporizador (TIM – Timer Interface Module)

• 6-bit de interrupción de teclado con la función de despertador (KBI)

edu.red• Inhibición por baja tensión (LVI) del módulo de funciones

• Pata de interrupción de factores externos asíncronos con pull up interna (IRQ)

• Pata de restablecimiento maestra asincrónica (RST),

• Reseteado de energía en los pull up

edu.red• IRQ y RST internos para reducir los componentes externos de memoria asignada

• Mapa de registros I / O

• Ahorro de energía mediante opción de dormir y despertar

edu.red

Imagen del micro controlador

En el cuadro siguiente se describen el nombre, la función y las opciones de entrada y salida de cada pata o pin del micro:

Partes: 1, 2
Página siguiente