domingo, 21 de marzo de 2010

5.4 ESTÁNDARES SOBRE LOS PROCEDIMIENTOS DE ENTRADA DE DATOS, PROCESAMIENTO DE INFORMACIÓN Y EMISIÓN DE RESULTADOS

5.4 ESTÁNDARES SOBRE LOS PROCEDIMIENTOS DE ENTRADA DE DATOS, PROCESAMIENTO DE INFORMACIÓN Y EMISIÓN DE RESULTADOS

Procesamiento de datos:

El objetivo es graficar el Procesamiento de Datos, elaborando un Diagrama que permita identificar las Entradas, Archivos, Programas y Salidas de cada uno de los Procesos.

 Su antecedente es el Diagrama de Flujo.

 Los elementos claves son los Programas.

 Se confecciona el Diagrama de Procesamiento de Datos

 Este Diagrama no se podrá elaborar por completo desde un primer momento ya que depende del Flujo de Información.

 En este primer paso sólo se identifican las Salidas y Programas. Los elementos restantes se identifican en forma genérica.

Validación de datos:

Consiste en asegurar la veracidad e integridad de los datos que ingresan a un archivo. Existen numerosas técnicas de validación tales como:

Digito verificador, chequeo de tipo, chequeo de rango.

Concepto de Procesamiento Distribuido y Centralizado

Procesamiento Centralizado:

En la década de los años 50’s las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes características:

• Un CPU

• Pequeña cantidad de RAM

• Dispositivos DC almacenamiento secundario (cintas)

• Dispositivos d salida (perforadoras de tarjetas)

• Dispositivos de entrada (lectores de tarjeta perforada)

Con el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en sofisticación, Aunque la industria continuaba siendo dominada por las computadoras grandes “mainframes”. A medida que la computación evolucionaba, las computadoras, fueron capaces de manejar aplicaciones múltiples simultáneamente, convirtiéndose en procesadores centrales “hosts” a los que se les conectaban muchos periféricos y terminales tontas que consistían solamente de dispositivos de entrada/salida (monitor y teclado) y quizá poco espacio de almacenamiento, pero que no podían procesar por sí mismas. Las terminales locales se conectaban con el procesador central a través de interfaces seriales ordinarias de baja velocidad, mientras que las terminales remotas se enlazaban con El “host” usando módems y líneas telefónicas conmutadas. En este ambiente, se ofrecían velocidades de transmisión de 1200, 2400, o 9600 bps.

Un ambiente como el descrito es lo que se conoce como procesamiento centralizado en su forma más pura “host/terminal”. Aplicaciones características de este tipo de ambiente son:

• Administración de grandes tuses de datos integradas

• Algoritmos científicos de alta velocidad

• Control de inventarios centralizado

Al continuar la evolución de los “mainframes”, estos se comenzaron a conectar a enlaces de alta velocidad donde algunas tareas relacionadas con las comunicaciones se delegaban a otros dispositivos llamados procesadores comunicaciones “Front End Procesos” (I7EP’s) y controladores de grupo “Cluster Controllers” (CC’s).

Procesamiento Distribuido:

El procesamiento centralizado tenía varios inconvenientes, entre los que podemos mencionar que un número limitado de personas controlaba el acceso a la información y a los reportes, se requería un grupo muy caro de desarrolladores de sistemas para crear las aplicaciones, y los costos de mantenimiento y soporte eran extremadamente altos. La evolución natural de la computación fue en el sentido del procesamiento distribuido, así las minicomputadoras (a pesar de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del procesamiento que tenían los “mainframes”.

Ventajas

Existen cuatro ventajas del procesamiento de bases de datos distribuidas:

La primera, puede dar como resultado un mejor rendimiento que el que se obtiene por un procesamiento centralizado. Los datos pueden colocarse cerca del punto de su utilización, de forma que el tiempo de comunicación sea mas corto. Varias computadoras operando en forma simultánea pueden entregar más volumen de procesamiento que una sola computadora.

La Segunda, los datos duplicados aumentan su confiabilidad. Cuando falla una computadora, se pueden obtener los datos extraídos de otras computadoras. Los usuarios no dependen de la disponibilidad de una sola fuente para sus datos.

Una tercera ventaja, es que los sistemas distribuidos pueden variar su tamaño de un modo más sencillo. Se pueden agregar computadoras adicionales a la red conforme aumentan el número de usuarios y su carga de procesamiento. A menudo es más fácil y más barato agregar una nueva computadora más pequeña que actualizar una computadora única y centralizada.

Después, si la carga de trabajo se reduce, el tamaño de la red también puede reducirse.

Por último, los sistemas distribuidos se pueden adecuar de una manera más sencilla a las estructuras de la organización de los usuarios.

No hay comentarios:

Publicar un comentario en la entrada