jueves, 24 de noviembre de 2011
martes, 22 de noviembre de 2011
Virus
Concepto:
Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

ANTIVIRUS :
En un principio se limitaban a eliminar los virus sin mayores complicaciones en sus nombres, pero a medida que las técnicas de infección han mejorado, la forma de actuar de un antivirus también ha mejorado, utilizando grandes bases de datos con muchas combinaciones y señales que pueden detectar inmediatamente.
Dentro de este avance en las técnicas de infección, los antivirus se han dividido en categorías que apuntan hacia cada amenaza en particular.

MALWARE: son aquellos programas o partes de ellos que tienen un efecto malicioso en la seguridad de tu ordenador. Este término engloba muchas definiciones las cuales de seguro ya has oído hablar como “Virus”, “Worm (gusano)” y “Trojan (troyano)” y otras de las que posiblemente no hayas oído hablar como “Rootkit”, “Logicbomb (bomba lógica)” y“Spyware”. Este capítulo presentará, definirá y explicará cada una de estas subclases de malware, brindará ejemplos y explicará algunas de las contramedidas que pueden ser puestas en práctica para restringir los problemas que causa.
Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más inofensivos, que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.
ANTIVIRUS :
Es un programa creado para prevenir o evitar la activación de los virus, así como su propagación y contagio. Cuenta además con rutinas de detención, eliminación y reconstrucción de los archivos y las áreas infectadas del sistema.
Un antivirus es una aplicación orientada a prevenir, detectar, y eliminar programas maliciosos denominados virus, los cuales actúan dañando un sistema informático con diversas técnicas.En un principio se limitaban a eliminar los virus sin mayores complicaciones en sus nombres, pero a medida que las técnicas de infección han mejorado, la forma de actuar de un antivirus también ha mejorado, utilizando grandes bases de datos con muchas combinaciones y señales que pueden detectar inmediatamente.
Dentro de este avance en las técnicas de infección, los antivirus se han dividido en categorías que apuntan hacia cada amenaza en particular.
MALWARE: son aquellos programas o partes de ellos que tienen un efecto malicioso en la seguridad de tu ordenador. Este término engloba muchas definiciones las cuales de seguro ya has oído hablar como “Virus”, “Worm (gusano)” y “Trojan (troyano)” y otras de las que posiblemente no hayas oído hablar como “Rootkit”, “Logicbomb (bomba lógica)” y“Spyware”. Este capítulo presentará, definirá y explicará cada una de estas subclases de malware, brindará ejemplos y explicará algunas de las contramedidas que pueden ser puestas en práctica para restringir los problemas que causa.
Sistema operativo
Concepto:
Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, que es el núcleo del sistema operativo GNU, del cual existen las llamadas distribuciones GNU. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar. (Véase AmigaOS, beOS o MacOS como los pioneros de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.
Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos electrónicos que utilizan microprocesadores para funcionar, llevan incorporado un sistema operativo. (teléfonos móviles, reproductores de DVD, computadoras, radios, enrutadores, etc).
propietarios: Los sistemas propietarios, son aquellos en los que una o mas condiciones de las ya citadas,no se cumplen. El caso mas cercano a todos, Microsoft Windows.
Libertad 0: Sos libre de ejecutarlo cuando quieres (se cumple)
Libertad 1: No podes estudiar el código fuente.
Libertad 2: No podes realizar una copia y pasársela a tu vecino, o instalar la misma versión con el mismo numero de serie en la computadora de escritorio y la laptop. Esto es ilegal.
Libertad 3: No podes modificarla. (hay muchas versiones modificadas, pero para hacerlas, debieron realizar ingeniería inversa a los archivos de Windows, haciendo de este una actividad ilegal)
código abierto (open source): Código abierto es el término con el que se conoce al software distribuido y desarrollado libremente. El código abierto tiene un punto de vista más orientado a los beneficios prácticos de compartir el código que a las cuestiones éticas y morales las cuales destacan en el llamado software libre.
LINUX:
GNU/Linux es uno de los términos empleados para referirse a la combinación del núcleo o kernel libre similar a Unix denominado Linux, que es usado con herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo su código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU, en inglés: General Public License) y otra serie de licencias libres.
A pesar de que Linux es, en sentido estricto, el sistema operativo,[2] parte fundamental de la interacción entre el núcleo y el usuario (o los programas de aplicación) se maneja usualmente con las herramientas del proyecto GNU o de otros proyectos como GNOME. Sin embargo, una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar el término Linux para referirse a la unión de ambos proyectos.
A las variantes de esta unión de programas y tecnologías, a las que se les adicionan diversos programas de aplicación de propósitos específicos o generales se las denomina distribuciones. Su objetivo consiste en ofrecer ediciones que cumplan con las necesidades de un determinado grupo de usuarios. Algunas de ellas son especialmente conocidas por su uso en servidores y supercomputadoras.[3] donde tiene la cuota más importante del mercado. Según un informe de IDC, GNU/Linux es utilizado por el 78% de los principales 500 servidores del mundo,[4] otro informe le da una cuota de mercado de 89% en los 500 mayores supercomputadores.[5] Con menor cuota de mercado el sistema GNU/Linux también es usado en el segmento de las computadoras de escritorio, portátiles, computadoras de bolsillo, teléfonos móviles, sistemas embebidos, videoconsolas y otros dispositivos.
Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, que es el núcleo del sistema operativo GNU, del cual existen las llamadas distribuciones GNU. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar. (Véase AmigaOS, beOS o MacOS como los pioneros de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.
Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos electrónicos que utilizan microprocesadores para funcionar, llevan incorporado un sistema operativo. (teléfonos móviles, reproductores de DVD, computadoras, radios, enrutadores, etc).
propietarios: Los sistemas propietarios, son aquellos en los que una o mas condiciones de las ya citadas,no se cumplen. El caso mas cercano a todos, Microsoft Windows.
Libertad 0: Sos libre de ejecutarlo cuando quieres (se cumple)
Libertad 1: No podes estudiar el código fuente.
Libertad 2: No podes realizar una copia y pasársela a tu vecino, o instalar la misma versión con el mismo numero de serie en la computadora de escritorio y la laptop. Esto es ilegal.
Libertad 3: No podes modificarla. (hay muchas versiones modificadas, pero para hacerlas, debieron realizar ingeniería inversa a los archivos de Windows, haciendo de este una actividad ilegal)
código abierto (open source): Código abierto es el término con el que se conoce al software distribuido y desarrollado libremente. El código abierto tiene un punto de vista más orientado a los beneficios prácticos de compartir el código que a las cuestiones éticas y morales las cuales destacan en el llamado software libre.
LINUX:
GNU/Linux es uno de los términos empleados para referirse a la combinación del núcleo o kernel libre similar a Unix denominado Linux, que es usado con herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo su código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU, en inglés: General Public License) y otra serie de licencias libres.
A pesar de que Linux es, en sentido estricto, el sistema operativo,[2] parte fundamental de la interacción entre el núcleo y el usuario (o los programas de aplicación) se maneja usualmente con las herramientas del proyecto GNU o de otros proyectos como GNOME. Sin embargo, una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar el término Linux para referirse a la unión de ambos proyectos.
A las variantes de esta unión de programas y tecnologías, a las que se les adicionan diversos programas de aplicación de propósitos específicos o generales se las denomina distribuciones. Su objetivo consiste en ofrecer ediciones que cumplan con las necesidades de un determinado grupo de usuarios. Algunas de ellas son especialmente conocidas por su uso en servidores y supercomputadoras.[3] donde tiene la cuota más importante del mercado. Según un informe de IDC, GNU/Linux es utilizado por el 78% de los principales 500 servidores del mundo,[4] otro informe le da una cuota de mercado de 89% en los 500 mayores supercomputadores.[5] Con menor cuota de mercado el sistema GNU/Linux también es usado en el segmento de las computadoras de escritorio, portátiles, computadoras de bolsillo, teléfonos móviles, sistemas embebidos, videoconsolas y otros dispositivos.
Concepto de programa
Concepto de programa
Un programa de computadora es un conjunto de instrucciones que producirán la ejecución de una determinada tarea.
En esencia, un programa es un medio para llegar a un fin.
El fin será normalmente definido como la información necesaria para solucionar un problema.
En conclusión programa es el proceso para solucionar un problema.
El desarrollo de un programa requiere las siguientes fases:
- Definición y análisis del problema
- Diseño de algoritmo
- Diagrama de flujo
- Diagrama N – S
- Pseudo código.
- Codificación del programa.
- Depuración y verificación del programa.
- Documentación.
- Mantenimiento.
|
jueves, 17 de noviembre de 2011
Yottabyte
Un yottabyte es una unidad de almacenamiento de información cuyo símbolo es el YB, y equivale a 1024 bytes.
Existe cierta confusión con respecto a esta medida (1024 bytes) y 280 bytes que es lo mismo que 1.237.940.039.285.380.274.899.124.224 bytes. Para evitar esa confusión se emplea el término yobibyte.
Conversiones
- Bit (b): unidad básica que representa un dígito binario (0 o 1)
- Byte (B): 8 bit
- Kilobyte (kB): 1024 bytes
- Megabyte (MB): 1024 kB
- Gigabyte (GB): 1024 MB
- Terabyte (TB) : 1024 GB
- Petabyte (PB): 1024 TB
- Exabyte (EB): 1024 PB
- Zettabyte (ZB): 1024 EB
- Yottabyte (YB): 1024 ZB
Zettabyte
Un zettabyte es una unidad de almacenamiento de información cuyo símbolo es el ZB, equivale a 1021 bytes.
El prefijo viene adoptado en 1991, viene del latín "septem", que significa siete (como hepta-), pues equivale a 10007.
1000 zettabytes equivalen a un yottabyte.
Esta capacidad de información aun no ha sido generada en el mundo, aunque se estima que a finales del año 2011 se alcanzará la cifra de 1.8 ZB.[1Exabyte
Un exabyte es una unidad de medida de almacenamiento de información cuyo símbolo es el EB, equivale a 1018 bytes.
El prefijo viene adoptado en 1991, viene del griego ἕξ, que significa seis (como hexa-), pues equivale a 10006.
1000 exabytes equivalen a un zettabyte.
Ejemplos
- El tráfico anual de Internet se estima en entre 5 y 8 exabytes.[1]
- El tamaño de Internet (entendido como almacenamiento digital global) se estima en cerca de 500 exabytes.[2
Petabyte
es una unidad de almacenamiento de información cuyo símbolo es el PB, y equivale a 1015 bytes = 1.000.000.000.000.000 de bytes. El prefijo peta viene del griego πέντε, que significa cinco, pues equivale a 10005 ó 1015. Está basado en el modelo de tera, que viene del griego ‘monstruo’, pero que es similar (excepto una letra) a tetra-, que viene de la palabra griega para cuatro y así peta, que viene de penta-, pierde la tercera letra, la n.
A menudo se confunden los petabytes con los pebibytes (PiB), siendo estos en base 2, de manera que un PiB es equivalente a 250 bytes, ó 1 125 899 906 842 624 bytes
1000 petabytes equivalen a un exabyte.
Terabyte
Un terabyte es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 1012 bytes.
Cantidad de bytes que posee un terabyte
- 1 bit = unidad mínima de almacenamiento, sistema binario(0 ó 1).
- 1 byte (B) = 8 bit
- 1 kB = 1000 byte
- 1 MB = 1000 kB
- 1 GB = 1000 MB
- 1 TB = 1000 GB
- 1 PB = 1000 TB
- 1 KiB = 1024 byte
- 1 MiB = 1024 KiB
- 1 GiB = 1024 MiB
- 1 TiB = 1024 GiB
- 1 PiB = 1024 TiB
Gigabyte
Un gigabyte es una unidad de almacenamiento de información cuyo símbolo es el GB, equivale a 109 bytes.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos, por otro lado la gran mayoría de los dispositivos de almacenamiento se miden en base diez.
Giga proviene del griego γίγας, /Jigas/ que significa gigante. En lenguaje coloquial, "Gigabyte" se abrevia a menudo como giga
El uso de gigabytes
Desde 1996, la mayoría de los discos duros y SSD se miden en el rango de capacidades de gigabytes. A mediados de 2010, el coste por gigabyte era entre 0,40-0,65 Euros (€), o bien 0,51-0,72 Dólares ($).
El gigabit —que no debe ser confundido con el gigabyte—, es 1/8 de un gigabyte, puesto que está referido a bits en lugar de a bytes, y se abrevia como Gb (o Gbit) (nótese la letra b minúscula). Se usa principalmente para describir el ancho de banda y las tasas de transmisión de flujos de datos de alta velocidad (por ejemplo: la velocidad actual de las interfaces de fibra óptica es de 2 Gbit/s).
El alfabeto Unicode tiene un símbolo para gigabyte: (㎇).
Mbyte
El megabyte (MB) o megaocteto (Mo) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del byte u octeto, que equivale a 106 bytes.
Se representa por MB y no por Mb, cuya correspondencia equivaldría a megabit. Coloquialmente a los megabytes se les denomina megas.
Es la unidad más típica actualmente, junto al múltiplos inmediatamente superior, el gigabyte, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes.
Ejemplos de uso
Dependiendo de los métodos de compresión de datos y el formato de archivo, un megabyte de información más o menos puede ser:
- Una imagen de mapa de bits sin comprimir de 1000 × 1000 píxeles con 256 colores (profundidad de color de 8 bits por píxel).
- 1 minuto de música en formato .mp3, comprimido a 128 kbit/s.
- 6 segundos de audio de CD sin comprimir. Un CD puede almacenar aproximadamente 700 MB, que equivalen a 80 minutos de música sin comprimir.
- Un volumen típico de un libro en formato de texto (500 páginas × 2000 caracteres por página).
- Un disquete de 1,44 MB puede almacenar 1.474.560 bytes de información. MB en este contexto significa 1024 × 1000 bytes.
jueves, 10 de noviembre de 2011
Kbyte
Un kilobyte (pronunciado /kilobáit/ o en una jerga más popular /ká/) es una unidad de almacenamiento de información cuyo símbolo es el kB y equivale a 103 bytes. Aunque el prefijo griego kilo- (χίλιοι) significa mil, el término kilobyte y el símbolo KB se han utilizado históricamente para hacer referencia tanto a 1024 (210) bytes como a 1000 (103) bytes, dependiendo del contexto, en los campos de la informática y de la tecnología de la información.
Para solucionar esta confusión, la Comisión Electrotécnica Internacional publicó en 1998 un apéndice al estándar IEC 60027-2 donde se instauraban los prefijos binarios, naciendo la unidad kibibyte para designar 210 bytes y considerándose el uso de la palabra kilobyte no válido a dichos efectos.
Para solucionar esta confusión, la Comisión Electrotécnica Internacional publicó en 1998 un apéndice al estándar IEC 60027-2 donde se instauraban los prefijos binarios, naciendo la unidad kibibyte para designar 210 bytes y considerándose el uso de la palabra kilobyte no válido a dichos efectos.
BIT
Bit es el acrónimo Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
BYTE
Byte es una palabra inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto (es decir a ocho bits), para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.
Se usa comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término "octeto" se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bits).
Se usa comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término "octeto" se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bits).
jueves, 3 de noviembre de 2011
Concepto de sistema binario
El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).
Clasificacion de perifericos
Tipos de periféricos
Los periféricos pueden clasificarse en 5 categorías principales:
Son ejemplos de periférico de entrada/salida o de almacenamiento:
Los periféricos pueden clasificarse en 5 categorías principales:
- Periféricos de entrada: captan y digitalizan los datos de ser necesario, introducidos por el usuario o por otro dispositivo y los envían al ordenador para ser procesados.
- Periféricos de salida: son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
- Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación de la computadora con el medio externo.
Son ejemplos de periférico de entrada/salida o de almacenamiento:
- Disco duro
- Grabadora y/o lector de CD
- Grabadora y/o lector de DVD
- Impresora
- Memoria flash
- Cintas magnéticas
- Memoria portátil
- Disquete
- Pantalla táctil
- Casco virtual
- Grabadora y/o lector de CD
- Grabadora y/o lector de DVD
- Grabadora y/o lector de Blu-ray
- Grabadora y/o lector de HD-DVD
- Periféricos de almacenamiento: son los dispositivos que almacenan datos e información por bastante tiempo. La memoria de acceso aleatorio no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y temporal.
- Periféricos de comunicación: son los periféricos que se encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información.
Características de un computador: almacenamiento de información y velocidad de proce¬samiento.
Dispositivo de almacenamiento es todo aparato que se utilice para grabar los datos de la computadora de forma permanente o temporal. Una unidad de disco, junto con los discos que graba, es un dispositivo de almacenamiento.
A veces se dice que una computadora tiene dispositivos de almacenamiento primarios (o principales) y secundarios (o auxiliares). Cuando se hace esta distinción, el dispositivo de almacenamiento primario es la memoria de acceso aleatorio RAM de la computadora, un dispositivo de almacenamiento permanente pero cuyo contenido es temporal. El almacenamiento secundario incluye los dispositivos de almacenamiento más permanentes, como unidades de disco y de cinta.
La velocidad de un dispositivo se mide por varios parámetros: la velocidad máxima que es capaz de soportar, que suele ser relativa, en un breve espacio de tiempo y en las mejores condiciones; la velocidad media, que es la que puede mantener de forma constante en un cierto período, y, por último, el tiempo medio de acceso que tarda el dispositivo en responder a una petición de información debido a que debe empezar a mover sus piezas, a girar y buscar el dato solicitado. Este tiempo se mide en milisegundos (ms), y cuanto menor sea esta cifra más rápido será el acceso a los datos.

A veces se dice que una computadora tiene dispositivos de almacenamiento primarios (o principales) y secundarios (o auxiliares). Cuando se hace esta distinción, el dispositivo de almacenamiento primario es la memoria de acceso aleatorio RAM de la computadora, un dispositivo de almacenamiento permanente pero cuyo contenido es temporal. El almacenamiento secundario incluye los dispositivos de almacenamiento más permanentes, como unidades de disco y de cinta.
La velocidad de un dispositivo se mide por varios parámetros: la velocidad máxima que es capaz de soportar, que suele ser relativa, en un breve espacio de tiempo y en las mejores condiciones; la velocidad media, que es la que puede mantener de forma constante en un cierto período, y, por último, el tiempo medio de acceso que tarda el dispositivo en responder a una petición de información debido a que debe empezar a mover sus piezas, a girar y buscar el dato solicitado. Este tiempo se mide en milisegundos (ms), y cuanto menor sea esta cifra más rápido será el acceso a los datos.
Proceso computacional
Entrada de Información: Es el proceso mediante el cual el Sistema de Información toma los datos que requiere para procesar la información. Las entradas pueden ser manuales o automáticas. Las manuales son aquellas que se proporcionan en forma directa por el usuario, mientras que las automáticas son datos o información que provienen o son tomados de otros sistemas o módulos. Esto último se denomina interfases automáticas.
Las unidades típicas de entrada de datos a las computadoras son las terminales, las cintas magnéticas, las unidades de diskette, los códigos de barras, los escáners, la voz, los monitores sensibles al tacto, el teclado y el mouse, entre otras.
Almacenamiento de información: El almacenamiento es una de las actividades o capacidades más importantes que tiene una computadora, ya que a través de esta propiedad el sistema puede recordar la información guardada en la sección o proceso anterior. Esta información suele ser almacenada en estructurasarchivos. La unidad típica de almacenamiento son los discos magnéticos o discos duros, los discos flexibles o diskettes y los discos compactos (CD-ROM). de información denominadas
Procesamiento de Información: Es la capacidad del Sistema de Información para efectuar cálculos de acuerdo con una secuencia de operaciones preestablecida. Estos cálculos pueden efectuarse con datos introducidos recientemente en el sistema o bien con datos que están almacenados. Esta característica de los sistemas permite la transformación de datos fuente en información que puede ser utilizada para la toma de decisiones, lo que hace posible, entre otras cosas, que un tomador de decisiones genere una proyección financiera a partir de los datos que contiene un estado de resultados o un balance general de un año base.
Salida de Información: La salida es la capacidad de un Sistema de Información para sacar la información procesada o bien datos de entrada al exterior. Las unidades típicas de salida son las impresoras, terminales, diskettes, cintas magnéticas, la voz, los graficadores y los plotters, entre otros. Es importante aclarar que la salida de un Sistema de Información puede constituir la entrada a otro Sistema de Información o módulo. En este caso, también existe una interfase automática de salida. Por ejemplo, el Sistema de Control de ClientesContabilidad, ya que genera las pólizas contables de los movimientos procesales de los clientes. tiene una interfase automática de salida con el Sistema de Contabilidad, ya que genera las pólizas contables de los movimientos procesales de los clientes.
Suscribirse a:
Entradas (Atom)