viernes, 25 de febrero de 2011

Microsoft


Mejoras en sus productos

Microsoft empezó a operar en el campo de los medios de comunicación y creó The Microsoft
Network en 1995 y MSNBC un año después. Además, en 1996 Microsoft presentó Windows CE,
un sistema operativo para computadoras de bolsillo. En 1997 Microsoft pagó 425 millones de
dólares por la adquisición de WebTV Networks, un fabricante de dispositivos de bajo costo
paraconectar televisiones a Internet. Ese mismo año Microsoft invirtió mil millones de dólares en
política de extender la disponibilidad de conexiones de alta velocidad a Internet.
 

Window 95
Microsoft adoptó " Window 95" como nombre de producto para Chicago cuando fue
publicado en Agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz
gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x
e incluso con MS-DOS también se pretendía introducir de 32 bits y dar soporte a
multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte
de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una
arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría
demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API
fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits
como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT.
Windows 95 tenía dos grandes ventajas.
Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación
integrada que le hacía aparecer como un solo sistema operativo. Segundo, introducía un
subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o
superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de
memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a
Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones
podían seguir bloqueando completamente el sistema en caso de que invadiesen el área
de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología. Windows 95 se
convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de
Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el
que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes
comenzaban a volcarse en este sistema a la hora de sacar sus controladores de
dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito
de la plataforma fue absoluto.
Mas adelante fue lanzada una versión con compatibilidad para USB.

Windows98
El 25 de Junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y
sistema de ficheros FAT32 que soportaba particiones mayores a los 2 GB permitidos por
Windows 95. Dio soporte también a las nuevas tecnologías como DVD FireWire,USB o
AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos
del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había
sido modificado para permitir el uso de controladores en Windows 9x y viceversa. Esto se
consiguió con la migración de parte del núcleo de Windows NT a Windows 98 aunque
éste siguiera manteniendo su arquitectira. Esto permitió la reducción de costes de
producción dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos
controladores.Windows 98 Second Edition (SE):
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales
de 1998 cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya
característica más notable era la capacidad de compartir entre varios equipos una
conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de
los errores producidos por Internet Explored en el sistema. Esta versión es la más estable
de todas las de esta serie, y aún se sigue utilizando en muchos equipos.

Mejorando en si dos cosas importantes:
1) El grave error de solicitud de Licencia que simplemente de puede dejar pasar por alto
en la instalación cuando se copian los archivos con extensión ".CAB" a la unidad de disco
duro del ordenador ( ordenador) en la primera versión de este sistema operativo.
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor
administración de memoria virtual, reduciendo así los famosos mensajes de error en
pantalla azul.


Windows Millenium Edition (ME)

En 2000 Microsoft introdujo Windows ME que era una copia de Windows 98 con más
aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el
hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca
estabilidad de esta versión. En teoria Windows 2000 iba a ser la unificación entre las dos
familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este
pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no
se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que
permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits, centrándose únicamente en la
compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba
correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba
sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits
era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos
errores y muchas desventajas de uso (bugs). Estos inconvenientes hicieron que salvo en
contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien
que dieran el salto a Windows 2000.
Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil
para los administradores de sistemas y con una gran cantidad de servicios de red y lo
más importante: admitía dispositivos Plug&Play que venían siendo un problema con
Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para
las estaciones de trabajo (Windows 2000 Professional) y varias para servidores(Windows
2000 server, advanced server, datacenter server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos
Microsoft, tanto en nuevos servicios como en la mejora de los existentes.
Comunicaciones:
Soporte para FAT16, FAT32 y NTFS.Cifrado de ficheros (EFS).Servicio de indexación.Sistema de archivos distribuido (DFS).Nuevo sistema de backup (ASR).Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).


Servicios de acceso remoto (RAS,VPN, RADIUS y Enrutamiento).Nueva versión de IIS con soporte para HTTP/1.1.Active Directory.Balanceo de carga (clustering)Servicios de instalación desatendida por red (RIS).Servicios nativos de Terminal Server.
Windows Server 2003
Sucesor de la familia de servidores de Microsoft Windows 2000 server Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está
basada en el núcleo de Windows XP, al que se le han añadido una serie de
servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).

Todo el mundo relacionado con la informática conoce de esta empresa. Algunas la idolatran y
otros la odian. A continuación su historia.
La compañía fue fundada en 1975 por William H. Gates III y Paul Allen. Ambos se habían
conocido durante su época de estudiantes por su afición común a programar con la computadora
PDP-10 de Digital Equipment Corporation. En ese año, la revista Popular Electronics dedicó su
portada y un artículo al Altair 8800, la primera computadora personal. El artículo animó a Gates y
Allen a desarrollar la primera versión del lenguaje de programación BASIC para el equipo Altair. Le
compraron la licencia de este software a Micro Instrumentation and Telemetry Systems (MITS), la
empresa fabricante del Altair, y fundaron Microsoft (originalmente Micro-soft) en Albuquerque,
Nuevo México.


Medios de comunicación

Los Medios de Comunicación y su relación con las Tecnologías de Información

del hombreLa búsqueda constante del hombre por satisfacer cada vez mejor su necesidad de comunicación ha sido el impulso que ha logrado la instauración en el mundo de instrumentos cada día más poderosos y veloces en el proceso comunicativo. Sólo basta una retrospectiva para definir cómo el ser humano ha logrado evolucionar sus formas de comunicación: desde rudimentarios métodos como la escritura jeroglífica, pasando por la invención del alfabeto y del papel, dando un leve salto hasta la llegada de la imprenta, y apenas uno más para la aparición del teléfono, el cine, la radio y la televisión. Todos estos instrumentos han sido ciertamente un avance en las formas de comunicación del hombre y, prácticamente todos, han sido posibles gracias a la tecnología, que a su vez ha sido el instrumento cuya evolución ha determinado el avance de la humanidad.

El Impacto de las Nuevas TIC´s en los Medios de Comunicación.


Los avances de la industria y el comercio también han sido posibles gracias a la evolución tecnológica. El impacto que la revolución tecnológica, signada en estos tiempos por la información, causa en las personas y en las organizaciones es hoy ya bastante evidente como para negar su utilidad. Con las Tecnologías de Información la sociedad mundial experimenta una revolución comercial y económica, porque traen consigo una infraestructura global, accesible y universal: Internet.En la Radio y la Televisión han sido valiosos los avances en programas computarizados para la edición de imágenes y sonido, así como la inclusión de sistemas cada día más especializados para lograr transmisiones a distancia en directo. Así, desde siempre la evolución de la tecnología ha sido también importante para mejorar la labor de los medios de comunicación. En el Cine por su parte, ya se habla de dibujos animados elaborados totalmente a través de programas de computación y los efectos especiales son más accesibles. Además, todos estos avances, aunque resulten costosos al inicio, han logrado en cada medio de comunicación el abaratamiento de los procesos tanto de producción como de transmisión de sus mensajes.
Igualmente, se sabe hoy de transmisiones en microondas, de monitores portátiles de audio y video, de micrófonos inalámbricos, etcétera. En la prensa, la evolución soportada en tecnología es evidente. Como respaldo a tal afirmación, Canga Larequi (1988) reconoce que "…las denominadas nuevas tecnologías de la comunicación/información inciden en la actualidad de forma determinante sobre la prensa escrita y llegan a condicionar el futuro de este medio."
La Revolución de Internet y su Impacto en los Medios de Comunicación


Definitivamente el fenómeno que logró revolucionar al mundo y que aún deja mucha tela que cortar, o mucho hilo que tejer, es esa denominada Telaraña Global. Ciertamente, Internet ha cambiado y mejorado diversos procesos, ha logrado unir al mundo en cuanto a su capacidad de conexión y representa sin duda una oportunidad para nuevas creaciones.

Se reconoce además que Internet ha logrado imponerse con mayor rapidez en comparación con la forma como lo hicieron en su momento la escritura y la imprenta. También, la Web está acompañada de un ritmo de cambios acelerado y, aparentemente, sin interrupciones. De tal modo, que sus alcances son también ilimitados y bajo la sombra de estas afirmaciones parece que, actualmente, quien no se incorpora a la Red navega contra la corriente del éxito.
El fenómeno Internet destaca particularmente porque se trata de un instrumento que facilita a las personas el rápido acceso a cantidades infinitas de información, a un costo relativamente bajo, sobre cualquier índole y proveniente de cualquier rincón del mundo. Será por esta razón entonces que se escucha hablar de una Sociedad de la Información, un conglomerado humano que parece tener ahora toda la información que desee a su alcance.
Los Medios Paralelos: El Periódico, la Radio y la TV "
 
A partir de todas las afirmaciones precedentes, parece que Internet se convierte en el espacio ideal para las comunicaciones del futuro y que los medios tradicionales salen perdiendo.

Sin embargo, hasta ahora la aparición de una nueva forma o tecnología de comunicación no ha significado la desaparición de lo ya existente. Inclusive, ya está dicho que los medios tradicionales se reconstituyen con Internet, porque están obligados a revisarse y potenciar sus ventajas y características únicas.
Ahora, cabe decir, que Internet es un soporte que así como ofrece innumerables ventajas exige peculiares condiciones. Esto supone que quienes desde un medio de comunicación tradicional se conforman con ver en Internet un simple instrumento de promoción, o un canal de transmisión para mayor cobertura, pierden dinero y tiempo. Porque los denominados medios paralelos son precisamente otros medios, soportados en los tradicionales pero con características propias por demás potenciales que, bien aprovechadas, garantizan rentabilidad y competitividad.
Cada medio tradicional se fue redescubriendo paulatinamente en su proceso evolutivo hasta tomar forma.
Bibliografía: La información ha sido sacada de la página web www.monografías.com
Desde siempre, el hombre ha tenido la necesidad de comunicarse con los demás, de expresar pensamientos, ideas, emociones; de dejar huella de sí mismo. Así también se reconoce en el ser humano la necesidad de buscar, de saber, de obtener información creada, expresada y transmitida por otros. La creación, búsqueda y obtención de información son pues acciones esenciales a la naturaleza humana. Tal vez por eso los grandes saltos evolutivos de la humanidad tienen como hito la instauración de algún nuevo instrumento de comunicación.
Es así como queda claro que la evolución de la tecnología siempre ha significado un avance en los procesos de comunicación humana y, por supuesto, ambos elementos relacionados (Tecnología y Comunicación) han soportado uno a uno los escalones de la evolución natural de nuestra especie. Esa búsqueda del hombre por mejorar su forma de vida - proceso comunicativo incluido - es lo que ha empujado la emergencia constante de nuevas y mejores tecnologías. Así mismo, cada avance en el proceso comunicativo, acompañado de evolución tecnológica, permiten que existan hoy definiciones como las de Sociedad de la Información y Sociedad del Conocimiento, ambos referidos a una era mundial donde aparentemente las posibilidades de comunicación humana ya son ilimitadas, donde la transmisión y transferencia de información se desarrolla en cantidades infinitas, desde cualquier rincón del mundo y con una rapidez increíble en otros tiempos.
Sin duda, las capacidades que el hombre posee hoy para comunicarse parecen ser insuperables. No obstante la humanidad sigue creciendo, evolucionando y, mientras el hombre exista, su búsqueda por vivir - y comunicarse - más y mejor no se detendrá. La evolución de la comunicación humana, con ella la del hombre y su tecnología, sigue en marcha .
Está dicho que los avances en los modos de comunicación del hombre están sustentados en la evolución de la tecnología. El emprendedor espíritu del ser humano se mantiene en una búsqueda constante de nuevos modos de hacer de la vida del hombre un asunto cada vez más cómodo y agradable.
La tecnología es justamente el medio que ha permitido responder cada vez mejor a las necesidades humanas facilitando y simplificando procesos. Cordeiro (1998) expresa al respecto que "…la tecnología es la que precisamente ayuda al progreso de la humanidad. Gracias a la tecnología avanzamos más y tenemos más tiempo para nosotros mismos. Cada revolución tecnológica provoca transformaciones fundamentales que conllevan al mejoramiento de la vida de los seres humanos." (Pág. 54) La
computación y la informática son apenas un ejemplo de las capacidades inventivas de la humanidad dirigidas en estos tiempos urbanos a simplificar las actividades del hombre.
Tomando como base el concepto que se asume sobre Tecnologías de Información y Comunicación, éstas pueden entonces referirse incluso a las formas de comunicación más rudimentarias del hombre, porque al fin y al cabo la tecnología - por tratarse de conocimiento específicamente aplicado - no es una concreción estática, sino que por el contrario es cíclica y dinámica: Lo que resulte hoy novedoso y emergente fácilmente puede ser obsoleto mañana. Podría entonces tal definición aplicarse a la escritura, a la imprenta, al teléfono, a la radiocomunicación; en fin, a todo proceso o instrumento que en la historia de la humanidad represente un avance en cuanto a las técnicas de comunicación .

Internet Invisible

Es el término utilizado para describir toda la información disponible en Internet que
no es recuperada interrogando a los buscadores convencionales. Generalmente,es la
información almacenada y accesible mediante bases de datos.
El 90% de las bases de datos están públicamente disponible en Internet, los robots de
los buscadores solo pueden indicar su página de entrada y son incapaces de entrar
dentro de las tablas e indicar su registro,les falta seleccionar sus opciones y teclear
una consulta para extraer sus datos.
La información almacenada es por consiguiente''invisible'' a estos,ya que los
resultados se generan en la contestación de páginas que no tienen una URL fija y que
se construyen en el mismo instante desapareciendo una vez cerrada la consulta.
Por cada millón de páginas visibles hay otros 500 o 550 millones ocultas.
La información pública y gratuita del web invisible es actualmente de 400 a 550 veces
mayor que el web visible.
Comprende todos aquellos sitios cuya información puede ser indexada por los robots
de los buscadores convencionales y recuperada casi en su totalidad mediante una
consulta a sus formularios de búsqueda.
Las características principales de los sitios de la web visible son:
1. Su información no está contenida en base de datos
2. Es de libre acceso
3. No requiere la realización de un proceso de registro para acceder
Mayoritariamente está formada por páginas o archivos con una URL fija y accesibles desde otro enlace.


Web invisible
La principal causa de Internet profunda es la imposibilidad de los motores de
búsqueda de encontrar el 100% de la información existente en Internet. Si los
buscadores pudieran acceder a toda la información desaparecería, pero esto es
imposible porque siempre existirán páginas privadas. Estos son los distintos
motivos:
Causas
En el año 2000 se estimaba que el tamaño del
7.500 Terabytes de datos en unos 550.000 millones de documentos. Para
comparar se estima que en aquella época la
Terabytes.
Estimaciones basadas en la extrapolación de la Universidad de California de
Berkeley especula que actualmente el
TeraBytes

TamañoInternet Profundo era deInternet Superficial ocupaba 167Internet Profundo debe tener unos 91.000
Hay dos razones por las cuales un motor de búsqueda no contiene una
página: barreras técnicas que prohiben el acceso y decisiones para excluirla.
¿Por qué Algunas Páginas son Invisibles?
Barreras técnicas:
Se requiere MECANOGRAFÍA y/o JUICIO
páginas web requiere que se mecanografíe algo o se examine una página y se
seleccione una combinación de opciones, los motores de búsqueda son
incapaces de proceder.
·¿POR QUÉ?
Programas robot llamados arrastran por la web buscando el contenido de los motores de búsqueda. Estas arañas navegan la web siguiendo los enlaces en las páginas web que ya están
en la base de datos de su motor de búsqueda. Si no hay ningún enlace a una
página, una araña no puede "verlo". Ellos no tienen la capacidad de
mecanografiar o pensar en ninguna serie de caracteres.
Las páginas creadas como resultado de una búsqueda se les llama páginas
Las bases de datos de los motores de búsqueda son creadas porspiders, programas robot de computación que se"dinámicamente generadas"página web diseñada para llevar la respuesta y enviarla a tu ordenador. A menudo la página no se almacena en ninguna parte después, porque su
contenido único probablemente no es de utilidad para muchas otras personas.
Lo opuesto a una página "dinámica" es una página
estáticas residen en servidores, cada una identificada por un URL único, y
esperando ser recuperada cuando su URL es invocada. Los
encontrar una página estática si un enlace a ella aparece en cualquier otra
página que ellos "conocen".
Cualquier contenido no incluído en páginas estáticas enlazadas hacia algún
otro sitio permanece invisible. Se debe buscar en una base de datos directamente para encontrarlas.
La incapacidad de los páginas de Web Invisible.
Categoría 1:
de búsqueda puede ser enteramente o parcialmente invisible o visible, dependiendo de cuánto está contenido en páginas estáticas con enlaces.Ejemplos de sitios con bases de datos con opción de búsqueda incluyen a la mayoría de los motores de búsqueda como Google o Northern Light o AltaVista. Los contenidos de todas los catálogos de bibliotecas on-line que no requieren una contraseña son también web invisible.
Categoría 2:
contraseña están cerrados para los  debido a que requieren mecanografiar algo que los  "saber". Los contenidos de estos sitios es muy poco probable que estén en cualquier motor de búsqueda general de la Web. Esto incluye todos los recursos que existen que requieren contraseña.


 
FORMATO de la página:páginas porque el formato del documento sería buscado raras veces o sin éxito por los usuarios del motor de búsqueda. No hay ninguna razón técnica para que ellos deban excluirlas, sólo es una política tomada por muchas compañías de motores de búsqueda.
:Los motores de búsqueda pueden escoger no incluir optimizados para "leer" HTML, el lenguaje básico de la Web. Estos otros tiposde lenguajes de programación contienen códigos y requerimientos de formato que son incompatibles con HTML. HTML puede llevar enlaces a estas páginas, pero no el texto completo de su contenido en su formato especial.
EXCEPCIONES
- Google ahora tiene la habilidad de buscar el texto completo de muchos archivos PDF convirtiendo estos archivos a texto, y colocando el texto en HTML de manera que pueda trabajar como una página web
ordinaria en la base de datos de Google. En los resultados de la búsqueda aparece un enlace al documento original completo en PDF.
- Las bases de datos imagen que , AltaVista Google, y otras compañías de motores de búsqueda ofrecen, están estructuradas para manejar estos tipos de archivos con menos texto.


·Páginas que el motor de búsqueda escoge excluir
La respuesta a la búsqueda es colocada en una"estática". Las páginasspiders puedenspiders de mecanografiar y pensar causa dos tipos deel contenido de bases de datos especializadas con opciónRequieren contraseña. Todos los sitios que requieren unaspiders de los motores de búsquedaspiders no pueden
Internet Invisible

Dispositivos de entrada

Un teclado se compone de una serie de teclas agrupadas en funciones que podremos
describir:
-Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las
letras, números, símbolos, ortográficos, Enter, alt...etc.
-Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC,
tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser
configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
-Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de
los números así como de un Enter y los operadores numéricos de suma, resta,... etc.
-Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2
grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.

 
Dos tipos de teclado:
- De Membrana: Fueron los primeros que salieron y como su propio nombre indica
presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco
más dura.
- Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación
sea menos traumática y más suave para el usuario.
MOUSE
Mouse: A este periférico se le llamó así por su parecido con este roedor. Suelen estar
constituidos por una caja con una forma más o menos anatómica en la que se encuentran
dos botones que harán los famosos clicks de ratón siendo transmitidos por el cable al
puerto
una bola que sobresale de la caja a la que se pegan 4 rodillos ortogonalmente dispuestos
que serán los que definan la dirección de movimiento del ratón. El ratón se mueve por una
alfombrilla ocasionando el movimiento de la bola que a su vez origina el movimiento de uno
o varios de estos rodillos que se transforma en señales eléctricas y producen el efecto de
desplazamiento del ratón por la pantalla del ordenador.
-Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando
la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no
estando por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos
del usuario aunque se origina el mismo efecto.

 
PS/IIo al puerto de serie (COM1 normalmente). Dentro de esta caja se encuentra
MICRÓFONO
Periférico por el cual transmite sonidos que el ordenador capta y los reproduce, los salva,
etc. Se conecta a la tarjeta de sonido
ESCÁNER
Es un dispositivo utiliza un haz luminoso para detectar los patrones de luz y oscuridad (o
los colores) de la superficie del papel, convirtiendo la imagen en señales digitales que se
pueden manipular por medio de un
reconocimiento óptico de caracteres. Un tipo de escáner utilizado con frecuencia es el
software de tratamiento de imágenes o con
flatbed,
fijo. En este tipo de escáneres, como las fotocopiadoras de oficina, los objetos se colocan
boca abajo sobre una superficie lisa de cristal y son barridos por un mecanismo que pasa
por debajo de ellos. Otro tipo de escáner
una carcasa fija encima del documento.
Un tipo muy popular de escáner es el escáner de mano, también llamado
porque
Estos escáneres tienen la ventaja de ser relativamente baratos, pero resultan algolimitados
porque no pueden leer documentos con una anchura mayor a 12 o 15 centímetros.
que significa que el dispositivo de barrido se desplaza a lo largo de un documentoflatbedutiliza un elemento de barrido instalado enhandheld,el usuario sujeta el escáner con la mano y lo desplaza sobre el documento.
Dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios
paralelos, que codifica información mediante anchuras relativas de estos elementos. Los
códigos de barras representan datos en una forma legible por el ordenador, y son uno de
los medios más eficientes para la captación automática de datos.

Cámara que se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser
modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios
tipos:
-Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla
LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una
pequeña memoria donde almacena fotos para después transmitirlas a un ordenador.
-Cámara de vídeo: Graba videos como si de una cámara normal se tratara, pero las
ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una
pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC
y este recoge el video que has grabado, para poder retocarlo posteriormente con el
software adecuado.

Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que
estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador.
Su uso es generalmente para videoconferencias por internet, pero mediante el software
adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas.

Dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al
ordenador y con el que es posible seleccionar elementos u opciones (el equivalente a un
clic de
presionando éste contra la superficie de la pantalla.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que
registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se
encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla.
La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el
haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio
de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la
punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El
lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el
caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la
pantalla durante periodos largos de tiempo llega a cansar al usuario.
mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o
Dispositivo señalador muy conocido, utilizado mayoritariamente para juegos de ordenador
o computadora, pero que también se emplea para otras tareas. Un
juegos tiene normalmente una base de plástico redonda o rectangular, a la que está
acoplada una palanca vertical. Los botones de control se localizan sobre la base y algunas
veces en la parte superior de la palanca, que puede moverse en todas direcciones para
controlar el movimiento de un objeto en la pantalla. Los botones activan diversos
elementos de
normalmente un dispositivo señalador relativo, que mueve un objeto en la pantalla cuando
la palanca se mueve con respecto al centro y que detiene el movimiento cuando se suelta.
En aplicaciones industriales de control, el
señalador absoluto, en el que con cada posición de la palanca marca una localización
específica en la pantalla.
joystick o palanca desoftware, generalmente produciendo un efecto en la pantalla. Un joystickesjoystick puede ser también un dispositivo
Ficha de papel manila de 80 columnas, de unos 7,5 cm (3 pulgadas) de ancho por 18 cm
(7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en forma de
orificios practicados por una máquina perforadora. Estos orificios correspondían a
números, letras y otros caracteres que podía leer un ordenador equipada con lector de
tarjetas perforadas.

 

Pantalla diseñada o modificada para reconocer la situación de una presión en su
superficie. Al tocar la pantalla, el usuario puede hacer una selección o mover el cursor. El
tipo de pantalla táctil más sencillo está compuesto de una red de líneas sensibles, que
determinan la situación de una presión mediante la unión de los contactos verticales y
horizontales.
Otros tipos de pantallas más precisas utilizan una superficie cargada eléctricamente y
sensores alrededor de los bordes externos de la pantalla, para detectar la cantidad de
cambio eléctrico y señalar exactamente donde se ha realizado el contacto. Un tercer tipo
fija diodos emisores de rayos infrarrojos (LEDs, acrónimo de Light-Emitting Diodes) y
sensores alrededor de los bordes externos de la pantalla. Estos LEDs y sensores crean
una red invisible de infrarrojos en la parte delantera de la pantalla que interrumpe el
usuario con sus dedos.
Las pantallas táctiles de infrarrojos se usan a menudo en entornos sucios, donde la
suciedad podría interferir en el modo de operación de otros tipos de pantallas táctiles. La
popularidad de las pantallas táctiles entre los usuarios se ha visto limitada porque es
necesario mantener las manos en el aire para señalar la pantalla, lo que sería demasiado
incómodo en largos periodos de tiempo. Además no ofrece gran precisión al tener que
señalar ciertos elementos en programas de alta resolución. Las pantallas táctiles, sin
embargo, son enormemente populares en aplicaciones como los puestos de información
porque ofrecen una forma de señalar que no requiere ningún hardware móvil y porque
presionar la pantalla es algo intuitivo.

DISPOSITIVOS DE ENTRADA


PANTALLA TÁCTIL


TARJETAS PERFORADAS


JOYSTICK


LÁPIZ ÓPTICO


WEBCAM


CÁMARA DIGITAL


LECTOR DE CÓDIGO DE BARRAS

Son los que envían información a la unidad de procesamiento, en código binario. Dispositivos de
entrada (entre otros):

TECLADO

Cómic

A continuación,ponemos los tres cómic realizados por Magdalena Prados,Macarena Moreno y Soledad Sánchez. En el de Magdalena representa el romance de Iker Casillas y Sara Carbonero ya que admira a Iker desde pequeña. Macarena lo ha hecho del viaje de estudios que fue a Italia con sus compañeros,ya que tiene bonitos recuerdos y Soledad lo ha realizado de un grupo de música,El Canto del Loco(ECDL)ya que es uno de sus grupos favoritos



miércoles, 23 de febrero de 2011

Prevenir el Medio Ambiente

Efecto invernadero

Se denomina efecto invernadero al fenómeno por el cual determinados gases, que son componentes de la atmósfera planetaria, retienen parte de la energía que el suelo emite por haber sido calentado por la radiación solar. Afecta a todos los cuerpos planetarios dotados de atmósfera. De acuerdo con la mayoría de la comunidad científica, el efecto invernadero se está viendo acentuado en la Tierra por la emisión de ciertos gases, como el dióxido de carbono y el metano debido a la actividad humana.
Este fenómeno evita que la energía solar recibida constantemente por la Tierra vuelva inmediatamente al espacio, produciendo a escala planetaria un efecto similar al observado en un invernadero.

Efecto Invernadero de varios gases de la atmósfera.
Es el proceso por el que ciertos gases de la atmósfera retienen gran parte de la radiación infrarroja emitida por la Tierra y la remiten de nuevo a la superficie terrestre calentando la misma. Estos gases han estado presentes en la atmósfera en cantidades muy reducidas durante la mayor parte de la historia de la Tierra.
Aunque la atmósfera seca está compuesta prácticamente por nitrógena(78,1%), oxígeno 20,9%) y argón(0,93%), son gases muy minoritarios en su composición como el dióxido de carbono(0,035%: 350 ppm), el ozono y los que desarrollan esta actividad radiativa. Además, la atmósfera contiene vapor de agua (1%: 10.000 ppm) que también es un gas radiativamente activo, siendo con diferencia el gas natural invernadero más importante. El dióxido de carbono ocupa el segundo lugar en importancia.
La denominada curva Keeling muestra el continuo crecimiento de CO2 en la atmósfera desde 1958. Recoge las mediciones de Keeling en el observatorio del volcán Mauna Loa .Estas mediciones fueron la primera evidencia significativa del rápido aumento de CO2 en la atmósfera y atrajo la atención mundial sobre el impacto de las emisiones de los gases invernadero.
El efecto invernadero es esencial para la vida del planeta: sin CO2 ni vapor de agua (sin el efecto invernadero) la temperatura media de la Tierra sería unos 33 °C menos, del orden de 18 °C bajo cero, lo que haría inviable la vida.
Actualmente el CO2 presente en la atmósfera está creciendo de modo no natural por las actividades humanas, principalmente por la combustión de carbón, petróleo y gas natural que está liberando el carbono almacenado en estos combustibles fósiles y la deforestación de la selva pluvial que libera el carbono almacenado en los árboles. Por tanto es preciso diferenciar entre el efecto invernadero natural del originado por las actividades de los hombres (o antropogénico).
La población se ha multiplicado y la tecnología ha alcanzado una enorme y sofisticada producción de forma que se está presionando muchas partes del medio ambiente terrestre siendo la Atmósfera la zona más vulnerable de todas por su delgadez. Dado el reducido espesor atmosférico la alteración de algunos componentes moleculares básicos que también se encuentran en pequeña proporción supone un cambio significativo. En concreto, la variación de la concentración de CO2, el más importante de los gases invernadero de la atmósfera. Ya se ha explicado el papel básico que estos gases tienen como reguladores de la temperatura del Planeta.
Los gases invernadero permanecen activos en la atmósfera mucho tiempo, por eso se les denomina de larga permanencia. Eso significa que los gases que se emiten hoy permanecerán durante muchas generaciones produciendo el efecto invernadero. Así del CO2 emitido a la atmósfera: sobre el 50% tardará 30 años en desaparecer, un 30% permanecerá varios siglos y el 20% restante durará varios millares de años.
La concentración de CO2 atmosférico se ha incrementado desde la época preindustrial (año 1.750) desde un valor de 280 ppm a 379 ppm en 2005. Se estima que 2/3 de las emisiones procedían de la quema de combustibles fósiles (petróleo, gas y carbón) mientras un 1/3 procede del cambio en la utilización del suelo (Incluida la deforestación). Del total emitido solo el 45% permanece en la atmósfera, sobre el 30% es absorbido por los océanos y el restante 25% pasa a la biosfera terrestre. Por tanto no solo la atmósfera está aumentando su concentración de CO2, también está ocurriendo en los océanos y en la biosfera.

Emisiones antropogénicas de Gases de Efecto Invernadero (GEI) de larga permanencia.

Las actividades humanas generan emisiones de cuatro GEI de larga permanencia: CO2, metano (CH4), óxido nitroso (N2O) y halocarbonos (gases que contienen flúor, cloro o bromo).
Cada GEI tiene una influencia térmica (forzamiento radiactivo) distinta sobre el sistema climático mundial por sus diferentes propiedades radiativas y períodos de permanencia en la atmósfera. Tales influencias se homogenizan en una métrica común tomando como base el forzamiento radiativo por CO2 (emisiones de CO2-equivalente). Homogenizados todos los valores, el CO2 es con mucha diferencia el gas invernadero antropógeno de larga permanencia más importante, representando en 2004 el 77% de las emisiones totales de GEI antropógenos. Pero el problema no solo es la magnitud sino también las tasas de crecimiento. Entre 1970 y 2004, las emisiones anuales de CO2 aumentaron un 80%. Además en los últimos años el incremento anual se ha disparado: en el reciente periodo 1995-2004, la tasa de crecimiento de las emisiones de CO2-eq fue de (0,92 GtCO2-eq anuales), más del doble del periodo anterior 1970-1994 (0,43 GtCO2-eq anuales).
Ya se ha señalado que la concentración de CO2 en la atmósfera ha pasado de un valor de 280 ppm en la época preindustrial a 379 ppm en 2005. El CH4 en la atmósfera ha cambiado de los 715 ppmm en 1750 (periodo preindustrial) hasta 1732 ppmm en 1990, alcanzando en 2005 las 1774 ppmm. La concentración mundial de N2O en la atmósfera pasó de 270 ppmm en 1750 a 319 ppmm en 2005. Los halocarbonos prácticamente no existían en la época preindustrial y las concentraciones actuales se deben a la actividad humana.
Según el Informe Stern que estudió el impacto del cambio climático y el calentamiento global en la economía mundial, encargado por el gobierno británico y publicado en 2006, la distribución total mundial de las emisiones de GEI por sectores es: un 24% se debe a la generación de electricidad, un 14% a la industria, un 14% al transporte, un 8% a los edificios y un 5% más a actividades relacionadas con la energía. Todo ello supone unas 2/3 partes del total y corresponde a las emisiones motivadas por el uso de la energía. Aproximadamente el 1/3 restante se distribuye de la siguiente forma: un 18% por el uso del suelo (incluye la deforestación), un 14% por la agricultura y un 3% por los residuos.
Entre 1970 y 2004, las mejoras tecnológicas han frenado las emisiones de CO2 por unidad de energía suministrada. Sin embargo el crecimiento mundial de los ingresos (77%) y el crecimiento mundial de la población (69%), han originado nuevas formas de consumo y un incremento de consumidores de energía. Esta es la causa del aumento de las emisiones de CO2 en el sector de la energía.
También el Informe Stern señala que desde el año 1.850, Estados Unidos y Europa han generado el 70% de la emisiones totales de CO2.
<><><><><><><><><><><><>
Emisiones de CO2 en el mundo procedentes de combustibles fósiles (1990-2007)
Descripción19901995200020052007 % Cambio 90-07
CO2 en millones de toneladas20.98021.81023.49727.14728.96238,0%
Población mundial en millones5.2595.6756.0726.3826.53525,7%
CO2 por cápita en toneladas3,993,843,874,204,389,8%

Conseguir que la eficiencia sea rentable
· Conseguir más electricidad, medios de transporte y producción industrial con menos carbón, petróleo o gasolina es una solución que sólo presenta ventajas: más beneficios, menos contaminación, menos calentamiento atmosférico… aunque los gastos iniciales para mejorar el equipo y la tecnología pueden ser elevados.
· La mayor parte del progreso inmediato que se puede conseguir para reducir las emisiones de gases de efecto invernadero consiste en utilizar los combustibles fósiles de manera más eficiente. Los ahorros conseguidos de esta manera permitirán ganar tiempo para el sistema climático mundial mientras se desarrollan tecnologías alternativas y se consigue hacerlas rentables. Se espera que las fuentes libres de emisiones sustituyan con el tiempo a los combustibles fósiles como categoría principal de suministro de energía.
· Las turbinas de “ciclo combinado” –en las que el calor resultante de la quema de combustible impulsa las turbinas de vapor al mismo tiempo que la expansión térmica de los gases de escape mueve las turbinas de gas –pueden aumentar la eficiencia de la generación de electricidad un 70%. A más largo plazo, las nuevas tecnologías podrían duplicar la eficiencia de las centrales eléctricas.
· Las pilas de combustible de gasolina y otras tecnologías avanzadas en el sector del automóvil pueden reducir casi a la mitad las emisiones de dióxido de carbono resultantes del transporte, y lo mismo cabría decir de los vehículos “híbridos” de gas/electricidad, algunos de los cuales se encuentran ya en el mercado.
· El gas natural libera menos dióxido de carbono por unidad de energía que el carbón o el petróleo. Por ello, el cambio al gas natural es una forma rápida de reducir las emisiones.
· La industria, que produce más del 40% de las emisiones mundiales de dióxido de carbono, puede beneficiarse de la cogeneración combinada de calor y electricidad así como de otros usos del calor residual, la mejor gestión de la energía y una mayor eficiencia en los procesos de manufactura.
· La instalación de sistemas de iluminación y electrodomésticos más eficientes en los edificios puede reducir significativamente el consumo de electricidad. El mejor aislamiento de las construcciones puede representar una enorme reducción de la cantidad de combustible necesario para la calefacción o el aire acondicionado
La reducción del consumo de combustibles fósiles al mismo tiempo que se mantiene el crecimiento económico representará un gran desafío.
Aprovechar las tecnologías de energía renovable existentes
· La energía solar y la electricidad generada por el viento –con los niveles actuales de eficiencia y costo– pueden sustituir en parte a los combustibles fósiles, y se utilizan cada vez más. Un mayor empleo de tales tecnologías puede incrementar sus eficiencias de escala y reducir sus costos. La contribución actual de estos métodos de producción de energía a los suministros mundiales representa menos del 2%.
· La expansión de la energía hidroeléctrica, cuando convenga, podría representar una importante contribución a la reducción de las emisiones de gases de efecto invernadero… pero el uso de la energía hidroeléctrica se ve limitado necesariamente por su repercusión en los asentamientos humanos y los sistemas fluviales.
Las turbinas eólicas pueden sustituir en parte la generación de electricidad basada en los combustibles.
· El uso de la biomasa como fuente de energía –por ejemplo, la leña, el alcohol fermentado del azúcar, los aceites combustibles extraídos de la soja y el gas metano emitido por los vertederos– puede ayudar a recortar las emisiones de gases de efecto invernadero, pero sólo si la vegetación utilizada con ese fin se sustituye por una cantidad equivalente de nuevas plantas (para que el dióxido de carbono liberado por la combustión de biomasa sea capturado de nuevo mediante la fotosíntesis).
· La energía nuclear no produce prácticamente ningún gas de efecto invernadero, pero, debido a la preocupación pública por los problemas de seguridad, transporte y eliminación de los residuos radioactivos –por no mencionar la proliferación de armas–, el empleo responsable de la energía nuclear continuará siendo, probablemente, limitado. Ahora representa en torno al 6,8% de los suministros mundiales de energía.
· Existen ya nuevas tecnologías que permiten “captar” el dióxido de carbono emitido por las centrales eléctricas basadas en el uso de combustibles fósiles, y hacerlo antes de que llegue a la atmósfera. Luego, el dióxido de carbono se almacena en depósitos subterráneos y vacíos de petróleo o de gas, en yacimientos de carbón abandonados o en las profundidades del océano. Este planteamiento, que se utiliza ya en forma limitada, no es exactamente “renovable”, y se está estudiando cuáles son los posibles riesgos y efectos ambientales.

COMBUSTIBLES FÓSILES

En la actualidad, a nivel mundial, los combustibles fósiles –carbón, petróleo y gas- contribuyen con un 63 % de la producción eléctrica, la hidroeléctrica representa alrededor del 19 %, la nuclear 17 %, la geotérmica 0,3 % mientras que la solar, eólica y biomasa contribuyen en conjunto con menos del 1 %. En nuestro país las proporciones fueron aproximadamente, para el ańo 1996/97, 52 % de origen térmico, 36 % hidráulica, 12 % nuclear y 1,4% de otras fuentes dentro de las cuales el 0,01% es de origen eólico.
Los combustibles fósiles tienen muchas ventajas, la principal su bajo costo y facilidad de transporte, pero también grandes desventajas en términos de contaminación y efectos ambientales. El Dioxido de Carbono (CO2), que inevitablemente se genera al quemar combustibles fósiles, es actualmente considerado como una de las fuentes que contribuyen mayoritariamente al recalentamiento global del planeta (efecto invernadero), el cual puede tener consecuencias desastrosas para ciertas regiones produciendo sequías e inundaciones. Otro de los factores que contribuye ampliamente a la contaminación del aire que todos respiramos es el transporte de personas y mercaderías. Se habla mucho sobre la necesidad de reducir las emisiones de CO2, pero la Convención de Clima que fue adoptada en la Conferencia sobre Desarrollo y Medio Ambiente en 1992 en Río de Janeiro no pudo determinar como debían lograrse esas reducciones. En la Conferencia Internacional llevada a cabo en 1997 en Kyoto se avanzo fijando limites a la emisión por debajo de los valores de gases emitidos en 1990. Un informe reciente de la OECD predice que para el 2010 las emisiones de CO2 derivadas de la producción energética aumentarán casi un 50%.

CONTAMINACIÓN QUÍMICA
El cambio climático es un hecho admitido por casi toda la comunidad científica y son pocas las voces que ponen en duda esta afirmación. Casi todas las noticias que hacen referencia a este cambio y su relación con la alimentación se centran en el estrecho vínculo que relaciona el clima con la producción de alimentos, sobre todo agricultura y ganadería. Estas informaciones resaltan cómo repercute de forma negativa en la producción alimentaria y crea sequías e inundaciones y pérdidas de cosechas, con la consecuente destrucción de la forma tradicional de producción primaria en muchas zonas que, en definitiva, comprometen el acceso a los alimentos a gran parte de la población, en especial, en países en desarrollo. Pero son pocos los estudios que han evaluado cómo repercute este cambio climático en la seguridad de los alimentos, entendida como la buena calidad e inocuidad.
Uno de los trabajos realizados en este campo pertenece al ámbito del Reino Unido, aunque los resultados y conclusiones son extrapolables a los demás países de Europa. El trabajo pretende, además de identificar el impacto que el cambio climático puede tener sobre la seguridad alimentaria e informar sobre ello, evaluar posibles maneras de adaptación a estas nuevas circunstancias con el fin de minimizar los riesgos. El cambio climático puede provocar incrementos en la contaminación, tanto química como microbiológica de los alimentos, debido a las variaciones en los patrones de producción agrícola, la intensificación de la agricultura y las alteraciones en las vías de transporte.

Mitigar riesgos alimentarios

A menudo, los alimentos proceden de zonas ajenas a los límites de la Unión Europea, donde el impacto del cambio climático es más relevante. Sin embargo, estos países deben ser capaces de producir alimentos dentro de las normas de seguridad alimentaria europea y éstas deben exigirse por los importadores. Esto pone de relieve la importancia de herramientas como el sistema APPCC (Análisis de Peligros y Puntos de Control Crítico) para identificar en etapas tempranas riesgos dentro de la cadena alimentaria, que pueden ocurrir por el cambio climático. Estas zonas podrían localizarse por el desarrollo de un claro proceso de intensificación agrícola, inundaciones cíclicas o nuevas incorporaciones a la producción de alimentos.
Resulta imprescindible desarrollar técnicas de evaluación del riesgo para poder identificar áreas de focalización de peligros alimentarios, así como posibles técnicas de mitigación de los mismos. Algunas de las conclusiones del estudio británico se derivan del hecho de que el aumento progresivo de las temperaturas podría provocar un incremento en el número de microorganismos patógenos y de micotoxinas en toda la cadena alimentaria, desde la producción hasta el consumo. Tanto el procesamiento como el transporte y almacenamiento de los alimentos pueden incrementar los riesgos, pero hay poca información sobre cómo estos se alteran con el cambio climático. Por otra parte, este aumento de temperaturas puede provocar que microorganismos y enfermedades de origen alimentario propias de otras latitudes más cálidas se desarrollen en nuestro entorno.
Otro punto destacable es que las cada vez más frecuentes, largas y severas épocas de sequía, consecuencia del calentamiento global, provocarán una mayor necesidad de agua de riego que hará que el riesgo de microorganismos patógenos sea más elevado. Por otro lado, las previsibles inundaciones son uno de los mecanismos para el transporte de agentes patógenos y sustancias químicas en suelo agrícola que puede aumentar.
Conclusiones para mejorar el medio ambiente
El agotamiento del actual modelo inequitativo de desarrollo en el contexto de cambio climático genera un cambio de tal magnitud que induce, inevitablemente, a conflictos de variada intensidad y distintos niveles de violencia. Seguramente no serán las guerras entre las principales potencias como en el pasado.
El desafío de nuestro tiempo es administrar los conflictos de nuevo tipo en un mundo global integrado por Estados con diferentes intereses y posiciones. El estímulo para conciliar tales intereses es generar las bases para mejorar la calidad de vida del planeta.
El cambio climático acelera los tiempos de tránsito hacia el cambio de orden internacional y el modelo de desarrollo que lo sustenta. El cambio global está en marcha, hay que pensar estratégicamente las consecuencias que esto tiene para el país y la región, pues siempre hay mejores y peores políticas para enfrentarlo.