lunes, 22 de noviembre de 2010

Impresoras

Impresoras.

Los dispositivos de salida llamados impresoras son un componente habitual que presenta grandes diferencias entre tipos dependiendo de su estructura y del proceso de impresión, que es el que determina la salida final.

Los tipos de impresora más conocidos son los siguientes:

Impresoras de margarita

Fueron las primeras impresoras para computadoras y fue un desarrollo de la máquina de escribir.

La impresión se realizaba tras el golpe contra la cinta de color mediante caracteres fijos y no podían imprimirse gráficos.

Impresoras de aguja

La impresión se crea o se manipula con la ayuda de agujas en el cabezal de la impresora, un programa que genera distintas combinaciones o a través de los botones de la impresora, lo cual da mayor flexibilidad.

Llamada también impresora de matriz de puntos, permite imprimir distintas fuentes, dibujos e imágenes que no están formados por caracteres de texto sino por otras combinaciones desarrolladas por las agujas.

Impresoras de inyección de tinta

La impresora de inyección de tinta es el tipo de impresora preferido por los usuarios por su calidad de impresión, la velocidad y su precio, que es cada vez más bajo.

Poseen un cabezal móvil con una serie de inyectores que lanzan gotas o puntos de tinta sobre el papel. El conjunto de esos puntos forman la imagen.

Impresoras láser

Las impresiones láser se valen de una combinación de calor, tinta y electricidad estática para producir imágenes con una alta calidad de impresión.

El proceso de la impresora láser tiene las siguientes fases:

a) en un tambor electrostático se crea la imagen completa de la página que hay que imprimir en forma de cargas eléctricas.

b) Un polvo fino, denominado tóner se pega a las zonas del tambor cargadas eléctricamente.

c) El tambor de presiona sobre la hoja de papel, de manera que el tóner quede pegado.

d) El tóner se fija en el papel mediante calor.

Impresoras térmicas (Phaser)

Impresoras de alto rendimiento especialmente adecuadas para impresiones con calidad fotográfica y que se utilizan sobre todo en áreas profesionales (como publicidad y estudios fotográficos).

Esta tecnología se fundamenta en el calentamiento de la tinta hecha a partir de cera depositada en el interior de diminutos conectores del cabezal que impulsan la tinta por los inyectores hacia el papel formando la imagen.

Existen impresoras de muy diversas velocidades, funciones y capacidades que se pueden configurar de acuerdo a distintos tamaños de papel.

La velocidad de una impresora se mide con base en el número de páginas impresas por minuto (ppm) y la resolución va a depender del número de puntos por pulgada.

Su costo es representado por el cartucho de tinta o de toner el cual debe reponerse después de cierta cantidad de impresos.


Plotters.

Una variante de las impresoras es el ploitter. Es un dispositivo de salida que permite imprimir información en hojas de papel mucho más grandes que las convencionales y así generar planos arquitectónicos, carteles cinematográficos,

Diagramas, espectaculares, etc. El ancho estandar de impresión es de 24 y 36 pulgadas, el largo puede adecuarse a cualquier necesidad.

TIPOS DE PANTALLAS.

Las pantallas se consideran un dispositivo de salida porque muestra los resultados de una tarea de procesamiento.

Existen distintas tecnologías, para los dispositivos de pantalla:

Pantalla de Tubo de rayos catódicos, CRT (Cathode Ray Tube)

Utiliza el mismo tipo de cinescopio que un televisor normal.

Utilizan cañones para lanzar haces o rayos de electrones hacia la superficie frontal de la pantalla tratada con fósforo, activando puntos individuales de color que forman la imagen.

Contiene una matriz de pixeles, cada fila de pixeles recibe el nombre de línea.

La resolución se determina por el número de pixeles por línea multiplicado por cada línea. Por ejemplo, una resolución de 800 x 600 significa que la pantalla muestra 600 líneas horizontales con 800 puntos en cada una.

La información del valor RGB de cada pixel se almacena en una memoria denominada memoria de cuadro que contiene los valores de cada pixel.

Estas pantallas son económicas y confiables sin embargo, son estorbosas y consumen mucha electricidad.

Cristal líquido. (LCD, liquid cristal display)

La pantalla LCD produce una imagen al manipular la luz dentro de una capa de celdas con cristales líquidos (compuestos por un material orgánico semejante a un aceite).

La tecnología LCD moderna tiene un tamaño compacto, es portátil, ligera y permite la fácil lectura y visión. Desarrolla monitores esbeltos y de muy alta resolución (calidad de imagen), generan una emisión de radiaciones baja para televisores y computadores de escritorio y portátiles.

Una pantalla de este tipo mide por lo general 13 pulgadas de un extremo a otro con una excelente resolución de 1280 x 1280 pixeles.

Pantallas de plasma.

La tecnología de pantalla de plasma crea una imagen al iluminar luces fluorescentes en miniatura de colores, distribuídas en un panel similar a una pantalla.

Las pantallas de plasma ofrecen numerosa ventajas con respecto a los CRT y LCD y son:

Nivel de brillo máximo

Tiempo de respuesta rápido

Precisión de color superior

Amplios ángulos de visualización

Eliminación de parpadeo

Mayor y excepcional rendimiento

Son compactas y ligeras

Bajo consumo de energía

Menor emisión de calor

Poco espacio

Las pantallas CRT, LCD y de plasma están equipadas con circuitos NTSC o HDTV (televisión de alta definición) de modo que aceptan señales de una antena o de un cable. Permiten ver datos de una computadora o de una televisión.

Pantalla Táctil (touchscreen)

Es una pantalla que mediante un contacto directo sobre su superficie permite la entrada de datos y órdenes al dispositivo.

La tecnología de pantalla táctil más utilizada es un panel transparente recubierto con una capa delgada de material eléctricamente conductor que percibe un cambio en la corriente eléctrica, cuando se toca genera coordenadas y las envía al procesador. Dicho procesador las detecta, compara con la imagen exhibida y responde.

Actúa como periférico de salida, mostrando los resultados introducidos previamente y funciona con los dedos o con una plumilla e interpreta solo un toque o una entrada más compleja, como la letra manuscrita.

Esta tecnología basada en las resistencias es bastante durable, no susceptible al polvo o al agua.


DISPOSITIVOS DE SALIDA

Un dispositivo de salida es cualquier dispositivo que permita transmitir información la cual puede ser visual, auditiva e incluso digital.

Los dispositivos de salida operan en función del suministro de información correcta a la persona indicada en el formato adecuado y en el momento adecuado.

Monitores

Es un dispositivo que da salida a la información visual de una computadora, requiere de circuitos que generan señales para exhibir una imagen.

Un tipo de circuitos de gráficos, conocido como gráficos integrados, está incluídos en la tarjeta madre de la computadora y contiene una unidad de procesamiento de gráficos (GPU), una memoria especial para video (la cual guarda los gráficos y los procesa, antes de ser exhibidos) y aceleradores especiales para mejorar el desempeño del monitor.

De la cantidad de memoria de video depende la actualización y ejecución rápida de la pantalla.

La calidad de una pantalla suele medirse por la cantidad de pixeles verticales y horizontales que la constituyen.

Un pixel es un punto de luz en una pantalla o bien cada uno de los puntos que aparecen en la pantalla. Los pixeles están compuestos por tres pequeños puntos: uno por cada color, lanzados por cañones de electrones.

Puede adoptar uno de dos modos: encendido o apagado.

Un mayor número de pixeles por pulgada cuadrada se traduce en una resolución, claridad y nitidez de la imagen más alta.

CGA (Color Graphics Adapter)

Primera tecnología para la exhibición de color.

MCGA (Multi – Colour Graphics Array)

Matriz gráfica multicolor incluye un adaptador de video y permite dos modos gráficos adicionales:

- el primer modo 640 pixeles horizontales por 480 verticales .

- el segundo 320 pixeles horizontales por 200 pixeles verticales con 256 colores de una paleta de 262.

EGA (Enhanced Graphics Adaptor)

Adaptador de gráficos mejorado que proporciona varios modos de video adicionales entre ellos:

- un modo de 640 pixeles horizontales por 350 pixeles verticales, 16 colores seleccionados de una paleta de 64.

VGA (Video Graphics Array) adaptador de video que reproduce todos los modos de video EGA e incorpora modos adicionales:

- 640 pixeles horizontales por 480 verticales con 16 colores simultáneos en una paleta de 262

- un modo de 320 pixeles horizontales por 200 verticales con 256 colores en una paleta de 262 colores.

SVGA (Super Video Graphics Array) súper matriz gráfica de video con colores de intensa vividez y resolución muy superior.

- Tamaños de 14”, 15”, 17” y 21”, trabajan con resoluciones de 640 x 480, 800 x 600, 1024 x 768 con una combinación de 24.000.00 a 32.000.000 de colores.

Los monitores pueden ser monocromáticos o de colores, estos últimos también llamados RGB (por red, green, blue; rojo, verde, azul) y cuentan con la capacidad de exhibir los colores básicos en una amplia variedad de matices.

La facultad del monitor para exhibir colores se halla en función de:

- La calidad del monitor.

- Su capacidad en RAM.

- Tarjeta adaptadora de gráficos.

jueves, 18 de noviembre de 2010

Redes sociales y aplicaciones Web


Redes sociales
• Permiten la interacción con los usuarios en entornos controlados por un proveedor de servicios.
• Permiten diferentes aplicaciones multimedia así como de “sólo texto”.
• Facebook, Twitter, Myspace.
• Linkedin, Foursquare, Youtube.
• StumbleUpon, hi5, lastFM, Ping.
Blogs (social networks)
• Son sitios web que hacen una analogía a un diario o bitácora en la cual el autor publica periódicamente y permite a sus lectores (o suscriptores) el generar retroalimentación acerca de los contenidos.
• Blogger, Wordpress, Twitter (microblogging)
Comunidads virtuales.
• Agrupar a diferentes individuos a partir de un entorno virtual.
• Entretenimiento, negocios, educación entre otros.
• El usuario genera un avatr o un personaje virtual para intercatuar con el entorno con los otros usuarios
• Fiesta, World of warcraft, second life, edmodo.
Aplicaciones web.
• Gran diversidad de aplicaciones basadas en protocolos web
• Buscadores (google, yahoo, askejeeves)
• Diccionarios: RAE, Merriam-webster
• Eciclopedias: británica, enciclopedia, Oxford universo press.
• Wikis: Wikipedia
• GPS (google maps)

Internet


International net.
Utiliza protocolos TCP/ip para el intercambio de datos.
www World Wide Web
Serie de servicios en línea que usan los protocolos de conexión con hipertexto y transferencia de datos para interrelacionar documentos y archivos
Accesible pro un navegador por un browser
2 clasificaciones de contenidos en la web Web 1.0 y web 2.0
Web 1.0
• Modelo diseñado de 1991 al 2003.
• El usuario no tiene control alguno o muy poco del contenido que se publica en la red.
• Sitios web
• Portales
• Vortales (blog)
• Revistas on-line
Web 2.0
• Comienza en el 2004
• El usuario entabla una relación bidireccional con el sitio web y sus servicios.
• El usuario tiene a la capacidad de modificar el contenido y así enriquecerse con la información y la experiencia.
• Blogs, redes sociales, aplicaciones on-line, Comunidades virtuales, comunidades educativas y de investigación.
• Se da a partir del desarrollo de tecnologías como el flash media, WYSIWYG (what you see is what you get) y Open source (tecnología abierta sin patente, cualquiera puede tener acceso).
• Recursos On-line
o Redes sociales
o Blogs
o Comunidades virtuales
o Aplicaciones web
o Servicios de voz
o E-mail

lunes, 8 de noviembre de 2010

Wifi y Bluetooth



Características

· WiFi, es la sigla para Wireless Fidelity (Wi-Fi), que literalmente significa Fidelidad inalámbrica. Es un conjunto de redes que no requieren de cables y que funcionan en base a ciertos protocolos previamente establecidos.

· WIFI, también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre comercial.

· WiFi es una marca de la compañía Wi-Fi Alliance que está a cargo de certificar que los equipos cumplan con la normativa vigente (que en el caso de esta tecnología es la IEEE 802.11).

· Esta nueva tecnología surgió por la necesidad de establecer un mecanismo de conexión inalámbrica que fuera compatible entre los distintos aparatos.

· Al año siguiente de su creación la WECA certificó que todos los aparatos que tengan el sello WiFi serán compatibles entre sí ya que están de acuerdo con los criterios estipulados en el protocolo que establece la norma IEEE 802.11.

· En concreto, esta tecnología permite a los usuarios establecer conexiones a Internet sin ningún tipo de cables y puede encontrarse en cualquier lugar que se haya establecido un "punto caliente" o hotspot WiFi.

Tipos de conexión

· Actualmente existen tres tipos de conexiones y hay una cuarta en estudio para ser aprobada a mediados de 2007:

o El primero es el estándar IEEE 802.11b que opera en la banda de 2,4 GHz a una velocidad de hasta 11 Mbps.

o El segundo es el IEEE 802.11g que también opera en la banda de 2,4 GHz, pero a una velocidad mayor, alcanzando hasta los 54 Mbps.

o El tercero, que está en uso es el estándar IEEE 802.11ª que se le conoce como WiFi 5, ya que opera en la banda de 5 GHz, a una velocidad de 54 Mbps. Una de las principales ventajas de esta conexión es que cuenta con menos interferencias que los que operan en las bandas de 2,4 GHz ya que no comparte la banda de operaciones con otras tecnologías como los Bluetooth.

o El cuarto, y que aún se encuentra en estudio, es el IEEE 802.11n que operaría en la banda de 2,4 GHz a una velocidad de 108 Mbps.

· Para contar con este tipo de tecnología es necesario disponer de un punto de acceso que se conecte al módem y un dispositivo WiFi conectado al equipo.

·

·

Bluetooth

Transmite datos, estandariza la comunicación entre dispositivos móviles.

Harold Bluetooth

Fusión runas nórdicas: una significa “cruce de caminos”, la otra significa “tormenta de granizo”.

Potencia de trnamisión ancho de banda 1.2 Mbs/seg.

Freceuncia 2.4 Ghtz.

Redes Piconet. Un dispositivo funge como servidor.

Wifi

Significa fidelidad inalámbrica

Transmite datos de alto rendimiento con mayor potencia.

Tipos: - 2.4 Ghtz a 11 Mb/seg.

- 2.4 Ghtz a 54 Mb/seg.

- Wi fi 5 5 Ghtz a 54 Mb/seg.

- 2.4 Ghtz a 108 Mb/seg.

Flujo de Información y Mapa de Procesos

Flujo de Información

Movimiento de información entre departamentos e individuos dentro de una organización y su entorno.

La estructura de la información posee la misma característica en su totalidad: o es de una estructura textual con figuras pero lineal, o es un objeto, un sonido o una imagen.

Siempre existe la mediación de un profesional de interfase para que el receptor interactúe con el flujo de información.

La interacción del receptor con la información. El receptor participa en la fluidez de la información. Su interacción con la información es directa, coloquial y sin intermediarios.

El tiempo de interacción. El receptor conectado online está diseñando su propia interacción con el flujo de información en tiempo real y pasa a ser juez que evalúa la importancia de la información.

La estructura del mensaje. El receptor en un mismo documento, puede elaborar la información en diversos lenguajes, combinando texto, imagen y sonido.

Mapa de Procesos

- Ofrece una visión general del sistema de gestión.

- Se representan los procesos que componen el sistema así como sus relaciones principales. Se indican con flechas y flujos.

Pasos:

1. Identificar los usuarios.

2. Objetivos

3. ¿Qué y quién da impulso al proceso?

4. ¿Cuáles son los elementos de entrada del proceso?

5. ¿Cómo y a través de quién se ejecuta el proceso?

6. ¿Cuáles son los resultados del proceso?

7. ¿Cómo y cuándo se mide, visualiza y evalúa la aptitud de funcionamiento?

8. Visualizar que el proceso es claro y comprensible

9. Evidenciar que el cliente está satisfecho.

Forecasting

Es el proceso de predecir o pronosticar las características futuras y el tiempo de una tecnología. Cuando sea posible, la predicción se cuantificarán a través de una lógica específica para poder estimar el tiempo, los atributos, las capacidades y el grado de cambio, en los parámetros de determinada tecnología.

- Se aplica en campos como: negocios, economía, gubernamental, financiero, tecnológico.

Métodos basados en datos numéricos

Generación de estadísticas basadas en datos históricos.

Método estadístico, causal, estrutural.

Método de juicio. Juicios objetivos o subjetios de expertos.

- Metodo Intiutivo

- Método de consenso

- Método Delphi

- Método por analogía

- Método

Tendencias

- Portabilidad

- Velocidad

- Tamaño (miniturización)

- Definición

- Inmersión

- precio

Usabilidad


Organización Internacional para la Estandarización (ISO)

ISO/IEC9126

Capacidad e un software de ser comprendido, aprendido, usado y de ser atractivo para el usuario, en condiciones específicas de uso.

ISO/IEC9241

Es la efectividad, eficiencia y satisfacción con la que un producto permite alcanzar objetivos específicos para usuarios específicos en un contexto de uso específico.

- Es empleado para denotar la facilidad con la que las personas pueden utilizar una herramienta en particular. Estudio de los principios de efectividad de los objetos.

- Es empírico porque no se basa en opiniones o sensaciones sino en pruebas de usabilidad realizadas en laboratorios u observaciones mediante trabajos decampo.

- Jakob Nielsen nacido en 1957. Destacado en el ámbito de la usabilidad.


lunes, 25 de octubre de 2010

W W W


World Wide Web

No debe confundirse con WorldWideWeb o Internet.
En informática, la World Wide Web, es un sistema de documentos de hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, videos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web Semántica.
Funcionamiento de la Web

El primer paso consiste en traducir la parte nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de páginas vistas o las peticiones de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.
Esta colección de recursos útiles y relacionados, interconectados a través de enlaces de hipertexto, es lo que ha sido denominado como 'red' (web, en inglés) de información. Al trasladar esta idea a Internet, se creó lo que Tim Berners-Lee llamó WorldWideWeb (un término escrito en CamelCase, posteriormente desechado) en 1990.1
Si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable que no se vuelvan a recuperar los datos del servidor web de la forma en que se explicó en el apartado anterior. Por defecto, los navegadores almacenan en una caché del disco duro local todos los recursos web a los que el usuario va accediendo. El navegador enviará una petición HTTP sólo si la página ha sido actualizada desde la última carga, en otro caso, la versión almacenada se reutilizará en el paso de renderizado para agilizar la visualización de la página.
Esto es particularmente importante para reducir la cantidad de tráfico web en Internet. La decisión sobre la caducidad de la página se hace de forma independiente para cada recurso (imagen, hoja de estilo, ficheros JavaScript, etc, además de para el propio código HTML). Sin embargo en sitios de contenido muy dinámico, muchos de los recursos básicos sólo se envían una vez por sesión. A los diseñadores de sitios web les interesa reunir todo el código CSS y JavaScript en unos pocos ficheros asociados a todo el sitio web, de forma que pueden ser descargados en las cachés de los usuarios y reducir así el tiempo de carga de las páginas y las peticiones al servidor.

Aparte de las utilidades creadas en los servidores Web que pueden determinar cuándo los ficheros físicos han sido actualizados, los diseñadores de páginas web generadas dinámicamente pueden controlar las cabeceras HTTP enviadas a los usuarios, de forma que las páginas intermedias o sensibles a problemas de seguridad no sean guardadas en caché. Por ejemplo, en los bancos on line y las páginas de noticias se utiliza frecuentemente este sistema.
Esto nos ayuda a comprender la diferencia entre los verbos HTTP 'GET' y 'POST' - los datos solicitados con GET pueden ser almacenados en la caché, si se cumplen las otras condiciones, mientras que con los datos obtenidos después de enviar información al servidor con POST normalmente no se puede.
[editar]Historia

Artículo principal: Historia de la World Wide Web


Este NeXTcube usado por Berners-Lee en el CERN se convirtió en el primer servidor web.
La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web.
En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del CERN, redacta la propuesta,2 que referenciaba a ENQUIRE y describía un sistema de gestión de información más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas referencias iniciales utilizándose para tal efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide web3 el 12 de noviembre de 1990.
Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el primer navegador web, WorldWideWeb en 1990. En las Navidades del mismo año, Berners-Lee había creado todas las herramientas necesarias para que una web funcionase:4 el primer navegador web (el cual también era un editor web), el primer servidor web y las primeras páginas web5 que al mismo tiempo describían el proyecto.
El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al newsgroup6 alt.hypertext. Esta fecha también señala el debut de la web como un servicio disponible públicamente en Internet.
El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado sistema basado en microfilm "memex", de Vannevar Bush.
El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving the Web (en castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y también: el Uniform Resource Identifier.
World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban disponibles en aquel momento:
WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del propietario de ese recurso. Con ello se reducía significativamente la dificultad de implementar servidores web y navegadores (en comparación con los sistemas anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.
A diferencia de sus predecesores, como HyperCard, World Wide Web era no-propietario, haciendo posible desarrollar servidores y clientes independientemente y añadir extensiones sin restricciones de licencia.
El 30 de abril de 1993, el CERN anunció7 que la web sería gratuita para todos, sin ningún tipo de honorarios.
ViolaWWW fue un navegador bastante popular en los comienzos de la web que estaba basado en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la World Wide Web comenzó con la introducción8 del navegador9 web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic vino del High-Performance Computing and Communications Initiative, un programa de fondos iniciado por el entonces gobernador Al Gore High Performance Computing and Communication Act of 1991, también conocida como la Gore Bill.10 Antes del lanzamiento de Mosaic, las páginas web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. La interfaz gráfica de usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de una manera fulgurante...

miércoles, 20 de octubre de 2010

Usabilidad y Forecasting

¿Qué es la usabilidad?

Técnicas que ayudan a los seres humanos a realizar tareas en entornos gráficos de ordenador.

Existen 3 conceptos muy importantes.

- Trabajamos para seres humanos, que quieren realizar una tarea de una forma sencilla y eficaz y en este caso particular, la deben realizar frente a un ordenador en un entorno grafico, la web.

La usabilidad ayuda a que esta tarea se realice de una forma sencilla analizando el comportamiento humano, y los pasos necesarios para ejecutar la tarea de una forma eficaz.

Realmente hace falta la usabilidad para hacer una web?

Si. Sea tu web un portal o una pagina personal, no olvides que la gente que entra en tu web es por que básicamente busca algo. Hacerlo sencillo es decisión tuya, pero seguro que entre todos podemos hacer de Internet un sitio mejor donde la gente no se sienta perdida o extraviada o sencillamente defraudada.

1. En internet el usuario es el que manda. Esto quiere decir que sin usuarios tu pagina muere, asi que mas te vale que los cuides y les des lo que te piden, de lo contrario te quedaras solo.

2. En internet la calidad se basa en la rapidez y la fiabilidad. En Internet cuenta que tu pagina sea mas rápida que bonita, fiable que moderna, sencilla que compleja, directa.

3. Seguridad. Si en el mundo real a veces nos cuesta fiarnos del banco de la esquina, imaginate como se siente la gente en internet cuando llega a tu site. Procura que todo funcione como un reloj para que la gente pueda fiarse de tu site.

4. La confianza es algo que cuesta mucho ganar y se pierde con un mal enlace. Esto quiere decir que tal y como esta la competencia en internet, no puedes perder ni un solo visitante por tener un enlace mal hecho. Es mejor salir con algo sencillo e irlo complicando poco a poco, que salir con todo y ver "que es lo que pasa". Versiones 1.0 son buenas mientras lo que este puesto este bien asentado y genere confianza. Poco a poco y con el feedback de los usuarios, podras ir complicando la pagina. Pero asegura antes de arriesgar.

5. Si quieres hacer una pagina decente, simplifica, reduce, optimiza. La gente no se va a aprender tu site por mucho que insistas, asi que por lo menos hazlo sencillo, reutiliza todos los elementos que puedas, para que de este modo los usuarios se sientan comodos y no se pierdan cada vez que necesiten encontrar algo en tu site.

6. Pon las conclusiones al principio. El usuario se sentira mas comodo si ve las metas al principio. De esta forma no tendra que buscar lo que necesita y perdera menos tiempo en completar su tarea. Si completa su tarea en menos tiempo se sentira comodo y quizas se dedique a explorar tu site o quizas se lo recomiende a un amigo.

7. No hagas perder el tiempo a la gente con cosas que no necesitan. Cuidado con cruzar promociones, si lo haces por lo menos hazlo con cuidado. Procura que la seleccion de productos a cruzar sea consecuente y no lo quieras "vender todo" en todas las paginas. Segun avance el usuario en su navegacion procura dejarle mas espacio libre. Puede ocurrir que cuando este punto de comprar algo vea una oferta que le distraiga y pierdas esa venta.

8. Buenos contenidos. Escribir bien para internet es todo un arte. Pero siguiendo las reglas basicas de (1) poner las conclusiones al principio y (2) escribir como un 25% de lo que pondrias en un papel, se puede llegar muy lejos. Leer en pantalla cuesta mucho, por lo que, en el caso de textos para internet, reduce y simplifica todo lo que puedas.

http://www.desarrolloweb.com/articulos/221.php

Forecasting

Forecasting is the process of making statements about events whose actual outcomes (typically) have not yet been observed. A commonplace example might be estimation of the expected value for some variable of interest at some specified future date. Prediction is a similar, but more general term. Both might refer to formal statistical methods employing time series, cross-sectional or longitudinal data, or alternatively to less formal judgemental methods. Usage can differ between areas of application: for example in hydrology, the terms "forecast" and "forecasting" are sometimes reserved for estimates of values at certain specific future times, while the term "prediction" is used for more general estimates, such as the number of times floods will occur over a long period. Risk and uncertainty are central to forecasting and prediction; it is generally considered good practice to indicate the degree of uncertainty attaching to forecasts. The process of climate change and increasing energy prices has led to the usage of Egain Forecasting of buildings. The method uses Forecasting to reduce the energy needed to heat the building, thus reducing the emission of greenhouse gases. Forecasting is used in the practice of Customer Demand Planning in every day business forecasting for manufacturing companies. The discipline of demand planning, also sometimes referred to as supply chain forecasting, embraces both statistical forecasting and a consensus process. An important, albeit often ignored aspect of forecasting, is the relationship it holds with planning. Forecasting can be described as predicting what the future will look like, whereas planning predicts what the future should look like. There is no single right forecasting method to use. Selection of a method should be based on your objectives and your conditions (data etc.) A good place to find a method, is by visiting a selection tree. An example of a selection tree can be found here.

http://en.wikipedia.org/wiki/Forecasting

miércoles, 6 de octubre de 2010

Interfases para la transmisión y recepción por medios no físicos.

  • En donde comienzan las ondas electromagnéticas, con las ondas gamma.
  • Micrófono, ideado por Alexander Graham Bell. Edward Huges. Thomas alba Edison 1886 innovación.
  • Transductor de ondas sonoras en señales eléctricas.
  • De carbón, fibra óptica, laser, liquido, silicón y piezoeléctrico

Antena aérea.

  • Guillermo Marconi 1895. Oermite transmisión y recepción de ondas electromagnéticas. Actúan como transductores ente ondas e impulsos eléctricos.
  • Tipos: antena bipolar (de conejo), antena yaggiuda, cable aleatrio, de cuerno y las planares.
  • Antena parabólica. Heinrich Hertz 1888. Permite transmisión de radio, televisión, radiolocalización y telecomunicaciones.
  • Va desde la transmisión de ondas de radio frecuencia hasta microondas.
Radiotelescopio.
  • Karl guthe ransky 1931. Recibe información de ondas de radiofrecuencia. Usados en la astronomía para recolectar la información proviene de satélites como ondas espaciales.
  • El diámetro de su disco va de los 3 mts. Hasta los 305 mts.
  • Necesita silencio, sin interferencia.
  • Interferometria es juntar muchos radiotelescopios.
  • Disco satelital solo capta microondas. Televisión y datos. Diámetro de 60cm. Hasta los 43 u 80 cm.
  • Satelite comunicacional. Sputnik 1 1957.
  • Para telefonía, televisión, videoconferencia, radio satelital, internet, GPS, meteorología astrofísica, física espacial y la milicia.
  • En el aire hay más de 4000 y en uso 800.
  • GPS.


Antenas

Una antena es un dispositivo diseñado con el objetivo de emitir o recibir ondas electromagnéticas hacia el espacio libre. Una antena transmisora transforma voltajes en ondas electromagnéticas, y una receptora realiza la función inversa.

Las antenas deben de dotar a la onda radiada con un aspecto de dirección. Es decir, deben acentuar un solo aspecto de dirección y anular o mermar los demás. Esto es necesario ya que solo nos interesa radiar hacia una dirección determinada.

La antena parabólica es un tipo de antena que se caracteriza por llevar un reflector parabólico. Su nombre proviene de la similitud a la parábola generada al cortar un cono recto con un plano paralelo a la directriz.

Las antenas parabólicas pueden ser usadas como antenas transmisoras o como antenas receptoras. En las antenas parabólicas transmisoras el reflector parabólico refleja la onda electromagnética generada por un dispositivo radiante que se encuentra ubicado en el foco del reflector parabólico, y los frentes de ondas que genera salen de este reflector en forma más coherente que otro tipo de antenas, mientras que en las antenas receptoras el reflector parabólico concentra la onda incidente en su foco donde también se encuentra un detector. Normalmente estas antenas en redes de microondas operan en forma full duplex, es decir, trasmiten y reciben simultáneamente Las antenas parabólicas suelen ser utilizadas a frecuencias altas y tienen una ganancia elevada

Antena aérea es un término acuñado por Guillermo Marconi en 1895. Este tipo de antenas permiten la transmisión y recepción de ondas electromagnéticas desde radiofrecuencias hasta microondas. Actúan como transductores entre estas y los impulsos electrónicos.

Rayos Ultravioleta, Gamma y Rayos X

Rayos Ultravioleta

*Comprende de 8·1014Hz a 1·1017Hz.

*Son producidas por saltos de electrones en átomos y moléculas excitados.

*Tiene el rango de energía que interviene en las reacciones químicas.

*El sol es una fuente poderosa de UVA ( rayos ultravioleta) los cuales al interaccionar con la atmósfera exterior la ionizan creando la ionosfera.

*Los ultravioleta pueden destruir la vida y se emplean para esterilizar.

*Nuestra piel detecta la radiación ultravioleta y nuestro organismo se pone a fabricar melanina para protegernos de la radiación.

*La capa de ozono nos protege de los UVA.

RAYOS X

*Son producidos por electrones que saltan de órbitas internas en átomos pesados.

*Sus frecuencias van de 1'1·1017Hz a 1,1·1019Hz.

*Son peligrosos para la vida: una exposición prolongada produce cáncer.

*Se emplean sobre todo en los campos de la investigación científica, la industria y la medicina.

*Como herramienta de investigación, los rayos X han permitido confirmar experimentalmente las teorías cristalográficas.

*Utilizando métodos de difracción de rayos X es posible identificar las sustancias cristalinas y determinar su estructura.

*Los métodos de difracción de rayos X también pueden aplicarse a sustancias pulverizadas que, sin ser cristalinas, presentan alguna regularidad en su estructura molecular.

*Mediante estos métodos es posible identificar sustancias químicas y determinar el tamaño de partículas ultramicroscópicas.

*Sirven para la identificación de gemas falsas o la detección de mercancías de contrabando en las aduanas; también se utilizan en los aeropuertos para detectar objetos peligrosos en los equipajes.

*Los rayos X ultrablandos se emplean para determinar la autenticidad de obras de arte y para restaurar cuadros.

*Las fotografías de rayos X o radiografías y la fluoroscopia se emplean mucho en medicina como herramientas de diagnóstico.

*En la radioterapia se emplean rayos X para tratar determinadas enfermedades, en particular el cáncer, exponiendo los tumores a la radiación.

RAYOS GAMMA

*Comprenden frecuencias mayores de 1·1019Hz.

*Se origina en los procesos de estabilización en el núcleo del átomo después de emisiones radiactivas.

*Su radiación es muy peligrosa para los seres vivos.

*Los rayos gamma provenientes del cobalto 60 se utilizan para esterilizar instrumentos que no pueden ser esterilizados por otros métodos, y con riesgos considerablemente menores para la salud.