sábado, 20 de junio de 2009

HISTORIA DE LOS MEDIOS DE COMUNICACION

Como medio de comunicación se hace referencia al instrumento o forma de contenido por el cual se realiza el proceso comunicacional o comunicación. Usualmente se utiliza el término para hacer referencia a los medios de comunicación masivos (MCM, medios de comunicación de masas o mass media), sin embargo, otros medios de comunicación, como el teléfono, no son masivos sino interpersonales.

Los medios de comunicación son instrumentos en constante evolución. Muy probablemente la primera forma de comunicarse entre humanos fue la de los signos y señales empleados en la prehistoria, cuyo reflejo en la cultura material son las distintas manifestaciones del arte prehistórico. La aparición de la escritura se toma como hito de inicio de la historia. A partir de ese momento, los cambios económicos y sociales fueron impulsando el nacimiento y desarrollo de distintos medios de comunicación, desde los vinculados a la escritura y su mecanización (imprenta -siglo XV-) hasta los medios audiovisuales ligados a la era de la electricidad (primera mitad del siglo XX) y a la revolución de la informática y las telecomunicaciones (revolución científico-técnica o tercera revolución industrial -desde la segunda mitad del siglo XX-), cada uno de ellos esenciales para las distintas fases del denominado proceso de globalización.

1.- HISTORIA DEL INTERNET

La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.

Las más antiguas versiones de estas ideas aparecieron a finales de los años 50. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.

La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.

Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostraciones de teoremas automatizadas e inteligencia artificial.

Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).

"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"

J.C.R Licklider[1]
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.

"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él.

Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."

Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.

La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.

Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.

REDES QUE LLEVARON A LA APARICION DE INTERNET

a)ARPANET


Artículo principal: ARPANET
Leonard Kleinrock y el primer IMP (Interface Message Processor, nodo de conmutacion de paquetes de datos).

Ascendido a jefe de la oficina de procesamiento de información en el ARPA, Robert Taylor intentó hacer reales las ideas de Licklider sobre un sistema de redes interconectadas. Junto con Larry Roberts del MIT, inició un proyecto para empezar con una red similar. La primera conexión de ARPANET se estableció el 21 de noviembre de 1969, entre la Universidad de California, Los Ángeles y el Instituto de Investigaciones de Stanford. Antes del 5 de diciembre de 1969, se había formado una red de 4 nodos, añadiendo la Universidad de Utah y la Universidad de California, Santa Barbara. Usando ideas desarrolladas en la ALOHAnet, la ARPANET se inauguró en 1972 y creció rápidamente hasta el 1981. El número de hosts creció a 213, con uno nuevo añadiéndose aproximadamente cada 20 días.4 5

ARPANET se convirtió en el núcleo de lo que posteriormente sería Internet, y también en una herramienta primaria en el desarrollo de la tecnología del momento. ARPANET evolucionó usando estándares del proceso RFC, aún usado actualmente para proponer y distribuir protocolos y sistemas de Internet. El RFC1, titulado "Host Software", fue escrito por Steve Crocker desde la Universidad de California, Los Ángeles, y publicado el 7 de abril de 1969.

Las colaboraciones internacionales en ARPANET eran escasas; por varias razones políticas los desarrolladores europeos estaban preocupados en desarrollar las redes X.25, con la notable excepción del Norwegian Seismic Array en 1972 seguidos en 1973 por enlaces de los satélites a la estación terrestre de Tanum en Suecia y en la University College de Londres.pu

b) X.25 y acceso público

A partir de la investigación del DARPA, las redes de conmutación de paquetes fueron desarrolladas por la Unión Internacional de Telecomunicaciones (UIT) en forma de redes X.25. X.25 formó la base de la red entre la academia británica y otros sitios de investigación en SERCnet, en 1974, que más tarde pasaría a llamarse JANET. El Estándar inicial de X.25 según la UIT se aprobó en Marzo de 1976.

En 1978, la Oficina de Correos británica, Western Union International y Tymnet colaboraron para crear la primera red de paquetes conmutados internacional; refiriéndose a ella como "International Packet Switched Service" (IPSS). Esta red creció desde Europa y Estados Unidos hasta Canadá, Hong Kong y Australia antes del 1981, y pocos años después, creó una infraestructura de conexiones mundial.6

Al contrario que ARPANET, X.25 estaba diseñado para poderse utilizar en oficina. Se usó para las primeras redes de teléfono de acceso público, tales como Compuserve y Tymnet. En 1979, CompuServe fue el primero en ofrecer posibilidades para el correo electrónico y soporte técnico a usarios de PCs. La compañía fue nuevamente pionera en 1980, como la primera en ofrecer chat con su CB Simulator. También estaban las redes de teléfono de America Online (AOL) y Prodigy, y varias redes BBS como The WELL y FidoNet. FidoNet era popular entre usuarios por hobby, parte de ellos hackers y radioaficionados.

c) UUCP

En 1979, dos estudiantes de la Universidad de Duke, Tom Truscott y Jim Ellis, propusieron la idea de usar scripts simples en Bourne Shell para transefir noticias y mensajes entre su universidad y la cercana Universidad de Carolina del Norte, Chapel Hill. Después de la salida del software al dominio público, la red de hosts UUCP usada para noticias Usenet se expandió rápidamente. UUCPnet, nombre que acabaría recibiendo, también crearía portales y vínculos entre Fidonet y los hosts de marcaje,telefónico BBS. Las redes UUCP se distribuyeron rápidamente debido a su bajo coste y a su capacidad de usar las líneas alquiladas ya existentes, los vínculos X.25 o incluso las conexiones de ARPANET. Antes de 1983 el número de hosts UUCP ya había aumentado a 550, casi duplicándose hasta los 940 en 1984.

d) FUSIONANDO LAS REDES Y CREANDO INTERNET
TCP/IP

Mapa de la red de prueba TCP/IP, en enero de 1982.

Por esta época había muchos métodos diferentes de conexionado, hacía falta algo para unificarlos. Robert E. Kahn del ARPA y ARPANET contrató a Vint Cerf de la Universidad de Stanford para trabajar con él en el problema. Antes del 1973, habían pensado en una reformulación fundamental, donde las diferencias entre los protocolos de red se escondían usando un protocolo de red común, y donde eran los hosts los encargados de ser fiables, y no la red. Cerf atribuye a Hubert Zimmerman y a Louis Pouzin (diseñador de la red CYCLADES) un importante trabajo en este diseño.

Con el rol de la red reducido al mínimo, se hizo posible juntar prácticamente todas las redes, sin importar sus características, resolviendo el problema inicial de Kahn. DARPA aceptó patrocinar el desarrollo del software prototipo, y tras muchos años de trabajo, la primera demostración (algo básica) de en cómo se había convertido al protocolo TCP/IP (en Julio de 1977). Este nuevo método se expandió rápidamente por las redes, y el 1 de Enero de 1983, los protocolos TCP/IP se hicieron los únicos protocolos aprobados en ARPANET, sustituyendo al anterior protocolo NCP.8
e) ARPANET a NSFNet
Después que ARPANET estuviera funcionando por varios años, ARPA buscó otra agencia para ceder la red de ordenadores; la tarea primaria de ARPA era impulsar investigaciones y desarrollos de avanzada, no manejar un servicio público de comunicaciones. Eventualmente, en julio de 1975, la red se cedió a la "Defense Communications Agency" que también era parte del Departamento de Defensa. En 1984, la porción militar de ARPANET se dividió como una red separada, la MILNET.

Las redes basadas alrededor de ARPANET eran pagadas por el gobierno y por tanto restringidas a usos no comerciales tales como investigación; el uso comercial estaba estrictamente prohibido. Las conexiones se restringieron a sitios militares y universidades. Durante los 80s, las conexiones se expandieron a más instituciones educacionales, e incluso a un creciente número de compañías tales como Digital Equipment Corporation y Hewlett-Packard, que estaban participando en proyectos de investigación y suministrando servicios.
Otra rama del gobierno, la National Science Foundation (NSF), se volvió fuertemente involucrada en investigación en Internet y empezó un desarrollo como sucesor de ARPANET. En 1984 esto resultó en la primera red de banda ancha diseñada específicamente para usar TCP/IP. Esto creció como NSFNet, establecida en 1986, para conectar y proveer acceso a una cantidad de supercomputadores establecidos por la NSF.

f) LA TRANSICIÓN HACIA INTERNET

Para entonces, ARPANET empezó a fusionarse con NSFNet, originando el término Internet,9 con, "una internet" definido como cualquier red que usase el protocolo TCP/IP. "La Internet" significaba una red global y muy grande que usaba el protocolo TCP/IP, y que a su vez significaba NSFNet y ARPANET. Hasta entonces "internet" e "internetwork" (lit. "inter-red") se habían usado indistintamente, y "protocolo de internet" se usaba para referirse a otros sistemas de redes tales como Xerox Network Services.

Como el interés en la expansión de las conexiones creció, y aparecieron nuevas aplicaciones para ello, las tecnologías de Internet se esparcieron por el resto del mundo. En 1984, University College London reemplazó sus vínculos por satélite transatlánticos por TCP/IP por medio del International Packet Switched Service (Servicio Conmutado de Paquetes Internacional).

Varios sitios que no podían conectarse directamente a Internet empezaron a hacerlo por medio de simples portales para permitir la transferencia de correo electrónico, siendo esta última por entonces la aplicación más importante. Esos sitios con sólo conexiones intermitentes usarían UUCP o Fidonet, y confiarían en los portales entre esas redes e Internet. Algunos servicios de portales fueron más allá del simple peering de e-mail, ofreciendo servicios como el acceso a sitios FTP a través de UUCP o e-mail.

g) TCP/IP en el mundo entero

La primera conexión ARPANET fuera de EEUU se hizo con NORSAR en Noruega en 1973, justo antes de las conexiones con Gran Bretaña. Todas estas conexiones se convirtieron en TCP/IP en 1982, al mismo tiempo que el resto de las ARPANET.

h) CERN, la Internet europea, el enlace al Pacífico y más allá

En 1984 Europa empezó a avanzar hacia un uso más general del TCP/IP, y se convenció al CERNET para que hiciera lo mismo. El CERNET, ya convertido, permaneció aislado del resto de Internet, formando una pequeña internet interna.
En 1988 Daniel Karrenberg, del Instituto Nacional de Investigación sobre Matemáticas e Informática de Ámsterdam, visitó a Ben Segal, coordinador TCP/IP dentro del CERN; buscando por consejo sobre la transición del lado europeo de la UUCP Usenet network (de la cual la mayor parte funcionaba sobre enlaces X.25) a TCP/IP. En 1987, Ben Segal había hablado con Len Bosack, de la entonces pequeña compañía Cisco sobre routers TCP/IP, y pudo darle un consejo a Karrenberg y reexpedir una carta a Cisco para el hardware apropiado. Esto expandió la porción europea de Internet sobre las redes UUCP existentes, y en 1989 CERN abrió su primera conexión TCP/IP externa.11 Esto coincidió con la creación de Réseaux IP Européens (RIPE), inicialmente un grupo de administradores de redes IP que se veían regularmente para llevar a cabo un trabajo coordinado. Más tarde, en 1992, RIPE estaba formalmente registrada como una cooperativa en Ámsterdam.

Al mismo tiempo que se producía el ascenso de la interconexión en Europa, se formaron conexiones hacia el ARPA y universidades australianas entre sí, basadas en varias tecnologías como X.25 y UUCPNet. Éstas estaban limitadas en sus conexiones a las redes globales, debido al coste de hacer conexiones de marcaje telefónico UUCP o X.25 individuales e internacionales. En 1989, las universidades australianas se unieron al empujón hacia los protocolos IP para unificar sus infraestructuras de redes. AARNet se formó en 1989 por el Comité del Vice-Canciller Australiano y proveyó una red basada en el protocolo IP dedicada a Australia.
En Asia, habiendo construido la JUNET (Red Universitaria Japonesa) una red basada en UUCP en 1984 Japón continuó conectándose a NSFNet en 1989 e hizo de anfitrión en la reunión anual de The Internet Society, INET'92, en Kobe. Singapur desarrolló TECHNET en 1990, y Thailandia consiguió una conexión a Internet global entre la Universidad de Chulalongkorn y UUNET en 1992.12

i) Apertura de la red al comercio
Aunque el uso comercial estaba prohibido, su definición exacta era subjetiva y no muy clara. Todo el mundo estaba de acuerdo en que una compañía enviando una factura a otra compañía era claramente uso comercial, pero cualquier otro asunto podía ser debatido. UUCPNet y la IPSS X.25 no tenían esas restricciones, que eventualmente verían la excepción oficial del uso de UUCPNet en conexiones ARPANET y NSFNet. A pesar de ello, algunas conexiones UUCP seguían conectándose a esas redes, puesto que los administradores cerraban un ojo sobre su operación.

Durante los finales de los años 80 se formaron las primeras compañías Internet Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de marcaje telefónico, world.std.com, se inauguró en 1989.

Esto causó controversia entre los usuarios conectados a través de una universidad, que no aceptaban la idea del uso no educativo de sus redes. Los ISP comerciales fueron los que eventualmente bajaron los precios lo suficiente como para que los estudiantes y otras escuelas pudieran participar en los nuevos campos de educación e investigación.

Para el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró. Tras la clausura de ARPANET, en 1994, NSFNet, actualmente ANSNET (Advanced Networks and Services, Redes y Servicios Avanzados) y tras permitir el acceso de organizaciones sin ánimo de lucro, perdió su posición como base fundamental de Internet. Ambos, el gobierno y los proveedores comerciales crearon sus propias infraestructuras e interconexiones. Los NAPs regionales se convirtieron en las interconexiones primarias entre la multitud de redes y al final terminaron las restricciones comerciales.

j) IETF y un estándar para los estándares

Internet desarrolló una subcultura bastante significativa, dedicada a la idea de que Internet no está poseída ni controlada por una sola persona, compañía, grupo u organización. Aun así, se necesita algo de estandarización y control para el correcto funcionamiento de algo.

El procedimiento de la publicación del RFC liberal provocó la confusión en el proceso de estandarización de Internet, lo que condujo a una mayor formalización de los estándares oficialmente aceptados. El IETF empezó en enero de 1986 como una reunión trimestral de los muchos investigadores del gobierno de los Estados Unidos. En la cuarta reunión del IETF (octubre de 1986) se pidió a los representantes de vendedores no gubernamentales que empezaran a participar en esas reuniones.
La aceptación de un RFC por el Editor RFC para su publicación no lo estandariza automáticamente. Debe ser reconocido como tal por la IETF sólo después de su experimentación, uso, y su aceptación como recurso útil para su propósito. Los estándares oficiales se numeran con un prefijo "STD" y un número, similar al estilo de nombramiento de RFCs. Aun así, incluso después de estandarizarse, normalmente la mayoría es referida por su número RFC.

En 1992, se formó una sociedad profesional, la Internet Society (Sociedad de Internet), y la IETF se transfirió a una división de la primera, como un cuerpo de estándares internacionales independiente.
k) NIC, Inter NIC IANA e ICANN
La primera autoridad central en coordinar la operación de la red fue la NIC (Network Information Centre) en el Stanford Research Institute (también llamado SRI International, en Menlo Park, California). En 1972, el manejo de estos problemas se transfirió a la reciente Agencia de Asignación de Números de Internet (Internet Assigned Numbers Authority, o IANA). En adición a su papel como editor RFC, Jon Postel trabajó como director de la IANA hasta su muerte en 1998.

Así como crecía la temprana ARPANet, se establecieron nombres como referencias a los hosts, y se distribuyó un archivo HOSTS.TXT desde SRI International a cada host en la red. Pero a medida que la red crecía, este sistema era menos práctico. Una solución técnica fue el Domain Name System, creado por Paul Mockapetris. La Defense Data Network - Network Information Center (DDN-NIC) en el SRI manejó todos los servicios de registro, incluyendo los dominios de nivel superior .mil, .gov, .edu, .org, .net, .com y .us, la administración del servidor raíz y la asignación de los números de Internet, bajo un contrato del Departamento de Defensa de los Estados Unidos.13 En 1991, la Agencia de Sistemas de Información de Defensa (Defense Information Systems Agency o DISA) transfirió la administración y mantenimiento de DDN-NIC (hasta ese momento manejado por SRI) a Government Systems, Inc., que lo subcontrató al pequeño sector privado Network Solutions, Inc.

Como a este punto en la historia la mayor parte del crecimiento de Internet venía de fuentes no militares, se decidió que el Departamento de Defensa ya no fundaría servicios de registro fuera del domino de nivel superior .mil. En 1993 la National Science Foundation de los E.E.U.U., después de un competitivo proceso de puja en 1992, creó la InterNIC para tratar las localizaciones de las direcciones y el manejo de las bases de datos, y pasó el contrato a tres organizaciones. Los servicios de Registro los daría Network Solutions; los servicios de Directorios y Bases de Datos, AT&T; y los de Información, General Atomics.

En 1998 tanto IANA como InterNIC se reorganizaron bajo el control de ICANN, una corporación de California sin ánimo de lucro, contratada por el US Department of Commerce para manejar ciertas tareas relacionadas con Internet. El papel de operar el sistema DNS fue privatizado, y abierto a competición, mientras la gestión central de la asignación de nombres sería otorgada através de contratos.

l) USO Y CULTURA

Email y Usenet—El crecimiento de los foros de texto.

Se suele considerar al e-mail como la aplicación asesina de Internet; aunque realmente, el e-mail ya existía antes de Internet y fue una herramienta crucial en su creación. Empezó en 1965 como una aplicación de ordenadores centrales a tiempo compartido para que múltiples usuarios pudieran comunicarse. Aunque la historia no es clara, entre los primeros sistemas en tener una facilidad así se encuentran Q32, de SDC's, y CTSS del MIT.
La red de computadoras de ARPANET hizo una gran contribución en la evolución del correo electrónico. Existe un informe17 que indica transferencias de e-mail entre sistemas experimentales poco después de su creación. Ray Tomlinson inició el uso del signo @ para separar los nombres del usuario y su máquina, en 1971.
Se desarrollaron protocolos para transmitir el e-mail entre grupos de ordenadores centrales a tiempo compartido sobre otros sistemas de transmisión, como UUCP y el sistema de e-mail VNET, de IBM. El correo electrónico podía pasarse así entre un gran número de redes, incluyendo ARPANET, BITNET y NSFNET, así como a hosts conectados directamente a otros sitios vía UUCP.

Además, UUCPnet trajo una manera de publicar archivos de texto que se pudieran leer por varios otros. El software News, desarrollado por Steve Daniel y Tom Truscott en 1979 se usarían para distribuir noticias mensajes como tablones de anuncios. Esto evolucionó rápidamente a los grupos de discusión con un gran rango de contenidos. En ARPANET y NSFNET, concretamente en en la lista de correo de sflovers se crearon grupos de discusión similares por medio de listas de correo, que discutían asuntos técnicos y otros temas, como la ciencia ficción.

ll) Una biblioteca mundial—Del Gopher a la WWW

A medida que Internet creció durante los años 1980 y principios de los años 1990, mucha gente se dio cuenta de la creciente necesidad de poder encontrar y organizar ficheros e información. Los proyectos como Gopher, WAIS, y la FTP Archive list intentaron crear maneras de organizar datos distribuidos. Desafortunadamente, estos proyectos se quedaron cortos en poder alojar todos los tipos de datos existentes y en poder crecer sin cuellos de botella.

Uno de los paradigmas de interfaz de usuario más prometedores durante este periodo fue el hipertexto. La tecnología había sido inspirada por el "Memex" de Vannevar Bush19 y desarrollado a través de la investigación de Ted Nelson en el Proyecto Xanadu y la investigación de Douglas Engelbart en el NLS.20 Muchos pequeños sistemas de hipertexto propios se habían creado anteriormente, como el HyperCard de Apple Computer.
En 1991, Tim Berners-Lee fue el primero en desarrollar un implementación basada en red de concepto de hipertexto. Esto fue después de que Berners-Lee hubiera propuesto repetidamente su idea a las comunidades de hipertexto e Internet en varias conferencias sin acogerse—nadie lo implementaría por él. Trabajando en el CERN, Berners-Lee quería una manera de compartir información sobre su investigación. Liberando su implementación para el uso público, se aseguró que la tecnología se extendería.21 Posteriormente, Gopher se convirtió en la primera interfaz de hipertexto comúnmente utilizada en Internet. Aunque las opciones del menú Gopher eran ejemplos de hipertexto, éstas no fueron comúnmente percibidas de esta manera. Unos de los primeros populares navegadores web, modelado después de HyperCard, fue ViolaWWW.

Los expertos generalmente están de acuerdo, sin embargo, que el punto decisivo para la World Wide Web comenzó con la introducción22 de Mosaic23 en 1993, un navegador web con interfaz gráfica desarrollado por un equipo en el National Center for Supercomputing Applications en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), liderado por Marc Andreessen. Los fondos para Mosaic vinieron desde la High-Performance Computing and Communications Initiative, el programa de ayudas High Performance Computing and Communication Act of 1991 iniciado por el entonces senador Al Gore.24 De hecho, la interfaz gráfica de Mosaic pronto se hizo más popular que Gopher, que en ese momento estaba principalmente basado en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet.

Mosaic fue finalmente suplantado en 1994 por Netscape Navigator de Andreessen, que reemplazó a Mosaic como el navegador web más popular en el mundo. La competencia de Internet Explorer y una variedad de otros navegadores casi lo ha sustituido completamente. Otro acontecimiento importante celebrado el 11 de enero de 1994, fue The Superhighway Summit en la Sala Royce de la UCLA. Esta fue la "primera conferencia pública que agrupó a todos los principales líderes de la industria, el gobierno y académicos en el campo [y] también comenzó el diálogo nacional sobre la Autopista de la información y sus implicaciones."25

m) Encontrando lo que necesitas—El buscador
Incluso antes de la World Wide Web, hubo buscadores que intentaron organizar Internet. El primero de estos fue Archie de la Universidad McGill en 1990, seguido en 1991 por WAIS y Gopher. Los tres sistemas fueron anteriores a la invención de la World Wide Web pero todos continuaron indexando la Web y el resto de Internet durante varios años después de que apareciera la Web. A 2006, aún hay servidores Gopher, aunque hay muchos más servidores web.

A medida que la Web creció, se crearon los buscadores y los directorios web para localizar las páginas en la Web y permitir a las personas encontrar cosas. El primer buscador web completamente de texto fue WebCrawler en 1994. Antes de WebCrawler, sólo se podían buscar títulos de páginas web. Otro de los primeros buscadores, Lycos, fue creado en 1993 como un proyecto universitario, y fue el primero en conseguir éxito comercial. Durantes los últimos años de 1990, tanto los directorios web como los buscadores web eran populares—Yahoo! (fundado en 1995) y Altavista (fundado en 1995) fueron los respectivos líderes de la industria.

Por agosto de 2001, el modelo de directorios había comenzado a ceder ante el de buscadores, mostrando el surgimiento de Google (fundado en 1998), que había desarrollado nuevos enfoques para el ordenamiento por relevancia. El modelo de directorios, aunque aún está disponible comúnmente, es menos utilizado que los buscadores.

El tamaño de las bases de datos, que había sido sido una característica de marketing significativa durante los primeros años de la década de 2000, fue igualmente sustituido por el énfasis en el ordenamiento por relevancia, los métodos con los cuales los buscadores intentan colocar los mejores resultados primero. El ordenamiento por relevancia se convirtió por primera vez en una cuestión importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. Por consiguiente, los algoritmos para el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayoría de la prensa, pero todos los principales buscadores refinan continuamente sus metodologías de ordenamiento con el objetivo de mejorar el orden de los resultados. En 2006, la posición en los buscadores es más importante que nunca, tanto que la industria ha desarrollado ("posicionadores en buscadores") para ayudar a los desarrolladores web a mejorar su posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags. La venta de posiciones en buscadores por algunos buscadores ha creado también controversia entre bibliotecarios y defensores de los consumidores.
n) La burbuja .com
El repentino bajo precio para llegar a millones de personas en el mundo, y la posibilidad de vender y saber de la gente a que se vendía en el mismo momento, prometió cambiar el dogma de negocio establecido en la publicidad, las ventas por correo, CRM, y muchas más áreas. La web fue una nueva aplicación rompedora—podía juntar compradores y vendedores sin relación previa de manera fluida y con bajo coste. Los visionarios alrededor del mundo desarrollaron nuevos modelos de negocio, y se dirigieron a su capitalista de riesgo más cercano. Por supuesto una proporción de los nuevos empresarios tenían realmente talento en la administración de empresas y las ventas y crecieron; pero la mayoría eran simplemente gente con ideas, y no gestionaron el influjo de capital prudentemente. Además, muchos planes de negocios .com estaban fundamentados sobre el supuesto que usando Internet, evitarían los canales de distribución de los negocios existentes y por tanto no tendrían que competir con ellos; cuando los negocios establecidos con fuertes marcas desarrollaron su propia presencia en Internet, estas esperanzas fueron destrozadas, y los recién llegados quedaron abandonados en su negocio intentando romper los mercados dominados por negocios más grandes y establecidos. Muchos no tuvieron la capacidad de hacerlo.

La burbuja .com estalló el 10 de marzo de 2000, cuando el índice NASDAQ compuesto fuertemente por valores tecnológicos hizo su máximo en 5048,62 (máximo intradía 5132,52), más del doble de su valor un año anterior. Para 2001, la deflación de la burbuja estaba yendo a toda velocidad. La mayoría de las .com había cerrado el negocio, después de haber quemado todo su capital riesgo, a menudo sin ni siquiera tener un beneficio bruto.

CARACTERÍSTICA:

Su principal característica es la participación del usuario, existe interactividad.
2. HISTORIA Y EVOLUCION DE LOS MEDIOS IMPRESOS

Inicialmente se habla de que la arqueología ha encontrado hallazgos, en cuanto a escrituras grabadas en piedras, huesos y arcillas de jeroglíficos y dibujos, que muestra una especie de medio de comunicación impreso, pues se supone que los antepasados mostraban los resultados de batallas o leyendas de esta manera, para que todos lo entendieran.

El punto de vista que sostenemos sobre lo que ha de considerarse periodismo está en relación con el contenido y propósitos de esta obra. La exploración comienza con la imprenta, sin desconocer, obviamente, las formas periodísticas anteriores a Gutenberg, pues sería necio cerrar los ojos ante pruebas tan notables como el establecimiento de las redes de comunicación de noticias a larga distancia de Augsburgo y Venecia ; las noticias manuscritas, todo relacionado con el rumor, que son elementos tan antiguos y tan actual de las relaciones interpersonales, forman parte del periodismo.

Asimismo, proponemos el análisis del periodismo impreso bajo el esquema tripartita de Prierce, Morris y Carnap : sintáctica, semántica y pragmática de la comunicación, aplicable a las señales impresas. En este orden trataremos con las señales físicas del producto de medio impreso, la naturaleza, producción y transformación de ellas, así como la percepción y leyes de organización que las rigen.

La imprenta de Gutenberg pertenece a un contexto histórico que se sitúa entre mediados del siglo XIV y la segunda mitad del siglo XV. Pi Sheng, alrededor del año 1000 de nuestra era, inventó en la China tipos móviles de arcilla ; posteriormente Marco Polo, condujo probablemente a Europa aquella novedosa artesanía. Sería inexplicable el atraso de cuatro siglos y medio en la adopción del tipo movible, si no se tuviera en cuenta el contexto sociocultural o las condiciones particularmente aptas para el desarrollo de esa tecnología. Romano y Tenenti en el libro titulado "Los fundamentos del mundo moderno. De siglo XXI" dicen respecto a la explosión científica de mediados del siglo XV : "Cómo explicar la irrupción en el mundo de aquella ciencia que los antiguos y la Edad Media no habían tenido ? Es un problema de apertura mental... No se comprende la apertura científica si no se examina la apertura mental paralela."

La palabra impresa no es producto exclusivo de la Imprenta gutenberiana ; existió mucho antes con la impresión de libros por el sistema de grabado por planchas de madera y otros materiales, como por ejemplo se cita en la Biblia que Moisés tenía en sus manos dos tablillas grabadas con los diez mandamientos, y esto era con el fin de comunicarlos a todo el mundo, y era impreso. En la reducción del tiempo para la producción y multiplicación de mensajes impresos. Con el sistema anterior sólo, era posible imprimir un texto cuyo molde se tallaba a mano en mucho tiempo. Las señales de ese molde quedaban condenadas a una sola función : la del texto grabado. No podían ser usadas para componer otros mensajes, de la misma manera como hoy las palabras de un sello de hule son solamente útiles para transmitir un mensaje y sólo uno. El tipo movible, en cambio, es un instrumento de nuevas relaciones, de múltiples funciones, como los tipos de máquina de escribir en que se han elaborado muchos libros actuales, y hasta las diferentes impresoras de computación, con las cuales se imprime este trabajo.
Con la aparición del primer diario inglés, el Daily Courant, en 1702, se opera en el periodismo una transformación profunda. El flujo informativo exige nuevas técnicas de acopio de datos, mejor organización y planificación del trabajo de talleres y la contratación de personal con vistas a una acelerada producción de mensajes.
La prensa de Gutenberg, muy parecida a las de fabricar vino y aceite, subsistió con pequeñas modificaciones desde 1456 hasta 1814. Durante ese período, la innovación más importante en su mecanismo fue la sustitución de la palanca de mano por el tornillo de presión. El avance tecnológico más notable se produjo cuando Friedrich Koning adaptó la fuerza del vapor de agua al mecanismo de impresión. El periódico Time de Londres consiguió así imprimir 1.100 ejemplares por hora, frente a los 270 que tiraba con el viejo método. En 1808, se perfecciona en París una tinta más densa y durable. Tiene auge la prensa ilustrada.
La primera mitad des siglo XIX, en el campo de las letras y las artes tienen un nombre : Romanticismo ; nacido como movimiento opuesto al clasicismo. La fotografía obtenida por Niépce en 1826, tuvo que esperar hasta fines del siglo para incorporarse al periodismo. El teléfono y el telégrafo trajeron consigo nuevas transformaciones para el periodismo. El código Morse, por ejemplo, representa problemas de codificación y decodificación de datos para el mensaje periodístico, pero por otra parte obliga al periodismo a crear un estilo más breve, conciso, que se conoce como el "estilo telegráfico". A fines del siglo XIX renace el interés por los almanaques..
Siguiendo con la evolución, nos encontramos con el presente, que existen muchas tecnologías novedosas que agilizan este medio, como el empleo de computadores, ahora los periodistas pueden trabajar desde su casa, con solamente tener una computadora y una línea telefónica, puede explorar el mundo a través de Internet, y realizar su reportaje o columna, para enviarlo por ese mismo canal. En cuanto a las técnicas de serigrafía e imprenta, hay muchos, incluso en las revistas, encontramos que hay métodos de calor, spray de retintado, impresión a láser, etc. ; que pueden realizar mas de un millón de copias en menos de medio día.

CARACTERISTICAS:
- Permanece en el tiempo.
- Se comunican argumentos de facil comprobacion.

3. HISTORIA DE LA TELEVISION
La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia.
Esta transmisión puede ser efectuada mediante
ondas de radio o por redes especializadas de televisión por cable. El receptor de las señales es el televisor.

La palabra "televisión" es un híbrido de la voz griega "Tele" (distancia) y la latina "visio" (visión). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perski en el Congreso Internacional de Electricidad de París (CIEP).
El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas.
Primeros desarrollos
La telefotografía
Los primeros intentos de transmitir imágenes a distancia se realizan mediante la electricidad y sistemas mecánicos. La electricidad ejercía como medio de unión entre los puntos y servía para realizar la captación y recepción de la imagen, los medios mecánicos efectuaban las tareas de movimientos para realizar los barridos y descomposición secuencial de la imagen a transmitir. Para 1884 aparecieron los primeros sistemas de transmisión de dibujos, mapas escritos y fotografías llamados telefotos. En estos primeros aparatos se utilizaba la diferencia de resistencia para realizar la captación.

El desarrollo de las células fotosensibles de selenio, en las que su resistividad varía según la cantidad de luz que incida en ellas, el sistema se perfeccionó hasta tal punto que en 1927 se estableció un servicio regular de transmisión de telefotografía entre Londres y Nueva York. Las ondas de radio pronto sustituyeron a los cables de cobre, aunque nunca llegaron a eliminarlos por completo, sobre todo en los servicios punto a punto.
El desarrollo de la telefotografía alcanzó su cumbre con los teleinscriptores, y su sistema de transmisión. Estos aparatos permitían recibir el periódico diario en casa del cliente, mediante la impresión del mismo que se hacia desde una emisora especializada.
Hasta la década de los años 80 del siglo XX se vinieron utilizando sistemas de telefoto para la transmisión de fotografías destinados a los medios de comunicación.
El movimiento en la imagen
La imagen en movimiento es lo que caracteriza a la televisión. Los primeros desarrollos los realizaron los franceses Rionoux y Fournier en 1906. Estos desarrollaron una matriz de células fotosensibles que conectaban, al principio una a una, con otra matriz de lamparillas. A cada célula del emisor le correspondía una lamparilla en el receptor.

Pronto se sustituyeron los numerosos cables por un único par. Para ello se utilizó un sistema de conmutación que iba poniendo cada célula en cada instante en contacto con cada lámpara. El problema fue la sincronización de ambos conmutadores, así como la velocidad a la que debían de girar para lograr una imagen completa que fuera percibida por el ojo como tal.
La necesidad de enviar la información de la imagen en serie, es decir utilizando solamente una vía como en el caso de la matriz fotosensible, se aceptó rápidamente. En seguida se desarrollaron sistemas de exploración, también llamados de desintegración, de la imagen. Se desarrollaron sistemas mecánicos y eléctricos.
Televisión mecánica, el disco de Nipkow y la rueda fónica.
En 1884 Paul Nipkow diseña y patenta el llamado disco de Nipkow, un proyecto de televisión que no podría llevarse a la práctica. En 1910, el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX y en 1925, el 25 de marzo, el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados 2m. Se transmitió una cabeza de un maniquí con una definición de 28 líneas y una frecuencia de cuadro de 14 cuadros por segundo.

Baird ofreció la primera demostración pública del funcionamiento de un sistema de televisión a los miembros de la Royal Institution y a un periodista el 26 de enero de 1926 en su laboratorio de Londres. En 1927, Baird transmitió una señal a 438 millas a través de una línea de teléfono entre Londres y Glasgow.
Este disco permite la realización de un barrido secuencial de la imagen mediante una serie de orificios realizados en el mismo. Cada orificio, que en teoría debiera tener un tamaño infinitesimal y en la practica era de 1mm, barría una línea de la imagen y como éstos, los agujeros, estaban ligeramente desplazados, acababan realizando el barrido total de la misma. El número de líneas que se adoptaron fue de 30 pero esto no dio los resultados deseados, la calidad de la imagen no resultaba satisfactoria.
En 1928 Baird funda la compañía Baird TV Development Co para explotar comercialmente la TV. Esta empresa consiguió la primera señal de televisión transatlántica entre Londres y Nueva York. Ese mismo año Paul Nipkow ve en la Exposición de radio de Berlín un sistema de televisión funcionando perfectamente basado en su invento con su nombre al pie del mismo. En 1929 se comienzan las emisiones regulares en Londres y Berlín basadas en el sistema Nipkow Baird y que se emitía en banda media de radio.
Se desarrollaron otros exploradores mecánicos como el que realizó la casa Telefunken, que dio buenos resultados, pero que era muy complejo y constaba de un cilindro con agujeros que tenían una lente cada uno de ellos.
La formación de la imagen en la recepción se realizaba mediante el mismo principio que utilizaba en la captación. Otro disco similar, girando síncronamente, era utilizado para mirar a través de él una lámpara de neón cuya luminosidad correspondía a la luz captada en ese punto de la imagen. Este sistema, por el minúsculo tamaño del área de formación de la imagen, no tuvo mucho éxito, ya que únicamente permitía que ésta fuera vista por una persona, aun cuando se intentó agrandar la imagen mediante la utilización de lentes. Se desarrollaron sistemas basados en cinta en vez de discos y también se desarrolló, que fue lo que logró resolver el problema del tamaño de la imagen, un sistema de espejos montados en un tambor que realizaban la presentación en una pantalla. Para ello el tambor tenía los espejos ligeramente inclinados, colocados helicoidalmente. Este tambor es conocido como la rueda de Weiller. Para el desarrollo práctico de estos televisores fue necesaria la sustitución de la lámpara de neón, que no daba la luminosidad suficiente, por otros métodos, y entre ellos se utilizó el de poner una lampara de descarga de gas y hacer pasar la luz de la misma por una célula de Kerr que regulaba el flujo luminoso en relación a la tensión que se le aplicaba en sus bornes. El desarrollo completo del sistema se obtuvo con la utilización de la rueda fónica para realizar el sincronismo entre el emisor y el receptor.
La exploración de la imagen, que se había desarrollado de forma progresiva por la experiencias de Senlecq y Nipkow se cuestiona por la exposición del principio de la exploración entrelazada desarrollado por Belin y Toulón. La exploración entrelazada solventaba el problema de la persistencia de la imagen, las primeras líneas trazadas se perdían cuando todavía no se habían trazado las últimas produciendo el conocido como efecto ola. En la exploración entrelazada se exploran primero las líneas impares y luego las pares y se realiza lo mismo en la presentación de la imagen. Brillounin perfecciona el disco de Nipkow para que realice la exploración entrelazada colocándole unas lentes en los agujeros aumentando así el brillo captado.
En 1932 se realizan las primeras emisiones en París. Estas emisiones tienen una definición de 60 líneas pero tres años después se estaría emitiendo con 180. La precariedad de las células empleadas para la captación hacía que se debiera iluminar muy intensamente las escenas produciendo muchísimo calor que impedía el desarrollo del trabajo en los platós.
La rueda fónica
La rueda fónica fue el sistema de sincronización mecánico que mejores resultados dio. Consistía en una rueda de hierro que tenia tantos dientes como agujeros había en el tambor o disco. La rueda y el disco estaban unidos por el mismo eje. La rueda estaba en medio de dos bobinas que eran recorridas por la señal que llegaba del emisor. En el centro emisor se daba, al comienzo de cada agujero, principio de cada línea, un pulso mucho más intenso y amplio que las variaciones habituales de las células captadoras, que cuando era recibido en el receptor al pasar por las bobinas hace que la rueda dé un paso posicionando el agujero que corresponde.
Televisión electrónica.

En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores aunque los televisores eran de pantalla pequeña y muy caros. Estas emisiones fueron posibles por el desarrollo de los siguientes elementos en cada extremo de la cadena.
En el receptor, el TRC
La implementación del llamado tubo de rayos catódicos o tubo de Braum, por S. Thomson en 1895 fue un precedente que tendría gran transcendencia en la televisión, si bien no se pudo integrar, debido a las deficiencias tecnológicas, hasta entrado el siglo XX y que perdura en los primeros años del siglo XXI.
Desde los comienzos de los experimentos sobre los rayos catódicos hasta que el tubo se desarrolló lo suficiente para su uso en la televisión fueron necesarios muchos avances en esa investigación. Las investigaciones de Wehnelt, que añadió su cilindro, los perfeccionamientos de los controles electrostático y electromagnéticos del haz, con el desarrollo de las llamadas "lentes electrónicas" de Vichert y los sistemas de deflexión permitieron que el investigador Holweck desarrollara el primer tubo de Braum destinado a la televisión. Para que este sistema trabajase correctamente se tuvo que construir un emisor especial, este emisor lo realizó Belin que estaba basado en un espejo móvil y un sistema mecánico para el barrido.
Una vez resuelto el problema de la presentación de la imagen en la recepción quedaba por resolver el de la captación en el emisor. Los exploradores mecánicos frenaban el avance de la técnica de la TV. Era evidente que el progreso debía de venir de la mano de la electrónica, como en el caso de la recepción. El 27 de enero de 1926, John Logie Baird hizo una demostración ante la Real Institución de Inglaterra, el captador era mecánico, compuesto de tres discos y de construcción muy rudimentaria. Alfredo Dinsdale lo describe de esta manera en su libro Televisión:
El aparato estaba montado con ejes de bicicletas viejas, tableros de mesas de café y lentes de cristal de claraboyas, todo unido con lacre, cuerdas, etc., lo cual hizo que no impresionara muy favorablemente a aquellos que estaban acostumbrados a los primorosos mecanismos de los constructores de aparatos; sin embargo, la importancia de las pruebas fue real y decisiva para el mundo científico de aquellos tiempos.
La primera imagen sobre un tubo de rayos catódicos se formó en 1911 en el Instituto Tecnológico de San Petersburgo y consistía en unas rayas blancas sobre fondo negro y fueron obtenidas por Boris Rosing en colaboración con Zworrykin. La captación se realizaba mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo.
Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica.
En el emisor, el iconoscopio
En 1931 Vladimir Kosma Zworykin desarrolló el captador electrónico que tanto se esperaba, el iconoscopio. Este tubo electrónico permitió el abandono de todos los demás sistemas que se venían utilizando y perduró, con sus modificaciones, hasta la irrupción de los captadores de CCD's a finales el siglo XX.
El iconoscopio está basado en un mosaico electrónico compuesto por miles de pequeñas células fotoeléctricas independientes que se creaban mediante la construcción de un sandwich de tres capas, una muy fina de mica que se recubría en una de sus caras de una sustancia conductora (grafito en polvo impalpable o plata) y en la otra cara una sustancia fotosensible compuesta de millares de pequeños globulitos de plata y óxido de cesio. Este mosaico, que era también conocido con el nombre de mosaico electrónico de Zworykin se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante un sistema de lentes, la imagen a captar. La lectura de la "imagen electrónica" generada en el mosaico se realizaba con un haz electrónico que proporcionaba a los pequeños condensadores fotoeléctricos los electrones necesarios para su neutralización. Para ello se proyecta un haz de electrones sobre el mosaico, las intensidades generadas en cada descarga, proporcionales a la carga de cada célula y ésta a la intensidad de luz de ese punto de la imagen pasan a los circuitos amplificadores y de allí a la cadena de transmisión, después de los diferentes procesados precisos para el óptimo rendimiento del sistema de TV.
La exploración del mosaico por el haz de electrones se realizaba mediante un sistema de deflexión electromagnético, al igual que el utilizado en el tubo del receptor.
Se desarrollaron otro tipo de tubos de cámara como el disector de imagen de Philo Taylor Farnsworth y luego el Icotrón y el superemitrón, que era un híbrido de iconoscopio y disector, y al final apareció el orticón, desarrollado por la casa RCA y que era mucho menor, en tamaño, que el iconoscopio y mucho más sensible. Este tubo fue el que se desarrolló y perduró hasta su desaparición.
Vladimir Zworykin realizó sus estudios y experimentos del iconoscopio en la RCA, después de dejar San Petersburgo y trabajando con Philo Taylor Farnsworth quien lo acusó de copiar sus trabajos sobre el disector de imagen.

Bloque óptico de una cámara de TV de CCDs.
Los transductores diseñados fueron la base para las cámaras de televisión. Estos equipos integraban, e integran, todo lo necesario para captar una imagen y transformarla en una señal eléctrica. La señal, que contiene la información de la imagen más los pulsos necesarios para el sincronismo de los receptores, se denomina señal de vídeo. Una vez que se haya producido dicha señal, ésta puede ser manipulada de diferentes formas, hasta su emisión por la antena, el sistema de difusión deseado.
La señal transducida de la imagen contiene la información de ésta, pero como hemos visto, es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación.
La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color (en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300.
La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en el sistema PAL 625 líneas y en el NTSC 525 por cada cuadro) agrupadas en dos grupos, las líneas impares y las pares de cada cuadro, a cada uno de estos grupos de líneas se les denomina campo (en el sistema PAL se usan 25 cuadros por segundo mientras que en el sistema NTSC 30). A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente con la TV en color también se añade información sobre la sincronía del color).
La codificación de la imagen se realiza entre 0V para el negro y 0,7V para el blanco. Para los sincronismos se incorporan pulsos de -0,3V, lo que da una amplitud total de la forma de onda de vídeo de 1V. Los sincronismos verticales están constituidos por una serie de pulsos de -0,3V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada uno de ellos.
El sonido, llamado audio, es tratado por separado en toda la cadena de producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada de transportar la imagen.
El desarrollo de la TV

Control Central en un centro emisor de TV

En 1945 se establecen las normas CCIR que regulan la exploración, modulación y transmisión de la señal de TV. Había multitud de sistemas que tenían resoluciones muy diferentes, desde 400 líneas a hasta más de 1.000. Esto producía diferentes anchos de banda en las transiciones. Poco a poco se fueron concentrando en dos sistemas, el de 512 líneas, adoptado por EE.UU. y el de 625 líneas, adoptado por Europa (España adoptó las 625 líneas en 1956). También se adoptó muy pronto el formato de 4/3 para la relación de aspecto de la imagen.
Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo.
La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción.
En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitía el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos.
El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.
La televisión en color

NTSC PAL, o cambiando a PAL SECAM Sin informaciónDistribución de los sistemas de TV en el mundo.

Ya en 1928 se desarrollaron experimentos de la transmisión de imágenes en color. Baird, basándose en la teoría tricromática de Young, realizó experimentos con discos de Nipkow a los que cubría los agujeros con filtros rojos, verdes y azules logrando emitir las primeras imágenes en color el 3 de julio de 1928. El 17 de agosto de 1940, el mexicano Guillermo González Camarena patenta, en México y E.U.A, un Sistema Tricromático Secuencial de Campos. Ocho años más tarde, 1948, Goldmark, basándose en la idea de Baird y Camarena, desarrolló un sistema similar, llamado sistema secuencial de campos el cual estaba compuesto por una serie de filtros de colores rojo, verde y azul que giran anteponiéndose al captador y, de igual forma, en el receptor, se anteponen a la imagen formada en la pantalla del tubo de rayos catódicos. El éxito fue tal que la Columbia Broadcasting System lo adquirió para sus transmisiones de TV.
El siguiente paso fue la transmisión simultánea de las imágenes de cada color con el denominado trinoscopio. El trinoscopio ocupaba tres veces más espectro radioeléctrico que las emisiones monocromáticas y, encima, era incompatible con ellas a la vez que muy costoso.
El elevado número de televisores en blanco y negro exigió que el sistema de color que se desarrollara fuera compatible con las emisiones monocromas. Esta compatibilidad debía realizarse en ambos sentidos, de emisiones en color a recepciones en blanco y negro y de emisiones en monocromo a recepciones en color.
En búsqueda de la compatibilidad nace el concepto de luminancia y de crominancia. La luminancia porta la información del brillo, la luz, de la imagen, lo que corresponde al blanco y negro, mientras que la crominancia porta la información del color. Estos conceptos fueron expuestos por Valensi en 1937.
En 1950 la Radio Corporation of America, (RCA) desarrolla un tubo de imagen que portaba tres cañones electrónicos, los tres haces eran capaces de impactar en pequeños puntos de fósforo de colores, llamados luminóforos, mediante la utilización de una máscara, la Shadow Mask o Trimask. Esto permitía prescindir de los tubos trinoscópicos tan abultados y engorrosos. Los electrones de los haces al impactar con los luminóforos emiten una luz del color primario correspondiente que mediante la mezcla aditiva genera el color original.
Mientras en el receptor se implementaban los tres cañones correspondientes a los tres colores primarios en un solo elemento, en el emisor, en la cámara, se mantenían los tubos separados, uno por cada color primario. Para la separación se hace pasar la la luz que conforma la imagen por un prisma dicroico que filtra cada color primario a su correspondiente captador.
Sistemas actuales de TVC
Barras de color EBU vistas en un MFO y un vectoscopio.

El primer sistema de televisión en color ideado que respetaba la doble compatibilidad con la televisión monocroma se desarrolló en 1951 por un grupo de ingenieros dirigidos por Hirsh en los laboratorios de la Hazeltime Corporation en los EE.UU. Este sistema fue adoptado por la Federal Communication Commission de USA (FCC) y era el NTSC que son las siglas de National Television System Commission. El sistema tuvo éxito y se extendió por toda América del Norte y Japón.
Las señales básicas que utiliza son la luminancia (Y), que nos da el brillo y es lo que se muestra en los receptores monocromos, y las componentes de color, las dos señales diferencia de color, la R-Y y B-Y (el rojo menos la luminancia y el azul menos la luminancia). Esta doble selección permite dar un tratamiento diferenciado al color y al brillo. El ojo humano es mucho más sensible a las variaciones y definición del brillo que a las del color, esto hace que los anchos de banda de ambas señales sean diferentes, lo cual facilita su transmisión ya que ambas señales se deben de implementar en la misma banda cuyo ancho es ajustado.
El sistema NTSC modula en amplitud a dos portadoras de la misma frecuencia desfasadas 90º que luego se suman, modulación QAM o en cuadratura. En cada una de las portadoras se modula una de las diferencias de color, la amplitud de la señal resultante indica la saturación del color y la fase el tinte o tono del mismo. Esta señal se llama de crominancia. Los ejes de modulación están situados de tal forma que se cuida la circunstancia de que el ojo es más sensible al color carne, esto es que el eje I se orienta hacia el naranja y el Q hacia los magentas. Al ser la modulación con portadora suprimida hace falta mandar una salva de la misma para que los generadores del receptor puedan sincronizarse con ella. Esta salva o burst suele ir en el pórtico anterior del pulso de sincronismo de línea. La señal de crominancia se suma a la de luminancia componiendo la señal total de la imagen.
Las modificaciones en la fase de la señal de vídeo cuando ésta es transmitida producen errores de tinte, es decir de color (cambia el color de la imagen).
El NTSC fue la base de la que partieron otros investigadores, principalmente europeos. En Alemania se desarrolló, por un equipo dirigido por Walter Bruch un sistema que subsanaba los errores de fase, este sistema es el PAL, Phase Altenating Line.
Para ello la fase de la subportadora se altena en cada línea. La subportadora que modula la componente R-Y, que en PAL se llama V, tiene una fase de 90º en una línea y de 270º en la siguiente, esto hace que los errores de fase que se produzcan en la transmisión (y que afectan igual y en el mismo sentido a ambas líneas) se compensen a la representación de la imagen al verse una línea junto a la otra, Si la integración de la imagen para la corrección del color la realiza el propio ojo humano tenemos el denominado PAL S (PAL Simple) y si se realiza mediante un circuito electrónico el PAL D (PAL Delay, retardado). El PAL fue propuesto como sistema de color paneuropeo en la Conferencia de Oslo de 1966 pero no se llegó a un acuerdo y como resultado los países de Europa Occidental, con la excepción de Francia, adoptaron el PAL mientras que los de Europa Oriental y Francia el SECAM.
En Francia se desarrolló por el investigador Henri de France un sistema diferente, el SECAM, « SÉquentiel Couleur À Mémoire » que basa su actuación en la trasmisión secuencial de cada componente de color moduladas en FM de tal forma que en una línea se manda una componente y en la siguiente la otra componente. Luego el receptor las combina para deducir el color de la imagen.
Todos los sistemas tenían ventajas e inconvenientes. Mientras que el NTSC y el PAL dificultaban la edición de la señal de vídeo por su secuencia de color en cuatro y ocho campos, respectivamente, el sistema SECAM hacía imposible el trabajo de mezcla de señales de vídeo.
La alta definición "HD"
El sistema de televisión de definición estándar, conocido por la siglas "SD", tiene, en PAL, una definición de 720x576 pixeles (720 puntos horizontales en cada línea y 576 puntos verticales que corresponden a las líneas activas del PAL) esto hace que una imagen en PAL tenga un total de 414.720 pixeles. En NSTC se mantienen los puntos por línea pero el número de líneas activas es solo de 525 lo que da un total de pixeles de 388.800 siendo los pixeles levemente anchos en PAL y levemente altos en NSTC.
Se han desarrollado 28 sistemas diferentes de televisión de alta definición. Hay diferencias en cuanto a relación de cuadros, número de líneas y pixeles y forma de barrido. Todos ellos se pueden agrupar en cuatro grandes grupos de los cuales dos ya han quedado obsoletos (los referentes a las normas de la SMPTE 295M, 240M y 260M) manteniéndose otros dos que difieren, fundamentalmente, en el número de líneas activas, uno de 1080 líneas activas (SMPT 274M) y el otro de 720 líneas activas (SMPT 269M).
En el primero de los grupos, con 1080 líneas activas, se dan diferencias de frecuencia de cuadro y de muestras por línea (aunque el número de muestras por tiempo activo de línea se mantiene en 1.920) también la forma de barrido cambia, hay barrido progresivo o entrelazado. De la misma forma ocurre en el segundo grupo, donde las líneas activas son 720 teniendo 1280 muestras por tiempo de línea activo. En este caso la forma de barrido es siempre progresiva.
En el sistema de HD de 1080 líneas y 1.920 muestras por línea tenemos 2.073.600 pixeles en la imagen y en el sistema de HD de 720 líneas y 1.280 muestras por líneas tenemos 921.600 pixeles en la pantalla. En relación con los sistemas convencionales tenemos que la resolución del sistema de 1080 líneas es 5 veces mayor que el del PAL y cinco veces y media que el del NTSC. Con el sistema de HD de 720 líneas es un 50% mayor que en PAL y un 66% mayor que en NTSC.
La alta resolución requiere también una redifinición del espacio de color cambiando el triángulo de gamut.
La relación de aspecto
En la década de los 90 del siglo XX se empezaron a desarrollar los sistemas de televisión de alta definición todos estos sistemas, en principio analógicos, aumentaban el número de líneas de la imagen y cambiaban la relación de aspecto pasando del formato utilizado hasta entonces, relación de aspecto 4/3, a un formato más apaisado de 16/9. Este nuevo formato, más agradable a la vista se estableció como estándar incluso en emisiones de definición estándar.

La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estándar hasta ese momento tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.
Una imagen de 4/3 que se vaya a ver en una pantalla de 16/9 puede presentarse de tres formas diferentes:
Con barras negras verticales a cada lado (pillarbox). Manteniendo la relación de 4/3 pero perdiendo parte de la zona activa de la pantalla.
Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma.
Deformando la imagen para adaptarla la formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de derecha a izquierda).
Una imagen de 16/9 que se vaya a ver en una pantalla de 4/3, de forma similar, tiene tres formas de verse:
Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla (hay varios formatos de letterbox dependiendo de la parte visible de la imagen que se vea (cuanto más grande se haga más se recorta), se usan el 13/9 y el 14/9).
Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiéndose las partes laterales de la imagen.
Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. Se ve toda la imagen en toda la pantalla, pero con la geometría alterada (los círculos se ven elipses con el diámetro mayor orientado de arriba a abajo).
El PALplus
En Europa Occidental, y donde el sistema de televisión de la mayoría de los países es el PAL, se desarrolló, con apoyo de la Unión Europea, un formato a caballo entre la alta definición y la definición estándar. Este formato recibió el nombre de PALplus y aunque fue apoyado por la administración no logró cuajar.
El PALplus fue una extensión del PAL para transmitir imágenes de 16/9 sin tener que perder resolución vertical. En un televisor normal se recibe una imagen de apaisada con franjas negras arriba y abajo de la misma (letterbox) de 432 líneas activas. El PALplus mandaba información adicional para rellenar las franjas negras llegando a 576 líneas de resolución vertical. Mediante señales auxiliares que iban en las líneas del intervalo de sincronismo vertical se comandaba al receptor PALplus indicándole si la captación había sido realizada en barrido progresivo o entrelazado. El sistema se amplió con el llamado "Colorplus" que mejoraba la decodificación del color.
La digitalización

Televisión Digital Terrestre en el mundo.
A finales de los años 80 del siglo XX se empezaron a desarrollar sistemas de digitalización. La digitalización en la televisión tiene dos partes bien diferenciadas. Por un lado está la digitalización de la producción y por el otro la de la transmisión.

En cuanto a la producción se desarrollaron varios sistemas de digitalización. Los primeros de ellos estaban basados en la digitalización de la señal compuesta de vídeo que no tuvieron éxito. El planteamiento de digitalizar las componentes de la señal de vídeo, es decir la luminancia y las diferencias de color, fue el que resultó más idóneo. En un principio se desarrollaron los sistemas de señales en paralelo, con gruesos cables que precisaban de un hilo para cada bit, pronto se sustituyó ese cable por la transmisión multiplexada en tiempo de las palabras correspondientes a cada una de las componentes de la señal, además este sistema permitió incluir el audio, embebiéndolo en la información transmitida, y otra serie de utilidades.
Para el mantenimiento de la calidad necesaria para la producción de TV se desarrolló la norma de Calidad Estudio CCIR-601. Mientras que se permitió el desarrollo de otras normas menos exigentes para el campo de las producciones ligeras (EFP) y el periodismo electrónico (ENG).
La diferencia entre ambos campos, el de la producción en calidad de estudio y la de en calidad de ENG estriba en la magnitud el flujo binario generado en la digitalización de las señales.
La reducción del flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos, basados todos ellos en la transformada discreta del coseno tanto en el dominio espacial como en el temporal, que permitieron reducir dicho flujo posibilitando la construcción de equipos más accesibles. Esto permitió el acceso a los mismos a pequeñas empresas de producción y emisión de TV dando lugar al auge de las televisiones locales.
En cuanto a la transmisión, la digitalización de la misma fue posible gracias a las técnicas de compresión que lograron reducir el flujo a menos de 5 Mbit/s, hay que recordar que el flujo original de una señal de calidad de estudio tiene 270 Mbit/s. Esta compresión es la llamada MPEG-2 que produce flujos de entre 4 y 6 Mbit/s sin pérdidas apreciables de calidad subjetiva.
Las transmisiones de TV digital tienen tres grandes áreas dependiendo de la forma de la misma aun cuando son similares en cuanto a tecnología. La transmisión se realiza por satélite, cable y vía radiofrecuencia terrestre, ésta es la conocida como TDT.
El avance de la informática, tanto a nivel del hardware como del software, llevaron a sistemas de producción basados en el tratamiento informático de las señal de televisión. Los sistemas de almacenamiento, como los magnetoscopios, pasaron a ser sustituidos por servidores informáticos de vídeo y los archivos pasaron a guardar sus informaciones en discos duros y cintas de datos. Los ficheros de vídeo incluyen los metadatas que son información referente a su contenido. El acceso a la información se realiza desde los propios ordenadores donde corren programas de edición de vídeo de tal forma que la información residente en el archivo es accesible en tiempo real por el usuario. En realidad los archivos se estructuran en tres niveles, el on line, para aquella información de uso muy frecuente que reside en servidores de discos duros, el near line, información de uso frecuente que reside en cintas de datos y éstas están en grandes librerías automatizadas, y el archivo profundo donde se encuentra la información que está fuera de línea y precisa de su incorporación manual al sistema. Todo ello está controlado por una base de datos en donde figuran los asientos de la información residente en el sistema.
La incorporación de información al sistema se realiza mediante la denominada función de ingesta. Las fuentes pueden ser generadas ya en formatos informáticos o son convertidas mediante conversores de vídeo a ficheros informáticos. Las captaciones realizadas en el campo por equipos de ENG o EFP se graban en formatos compatibles con el del almacenamiento utilizando soportes diferentes a la cinta magnética, las tecnologías existentes son DVD de rayo azul (de Sony), grabación en memorias ram (de Panasonic) y grabación en disco duro (de Ikegami).
La existencia de los servidores de vídeo posibilita la automatización de las emisiones y de los programas de informativos mediante la realización de listas de emisión, los llamados play out.
CARACTERISTICAS:
- Comunicación en masa
- Accesibilidad
4. HISTORIA DE LA RADIO
UNA MIRADA RETROSPECTIVA

Con el telégrafo y el teléfono, el hombre ya podía comunicarse a grandes distancias, incluso a través de los mares gracias a los cables submarinos, pero solo entre los puntos en los que llegaban estos cables. Pero aún quedaban incomunicados los barcos, vehículos, zonas poco pobladas, etc.
La superación a estas dificultades empezó a ser posible con una serie de descubrimientos:
Durante el desarrollo de la electricidad, habían aparecido varias teorías para explicar muchas clases de fenómenos eléctricos, se creia al principio que la acción eléctrica ocurría a distancia sobre los distintos cuerpos que así podían experimentarla.
Pero el descubrimiento de la corriente eléctrica motivó que surgan dudas sobre aquella acción misteriosa. Faraday no creía en esa acción adistancia, y en 1835, al escribir sobre una forma perfeccionada de batería voltaica, observó que la corriente eléctrica se propagaba como si existiesen partículas discretas de electricidad.
Las ideas de Faraday no cayeron en el olvido y su compatriota Maxwell las recogió treinta años después, para traducirlas al lenguaje matemático, sacando de ellas las consecuencias más trascendentales.
James Clerk Maxwell en 1867 presentaba su teoría electromagnética (Electricidad y Magnetismo) a la Real Sociedad de Londres. Esta teoría, obtenida por cálculo matemático puro, predecía la posibilidad de crear ondas electromagnéticas y su propagación en el espacio. Estas ondas se propagarían por el espacio a la velocidad de 300 mil kilómetros por segundo.
Las primeras tentativas para confirmar esta teoría fueron realizadas por el profesor Fitzgerald, de Dublín, pero no dieron resultados prácticos hasta que, el físico alemán Hertz, que desconocía las investigaciones de Fitzgerald, emprendió la misma tarea.El alemán Heinrich Hertz en 1887, confirmó experimentalmente la teoría de Maxwel, radiando y estudiando las ondas electromagnéticas con su oscilador y un resonador, realizó la primera transmisión sin hilos, de lo que a partir de entonces se denominarían en su honor ondas hertzianas.
Este experimento sirvió para confirmar las ideas de Maxwell y dejó entrever la posibilidad de producir ondas eléctricas a distancia y captarlas mediante un aparato adecuado. Fue, pues, la primera tentativa de radiocomunicación por medio de las ondas electromagnéticas, y el primer resultado práctico del que había de germinar toda la serie de experimentos.
El descubrimiento de Hertz, aunque permitió comprobar la existencia de las ondas electromagnéticas y sus propiedades parcidas a las de las ondas luminosas, confirmando así brillantemente la teoría de Maxwell, no tuvo resultados prácticos inmediatos, porque el resonador, que revelaba la presencia de las ondas, únicamente podía funcionar a muy corta distancia del aparato que las producía.
En 1884 Calzecchi Onesti descubrió la conductibilidad eléctrica que toman las limaduras de hierro en presencia de las ondas electromagnéticas, o sea de las ondas hertzianas.
El francés Branly, en 1890, construyo su primitivo choesor (cohesor), que permitía comprobar la presencia de ondas radiadas, es decir de detectarlas, y que sería utilizado por todos los investigadores que entonces querían la comunicación sin hilos (sin cables).

El cohesor de Branly consta de un tubo de cristal dentro del cual se encuentran limaduras de hierro, algo apretadas, entre dos polos metálicos que se comunican con una pila eléctrica. La resistencia de las limaduras es demasiado elevada para que pase la corriente de la pila, pero en presencia de una onda hertziana dicha conductibilidad aumenta y la corriente que pasa por el aparato puede notarse haciendo sonar un timbre eléctrico.
Con el aparato de Branly podían captarse las ondas hertzianas a distancias mucho más considerables que con el resonador de Hertz, pero, de todos modos, no podían obtenerse todavía aplicaciones prácticas. El ruso Popov creyó encontrar en el tubo de Branly un aparato sensible para revelar la marcha de las tempestades, pues las descargas eléctricas de las nubes tempestuosas provocan la formación de ondas, capaces de ser reveladas por el cohesor.
El ruso Popov (1859-1905) encontró el mejor sistema para radiar (enviar) y captar las ondas: la antena, constituida por hilo metálico.

Después de perfeccionar este aparato, Popov añadió al sistema receptor un hilo metálico extendido en sentido vertical, para que, al elevarse en la atmósfera, pudiese captar mejor las oscilaciones eléctricas. Este hilo estaba unido por uno de sus extremos a uno de los polos del cohesor, mientras que el otro extremo comunicaba con tierra y así cualquier diferencia de potencial que se estableciese entre dichos polos, provocada por el paso de una onda electromagnética procedente de las nubes tempestuosas, hacía sonar el timbre del aparato, cuyo repiqueteo más o menos frecuente daba idea de la marcha de la tempestad.
De este modo nació la primera antena, llamada así porque, para sostener el hilo metálico ideado por Popov, debía emplearse un soporte de aspecto parecido a los mástiles o antenas de los buques.
El 24 de marzo de 1896 realizo la primera comunicación de señales sin hilos.
Estas primeras transmisiones estaban constituidas por simples impulsos, obtenidos mediante poderosas descargas eléctricas de corriente almacenadas en condensadores o botellas de Leyden. Una espira de alambre conductor, situada a pocos metros de la descarga, producía una descarga menor entre sus extremos abiertos.
El oscilador de Hertz, el detector de Branly y la antena de Popov eran, pues, los tres elementos indispensables para establecer un sistema de radiocomunicación, pero era necesario también constituir un conjunto que pudiese funcionar con seguridad para tener aplicaciones comerciales.
Nadie había podido conseguirlo, hasta que en 1895 Marconi realizó experimentos definitivos que le proporcionaron el título de inventor de la radiocomunicación.
Este fenómeno que empezó a mostrar la resonancia eléctrica fue estudiada por Marconi, el cual en Bolonia (Italia) en 1896 y con sólo 20 años de edad conseguía sus primeros comunicados prácticos.
Empleando un alambre vertical o "antena" en vez de anillos cortados y empleando un "detector" o aparato que permitía descubrir señales muy débiles, pronto logró establecer comunicación hasta distancias de 2400 m.
Paulatinamente fué aumentando el alcance de sus transmisiones, hasta que en 1896 solicitó y obtubo la primera patente de un sistema de telegrafía inalámbrica.
La longitud de onda utilizada estaba situada por encima de 200 metros, lo que obligaba a utilizar antenas de colosales dimensiones. El receptor basaba su funcionamiento en el denominado cohesor. Brandley y Lodge fueron dos de sus principales perfeccionadores. En esencia, el cohesor estaba constituido por un tubo de vidrio, lleno de limaduras de hierro, el cual en presencia de una señal de alta frecuencia, procedente de la antena, se volvía conductor y permitía el paso de una corriente que accionaba un timbre. Cuando desaparecía la corriente el cohesor seguía conduciendo, por lo que debía dársele un golpe para que se desactivara. Estos detalles dan una idea de las dificultades con que se encontraban los investigadores de aquel entonces.
En 1897, el inglés O.J. Lodge inventó el sistema de sintonía, que permite utilizar el mismo receptor para recibir diferentes emisiones.
En 1897, empleando un transmisor formado por una bobina de inducción grande y elevando las antenas transmisora y receptora con ayuda de papalotes (cometas), aumentó el alcance del equipo a 14,5 Km. También demostró que la transmisión podía ser sobre el mar, estableciendo la comunicación entre dos barcos de la marina de guerra italiana, a distancias de 19 Km la figura anterior nos da una idea de su receptor.
El primer contacto por radio en Francia tuvo lugar en 1898 entre la Torre Eiffel y el Pantheon (4 Km.), en París.
En 1899 nuevamente el investigador e inventor Guillermo Marconi logró enviar un mensaje por radio a través del Canal de la Mancha uniendo Dover con Wimereux (46 Km.).
Es en este año 1899, que ocurrió la primera demostración del valor de las comunicaciones por radio para dar mas seguridad a los viajes en el mar, cuando la tripulación del barco "R. F. Mathews" pudo salvarse despues del choque del barco con un faro, gracias a la llamada de auxilio por radiotelegrafía.
Pero en realidad se puede decir que la Era de la Telegrafía sin Hilos comenzó un crudo día, 12 de diciembre de 1901, a las 12:30 p.m. y después de elevar la antena receptora con globos y papalotes hasta 120 mts. de altura, en unos barracones abandonados en San Juan de Terranova (Canadá) donde Marconi ayudado por los Srs. Paget y Kemp, consiguió captar una serie de tres puntos, la letra S del código Morse, una señal que acababa de recorrer los 3.600 kilómetros que separaban a Marconi de (Poldhu) Cornwall, en Gran Bretaña (Inglaterra). Esta señal fue la culminación de muchos años de experimentación.
Después del suceso transatlántico de Marconi en el año 1901, en los Estados Unidos se registra un desarrollo vertiginoso en la autoconstrucción y experimentación de aparatos TSF (telegrafía sin hilos).
Hacia el año de 1900 se empezaron a utilizar los detectores de CRISTAL DE GALENA para la detección en
sustitución del cohesor Branly, la galena era mucho mas sensible, pero aun inestable.
En 1904, el inglés J.A. Fleming aportó a la radio el primer tipo de válvula de vacío, el diodo, que aparte de otras aplicaciones permitía sustituir con ventaja al engorroso detector de galena, el cual se siguió utilzando en pequeños receptores hasta los años cincuenta.
Con el invento en 1905 de la lámpara triodo (llamada también "audion") por el americano -Lee De Forest-, ya se podían amplificar las señales eléctricas utilizadas en radio y generar ondas que no fueran chispas como hasta entonces.
Con tensiones de sólo unas centenas de voltios era posible obtener una señal de transmisión continua o sostenida, lo que anuló rápidamente los transmisores de chispas. Pero es más, la señal continua fue fácilmente modulada por micrófonos de carbón, del tipo que aún se utiliza comúnmente en los teléfonos hoy día, y permitió la transmisión de voz.
Fue este mismo Dr. Lee DeForest que dio inicio a las primeras emisiones de radio de música y voz , usando el bulbo de su invención para generar ondas electromagnéticas, en lugar de las chispas. Sus transmisiones desde su casa en California fueron mas bien experimentales hasta que finalmente, en 1920, la Westinhouse Electric and Manufacturing Co., estableció en Pittsburgh la primera estación radiofusora comercial: la bien conocida "KDKA".
Con ello la radiotelegrafía dio paso a la radiotelefonía, que habría un inmenso campo de posibilidades a la gran aventura humana en las comunicaciones.
CARACTERISTICAS:

- Medio eficaz para la transmisión de noticias.
- Emisor y receptor se comunican sin verse, ni percibirse.
BIBLIOGRAFIA:
- Enciclopedia Combi Visual.
- Enciclopedia Lexus.
- Buscador Google.
- Wikipedia.

No hay comentarios:

Publicar un comentario