jueves, 15 de noviembre de 2007

EL BOOM DEL FACEBOOK







Con 25 millones de usuarios, es la segunda red social más exitosa de Internet después de MySpace (con 57 millones). Y crece con una rapidez increíble, que supera tres veces a la de su rival. ¿A qué se debe este éxito? A dos factores fundamentales.
En primer lugar, Facebook, que se creó como una versión en línea de los “facebooks” de las universidades americanas, abrió sus puertas a cualquier persona que cuente con una cuenta de correo electrónico. Los “facebooks” son publicaciones que hacen las mismas universidades al comienzo del año académico, que contienen las fotografías y nombres de todos los estudiantes y que tienen como objetivo ayudar a los estudiantes a conocerse mutuamente. Facebook llevó esta idea a Internet, primero para los estudiantes americanos y luego para el mundo entero.


Facebook nació en 2004 como un hobby de Mark Zuckerberg, en aquél momento estudiante de Harvard, y como un servicio para los estudiantes de su universidad. Pero el éxito marcó, desde este comienzo, el acelerado desarrollo de esta idea inicial: en su primer mes de funcionamiento Facebook contaba con la suscripción de más de la mitad de los estudiantes de Harvard, y se expandió luego a las universidades MIT, Boston University y Boston College y las más prestigiosas instituciones de Estados Unidos. Un año después, Facebook tenía más de un millón de usuarios, una oficina en Palo Alto y había recibido el apoyo financiero de Peter Thiel primero (co- fundador de Pay-Pal y inversor ángel) (500 mil U$D) y de Accel Partners después ($12.7 millones). Ese mismo año incorporó, además, a los alumnos de más de 25 mil escuelas secundarias y dos mil universidades (otras universidades de Estados Unidos y universidades extranjeras), logrando un total de 11 millones de usuarios. En 2006, Facebook introdujo más universidades extranjeras y desarrolló nuevos servicios en su plataforma, tales como Facebook Notes (una herramienta de blogging con tagging, imágenes y otras utilidades) o la importación de blogs de servicios como Xanga, LiveJournal o Blogger y (ya en 2007) Facebook Marketplace, que compite con Craigslist. También implementó acuerdos comerciales con iTunes y recibió una inversión de capital adicional de 25 millones de dólares por parte de Peter Thiel, Greylock Partners y Meritech Capital Partners.

Los usuarios pueden participar en una o más redes, en relación a su situación académica, su lugar de trabajo o región geográfica.
En febrero del 2007 llegó a tener la mayor cantidad de
usuarios registrados en comparación con otros sitios orientados a estudiantes de nivel superior, teniendo más de 19 millones de miembros en todo el mundo (incluyendo redes de no estudiantes)[sin referencias].
Facebook es uno de los
sitios más visitados en Internet. Según el sitio Alexa Internet, se encuentra entre los diez primeros en noviembre de 2007[1]
En los últimos meses ha conseguido mucha atención en la
blogosfera y en los medios de comunicación al convertirse en una plataforma sobre la que terceros pueden desarrollar aplicaciones y hacer negocio a partir de la red social. A pesar de ello, existe la preocupación acerca de su posible modelo de negocio dado que los resultados en publicidad se han revelado como muy pobres ZdNet
El nombre del
sitio hace referencia al boletín que la administración de muchas universidades entrega a los estudiantes de primer año, con la intención de ayudarles a que se conozcan más entre ellos.


Historia de la empresa


El creador y actual CEO de Facebook es Mark Zuckerberg, estudiante de la Universidad. La compañía tiene sus oficinas centrales en Palo Alto, California.
La idea de crear una
comunidad basada en la Web en que la gente compartiera sus gustos y sentimientos no es nueva. Ya David Bohnett, creador de Geocities, la había incubado a fines de los 80. Geocities tuvo éxito en los 90, en 1998 fue el tercer sitio más visto en la Web, pero no logró consolidarse después de que fuera adquirido por Yahoo.
Facebook compite por abrirse espacio entre empresas de éxito como
Google y MySpace, por lo que se enfrenta a grandes desafíos para lograr crecer y desarrollarse. Una de las estrategias de Zuckerberg ha sido abrir la plataforma Facebook a otros desarrolladores.
La fortaleza de Facebook radica en la
red social de 47 millones de usuarios que ha creado, basada en conexiones de gente real.
A fines de octubre de
2007 vendió una parte, el 1,6 % a
Microsoft.

EL CINE DIGITAL




Cine digital

El cine digital es aquel que utiliza la tecnología digital para grabar, distribuir y proyectar películas.
Generalmente, se caracteriza por la alta resolución de las imágenes, porque prescinde de algunos aspectos asociados a la proyección mecánica de las películas y por las sobresalientes posibilidades de posproducción por medios informáticos.
El cine digital se graba utilizando una representación digital del brillo y el color en cada píxel de la imagen, en lugar de quedar fijada por emulsión química en el filme de celuloide tradicional. La película final puede ser distribuida vía disco duro, DVD o satélite, y puede proyectarse usando un proyector digital en lugar del proyector tradicional.
Un formato común para trabajar en post-producción digital es el DPX , el cual representa la densidad del negativo escaneado en un formato de 10 bits. También es frecuente que se utilice un archivo para cada frame, que puede alcanzar los 20 o 50 megas.
Las películas de bajo presupuesto y con medios limitados están cada vez más siendo rodadas en digital (aunque a menudo no sean cámaras de alta definición). Con la creciente popularidad de esta tecnología en los últimos tiempo, los festivales especializados en cine digital son hoy comunes por todo el mundo. El pionero y mayor de ellos es el Onedotzero, celebrado en Londres desde 1996. Por el momento, muchos objetivos de las cámaras electrónicas no se fijan en este mercado. El público al que se dirigen es generalmente el de festivales sin ánimo de lucro y las piezas se frecuentan más a menudo en vídeo que en cine. Cuando estos productos se lanzan al mercado es casi siempre en formato DVD cinta, por lo que se les puede considerar productos para televisión sin emisión.





Desarrollo de la tecnología digital


Los comienzos en los años 80


Aunque el fenómeno del cine digital ha recibido una gran publicidad en los últimos años, no es realmente un nuevo concepto: antes de ser reintroducido como “cine digital” a finales de los 90, se le conoció durante años como “cine electrónico”.
Sony se lanzó a comercializar el concepto de “cine digital” ya a finales de los 80, usando cámaras HDTV analógicas basadas en tubos, con más bien poco éxito en un principio. No fue hasta 1998, al ser capaces de desarrollar y comercializar cámaras CCD manejables de 1920x1080 píxeles que incluían grabadoras HD Digital Betacam, cuando la industria comenzó a tomarse en serio este nuevo medio. En cualquier caso, al estar basadas en las antiguas tecnologías digitales, esta temprana tecnología digital no ofrecía grandes diferencias, incluso en lo referente a la calidad de imagen.
Desde finales de los 80 hubo varios proyectos cinematográficos, en cierto sentido experimentales, que usaban tanto cámaras como proyectores digitales, pero ninguno con gran éxito comercial. Una de las primeras proyecciones verdaderamente digitales fue el cortometraje Driven Together, de David M. Kaiserman, en 2000. La primera secuencia que utilizó secuencias generadas por computadora fue
Tron, producida por la Disney en 1982. Se utilizaron casi treinta minutos de animación generada por computadora, en combinación con los personajes del filme. Aún así, la película contiene menos imágenes generadas por computadora de lo que generalmente se pudiera suponer, ya que realmente muchos de los efectos que parecen haber sido hechos por computadora fueron creados usando efectos ópticos tradicionales: con una técnica conocida como "animación con luz de fondo", las escenas en vivo dentro del mundo de la computadora fueron filmadas en blanco y negro, impresas en películas de formato grande y alto contraste, después coloreadas con técnicas tradicionales de fotografía y técnicas rotoscópicas, consiguiendo así un aspecto “futurista” y “tecnológico” (al menos para los parámetros del momento). En cualquier caso, el proceso fue inmensamente laborioso y no ha sido repetido por ninguna otra película; con tantas capas de alto contraste y negativos de formato grande, se necesitaron grandes cantidades de filme cinematográfico, aumentando el coste sobremanera. Para crear esta película, Disney tuvo que adquirir la Super Foonly F-1, una cámara de la serie PDP-10 de la más puntera tecnología en su momento. Aunque hoy pueda parecer algo tosca (y sin entrar a valorar temas creativos o de guión), la película ha sido ovacionada por ser un hito en la animación por computadora. Y aunque la película inicialmente no tuvo éxito, se ha convertido en filme de culto por ser pionero en el uso de gráficos generados por ordenador, inspirando muchos populares videojuegos.

Los 90: la expansión del digital


En los años 1990, el cine comenzó un proceso de transición, del soporte fílmico a la tecnología digital. Aunque el primer film con efectos especiales digitales fue Tron, ya en 1982, no fue hasta mediados los noventa donde la tecnología digital desembarcó en la industria cinematográfica, ya sea en grandes producciones que hicieron uso extensivo de la tecnología digital, como las nuevas películas de Star Wars o Matrix, hasta la películas hechas íntegramente en computadora, de la mano de Pixar y otras compañías. Mientras tanto, en el ámbito del video doméstico, surgió un soporte digital, los DVD aparecen como nuevo estándar.
Hoy en día, Estados Unidos se prepara para equipar todas sus salas con proyectores digitales, y los fabricantes hacen líneas especiales de cámaras digitales para cine profesional, controladores de colorimetría y ediciones para sustituir la película. Los diferentes formatos de HD, respecto al viejo 35 mm, ofrecen presupuestos más bajos, facilidad de manipulación en el montaje, agilidad en el tratamiento y facilidad de introducción de técnicas de síntesis digitales.
George Lucas y James Cameron, por ejemplo, han utilizado estos sistemas de HD que gran calidad, de tal manera que el resultado final es casi idéntico al film en algunos casos. Otros directores, como Steven Spielberg se rehúsan a migrar al digital y siguen haciendo sus películas en film, e incluso editando en moviola.

La actualidad


Teniendo en cuenta los constantes impulsos a la tecnología digital año tras año, parece que el futuro del cine es ser digital en los próximos 10 o 20 años. En cualquier caso, el cine digital todavía tiene que recorrer bastante camino antes de reemplazar por completo al celuloide: durante los últimos 100 años todas las películas han sido grabadas en filme tradicional y todos los estudiantes de cine han aprendido cómo manejar una cámara de 35mm; sin embargo, la tecnología digital, especialmente el equipo de alta definición, todavía no ha tenido tiempo de conseguir una extensa aceptación, pese a que la creciente popularidad de la vídeo-cámara de alta definición (de menos de 2048 píxeles horizontales) en el campo de la televisión ha incentivado ciertamente el desarrollo en cine de las cámaras de 4096 píxeles y más, así como la tecnología de post-producción. Los primeros sistema de película digitales escaneaban las imágenes la cámara grababa y transferían estas imágenes para la proyección. Los actuales sistemas usan tanto cámaras digitales como proyectores digitales. Los proyectores digitales capaces de una resolución de 2048 píxeles horizontales comenzaron a desarrollarse en 2005 y su avance es cada vez más acelerado. La televisión y los discos de alta definición están ejerciendo una fuerte presión para que los cines ofrezcan algo mejor que sea capaz de competir con la alta definición doméstica. Una sala de cine digital debe ser capaz de ofrecer a la audiencia alta definición de vídeo, de audio, subtítulos y otras características, amén de actualizarse continuamente con los últimos avances tecnológicos (mejoras en la definición, cifrado por parte de los distribuidores...).
Con la rápida difusión del digital y la proliferación de formatos, el Digital Cinema Iniciativas (DCI), trabajando junto con miembros del comité SMPTE de protocolos, publicó un sistema de especificaciones que han adoptado las mayores productoras estadounidenses. Resumiendo, los protocolos indican que las imágenes sean codificadas con el estándar ISO/IEC 15444-1 "JPEG2000" (.jp2) y que se use el espacio de color CIE XYZ a 12 bits por componentes codificado en una gamma de 1/2.6; que para el audio se utilice el formato “Broadcast Wave” (.wav) a 24 bits; también hablan de el cifrado y otros detalles técnicos.



Esta tecnología es una de las revoluciones más sorprendentes del medio, según opinan diversos productores de cine.


El nuevo formato digital junto con las técnicas cinematográficas de iluminación y corrección de color logran increíbles resultados, aumentando las posibilidades creativas en el quehacer fílmico y reduciendo los costos de producción (efecto de la disminución de equipo y del personal técnico requerido). Su riqueza radica en el potencial inagotable de su exploración, y al igual que toda evolución en la historia de la cinematografía, parte de un avance tecnológico.


¿Ya está disponible en el mercado?


Hoy en día, el rango de opciones disponibles para los cineastas independientes es cada vez mayor gracias a la amplia variedad de cámaras digitales disponibles en el mercado, desde DV y DVCAM hasta alta definición pasando por Betacam Digital. Las imágenes captadas por estas cámaras deben ser transferidas a película de 35mm para permitir su reproducción en una pantalla de cine.


¿y quién más las ha utilizado?


Como ejemplos del uso que se ha hecho del equipo digital, podemos mencionar:
Para la grabación de Danzando en la obscuridad, de Lars Von Trier (que obtuvo la Palma de Oro en Cannes como la mejor película), se utilizaron varias unidades DVCAM modelo DSR-PD100A.
Mike Figgis (director de Living las Vegas) grabó la increíble historia de Time Code 2000, empleando cuatro DVCAM de manera simultánea para grabar cuatro historias diferentes al mismo tiempo.
Win Wender combinó DV, DVCAM y Betacam Digital para producir uno de los más exitosos documentales en la historia, Buena Vista Social Club.
Y la segunda película digital de Latinoamérica, La perdición de los hombres (también de Arturo Ripstein), fue realizada en DVCAM, resultando ganadora en la categoría de mejor película en el Festival de San Sebastián.

EL iPHONE

iPhone


















Pantalla

LCD táctil, 3,5" a 320x480 pixels, 160ppi


Memoria

4 u 8 GB (interna)


Conectividad

Wi-Fi (802.11b/g), Bluetooth 2.0


Dimensiones

115 x 61 x 11.6 mm


Peso

135 gramos


El Apple iPhone es un
teléfono móvil anunciado por el director ejecutivo de Apple Steve Jobs, durante su charla en la Macworld del 9 de enero de 2007.[1] El dispositivo es cuatribanda 2.5G que soporta push e-mail, telefonía móvil, mensajería de texto, navegación web con Safari y otros servicios de información inalámbricos. Además, el dispositivo tiene una pantalla multitáctil e incluye funcionalidad presente en la serie de reproductores de música iPod, y funciona con una versión del sistema operativo Mac OS X adaptada. Vendrá equipado con Wi-Fi (802.11b/g) y Bluetooth 2.0, además de una cámara digital de 2 megapíxeles.


BIOTECNOLOGÍA



BIOTECNOLOGÍA

La biotecnología es la tecnología basada en la biología, especialmente usada en agricultura, farmacia, ciencia de los alimentos, ciencias forestales y medicina. Probablemente el primero que usó este término fue el ingeniero húngaro Karl Ereky, en 1919.
Una definición de biotecnología aceptada internacionalmente es la siguiente:
La biotecnología se refiere a toda aplicación tecnológica que utilice sistemas biológicos y organismos vivos o sus derivados para la creación o modificación de productos o procesos para usos específicos.
[1]
Biotechnology means any technological application that uses biological systems, living organisms, or derivatives thereof, to make or modify products or processes for specific use.
Convention on Biological Diversity (Article 2. Use of Terms)." United Nations. 1992.
Otra definición es: "la utilización de organismos vivos, o partes de los mismos, para obtener o modificar productos, mejorar plantas o animales o desarrollar microorganismos para objetivos específicos". Fuente: Sociedad Española de Biotecnología


Primeras biotecnologías


Uno de los primeros usos de la biotecnología y también uno de los más prácticos, es el cultivo de plantas para producir alimentos para el hombre. La agricultura se convirtió en la principal forma de obtener alimentos a partir de la revolución del neolítico hace 10 o 12 mil años. Usando técnicas antiguas de biotecnología, los agricultores fueron capaces de seleccionar los cultivos más resistentes y con mejor rendimiento para producir alimentos suficientes para la cada vez mayor población. Conforme la cantidad de alimentos obtenida en los cultivos se fue volviendo cada vez más grande y difícil de mantener, se requirieron otras técnicas biotecnológicas para mantenerlos y aprovecharlos, lo que dio origen a prácticas como la rotación de cultivos, el control de plagas, la domesticación de animales, la producción de cerveza y pan, etc., aunque no fue sino hasta muchos años después que descubrieran los principios que gobiernan cada una de estas técnicas. Un ejemplo de esto es el uso por parte de las civilizaciones antiguas de organismos microscópicos que viven en la tierra para incrementar el rendimiento de los cultivos por medio de la rotación. No se sabía cómo funcionaba: Teofrasto, un griego antiguo que vivió hace 2300 años, sostenía que el frijol dejaba “magia” en la tierra, y tomó otros 2200 años antes de que otro químico francés sugiriera en 1885 que algunos organismos del suelo son capaces de “fijar” el nitrógeno atmosférico en una forma que las plantas pueden usar como fertilizante


El nacimiento de la lucha moderna contra las enfermedades


Hacia 1850, Ignaz Semmelweis, un médico austro-húngaro utilizó observaciones epidemiológicas para proponer la hipótesis que la fiebre puerperal se transmite de una mujer a otra a través de los médicos. Probó su hipótesis haciendo que los médicos se lavaran las manos después de examinar a cada paciente, sin embargo su propuesta fue tan escandalosa en la época que hizo que el resto de la comunidad médica lo despreciara y que perdiera su trabajo. En 1865, Joseph Lister comenzó a utilizar desinfectantes como el fenol en el tratameinto de heridas y en cirugías al tiempo que Pasteur desarrollaba la teoría de los gérmenes como causa de las enfermedades. Para 1882, Robert Koch, usando cobayos como hospederos alternativos, describió la bacteria que causa la tuberculosis en los seres humanos. Koch fue el primero en descubrir la causa de una enfermedad microbiana humana y estableció que cada enfermedad es causada por un microorganismo específico.

El surgimiento de la genética


Hacia 1859, Charles Darwin propuso que las poblaciones animales adoptan formas diferentes a lo largo del tiempo para aprovechar mejor el medio ambiente, un proceso al cual llamó “selección natural”. Mientras viajaba por las Islas Galápagos, observó como los picos de una clase particular de aves se habían adaptado en cada una de las islas a las fuentes de alimentos disponibles y planteó que sólo las criaturas mejor adaptadas a su medio ambiente son capaces de sobrevivir y reproducirse. El libro emblema de Darwin “El Origen de las Especies”, opacó todas las otras voces científicas (incluyendo la de Mendel) durante varias décadas. Unos años después, Gregor Mendel, un monje agustino, presentó en 1865 sus leyes de la herencia a la Sociedad de Ciencias Naturales en Brunn, Austria. Su trabajo con chícharos llevó a Mendel a proponer que había unidades internas de información invisibles dentro de los organismos, las que eran responsables de los rasgos observables (como por ejemplo el color, altura de la planta, tamaño de la vaina, etc.) y que estos factores (que después serían conocidos como genes), se transmitían de una generación a la siguiente, sin cambiar pero recombinándose. El trabajo de Mendel permaneció desapercibido durante largos años a causa del mucho más sensacional descubrimiento de Darwin, hasta 1900 cuando Hugo de Vries, Erich Von Tschermak y Carl Correns publicaron sus investigaciones corroborando el mecanismo de la herencia de Mendel.

El papel del ADN en la herencia




En 1868, Fredrich Miescher, un biólogo suizo, aisló por primera vez un compuesto al que llamó nucleína y que contenía ácido nucleico, sin embargo esto no se relacionó en su tiempo con las leyes de la herencia. En 1882, Walther Flemming reportó su descubrimiento de los cromosomas y la mitosis. Para 1902, Walter Stanborough Sutton estableció que los cromosomas se encuentran en parejas y que pudieran ser los portadores de la herencia, apoyando la teoría de Mendel y renombrando a sus “factores” con el nombre que los conocemos el día de hoy: “genes”. En 1910 el biólogo estadounidense Thomas Hunt Morgan, descubre que los genes se encuentran en los cromosomas. En 1935 Andrei Nikolaevitch Belozersky logró aislar ADN en forma pura por primera vez y en 1941 George Beadle y Edward Tatum desarrollan el postulado de “un gen una enzima”. En el año de 1944, Oswald Theodore Avery, Colin MacLeod y Maclyn McCarty determinaron que el ADN es el material hereditario, sin embargo su teoría tuvo poca aceptación pues se pensaba que el ADN era una molécula demasiado simple para poder llevar a cabo esta función. Para principios de los 1950, la científica británica Rosalind Franklin trabajaba en modelos estructurales de ADN que más tarde perfeccionarían James Watson y Francis Crick y que serían la base para su descubrimiento de la estructura del ADN, que publicaron en 1953 y en la que proponían el modelo de doble hélice complementaria y antiparalela que hoy conocemos, con lo que inauguraron un nuevo capítulo en el estudio de la genética. La comprensión del ADN fue esencial para la exploración de la biotecnología. Las células son las unidades básicas de la materia viva en todos los organismos y el ADN contienen la información que determina las características que tendrá una célula. Desde el inicio los científicos vislumbraron la posibilidad de nuevos medicamentos diseñados para ayudar al cuerpo a hacer lo que no podía por su propia cuenta o de cultivos capaces de protegerse por si solos de las enfermedades.

EL IPOD



iPod


es un reproductor de música digital con pantalla a color y disco duro, o en el caso de iPod nano, iPod shuffle y iPod touch con memoria flash, creado por Apple Inc. (antes Apple Computer Inc.).
La línea de productos iPod, a excepción del iPod Shuffle y el iPod Touch, es conocida por su
interfaz de fácil manejo basada en el uso de una sola "rueda táctil", denominada por Apple Click Wheel (Rueda Click, en español), como la única forma de navegación.
Como la mayoría de los reproductores de
audio digital, cada uno de los iPod puede ser utilizado como un disco duro externo al ser conectado a un ordenador, (excepto el iPod Shuffle Segunda Generación, ya que solo se usa para sincronizarse y no activa la opción de disco duro) .


Historia

Un iPod de segunda generación
El iPod fue originalmente concebido por
Tony Fadell, al margen de Apple. Fadell enseñó su idea a Apple, y fue contratado como un buen independiente para llevar su proyecto al mercado. Fadell y su equipo fueron responsables de las dos primeras generaciones de iPod. Desde entonces, el iPod ha sido diseñado por el equipo de Jonathan Ive.
Después de 9 meses de desarrollo el iPod fue sacado a la venta el
23 de octubre de 2001, solamente para los ordenadores Mac de Apple. En el año 2002, la segunda generación fue introducida, en dos variedades: una para los usuarios de Mac, y una para usuarios de Windows. La única diferencia entre los dos paquetes fue la inclusión del programa para organizar la música en el iPod. Para Mac, fue incluido el programa iTunes, y para Windows, el programa Musicmatch Jukebox. Los iPods sólo funcionaban con ambos sistemas. En el 2003, Apple introdujo la tercera generación de iPod, la cual venía con un solo disco que instalaba iTunes en Windows, al igual que en Mac OS, actualmente el software puede ser descargado directamente desde la página web de Apple.

En el software


El iPod puede reproducir archivos
MP3, WAV, AAC/M4A, AIFF y Apple Lossless. El iPod de 5ª generación también es capaz de reproducir archivos de video en formatos H.264 y MPEG-4.
Apple diseñó el iPod para funcionar principalmente en combinación con su programa
iTunes. Con iTunes, se puede automáticamente sincronizar la música de la biblioteca del usuario con la del iPod cada vez que se conecta al ordenador. Las canciones, fotos y listas de reproducción nuevas se copian automáticamente al iPod y las canciones borradas son eliminadas también del iPod. Esto funciona también en sentido inverso, si se valora una canción en el iPod, la calificación se copiará a la biblioteca de iTunes. Además si se escuchan audiolibros, la posición de éstos también se sincronizará automáticamente. iTunes da la opción de sincronización manual además de función de sincronización automática.

ENIAC



ENIAC (Electronic Numerical Integrator and Computer)


John P. Eckert y John W. Mauchly construyeron en 1946, en la Universidad de Pennsylvania, el ENIAC, primer computador electrónico, compuesto de 17.468 válvulas o tubos de vidrio al vacío (más resistencias, condensadores, etc.), con 32 toneladas de peso, 2,40 de ancho y 30 metros de largo.El calor de las válvulas elevaba la temperatura del local hasta los 50º. Para efectuar diferentes operaciones, debían cambiarse las conexiones (cables) como en las viejas centrales telefónicas, lo cual era un trabajo que podía tomar varios días. Era capaz de calcular con gran velocidad la trayectorias de proyectiles, principal objetivo inicial de su construcción. En 1,5 segundos podía calcular le potencia 5000 de un número de 5 cifras.
La ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su programación era terriblemente tediosa y debía cambiársele de tubos contínuamente.
En las últimas fases de su diseño y construcción actuó como consultor
John von Neumann.







La aparición de la computadora ENIAC (Electronic Integrator and Calculator) estructurada por John Mauchly y John Eckert, y puesta en funcionamiento en 1945, marca el inicio de nuestra era computacional. Se trataba de una máquina programable y universal a la que se podía llamar electrónica.
ENIAC es la evolución de la Mark I. Ocupaba 160 metros cuadrados, pesaba 30 toneladas y funcionaba con 17,468 válvulas de vacío que reemplazaban los conmutadores electromagnéticos de la Mark I, 70,000 resistencias, 10,000 condensadores y un consumo de aproximadamente 200 kilowats. En los años 50 (la generación del transistor) con la creación de los semiconductores, el diodo y el transistor, surge la s
egunda generación de aparatos de cómputo. El tamaño se redujo sustancialmente. Se crean las compuertas lógicas y sus circuitos derivados. Esta fase duró hasta aproximadamente el año 1964.
Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly colaboró con J. Presper Eckert, Jr. para desarrollar una máquina que calculara tablas de trayectoria para el ejército estadounidense. El producto final, una computadora electrónica completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer), ó Integrador numéric o y calculador electrónico. La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajaron bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días e incluso semanas. A diferencia de las computadoras actuales que operan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9)
La ENIAC requería una gran cantidad de electricidad. La historia relata que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC señalaron el comienzo de la
primera generación de computadoras.
ENIAC era capaz de realizar 5,000 adiciones por segundo, realizando en 20 segundos la tarea que a una persona podría llevarle 40 horas.
ENIAC contaba 500,000 conexiones soldadas a mano y era programada cambiando el cableado en un panel de control que era muy similar a los paneles de conmutación telefónica, con cientos de cables.
Algunas veces, las polillas eran atraídas por las luces de ENIAC y se atoraban causando fallas. Debido al concepto genérico "bicho" y a que las polillas pueden ser llamadas de esta forma genérica con el vocablo bug, en inglés, en el argot informático las fallas se conocen como Bugs.
ENIAC introdujo diversas mejoras o cambios. Por ejemplo, la utilización de un sistema binario, de dos dígitos, en vez del decimal de 10 dígitos utilizado por la Mark I. Esto significó que las máquinas podían ser ajustadas para que cuando un conmutador eléctrico estuviera abierto equivalía a uno, y al estar cerrado a cero; de esta forma los cálculos podían ser realizados a la velocidad de la electricidad.
Otro avance que llegó con la creación de la ENIAC, es que fue la primera computadora digital. En el mundo análogo (en el que vivimos) la información es representada por variables físicas, mientras que en el plano digital, la información es muestreada, lo que la hace muy rápida y más precisa.

Ficha técnica
Inicio del proyecto
1943
Finalización del proyecto
1946
Primera prueba funcional exitosa
1945
Modo de programación
Conectores y conmutadores
Velocidad
5,000 operaciones por segundo
Superficie cubierta
160 m cuadrados / 1,000 pies cuadrados
Líderes del proyecto
John Mauchly, J. Presper Eckert

EL CÓDIGO MORSE




Samuel Morse fue el inventor del código que lleva su nombre. En 1832 proyectó la construcción de un telégrafo. Estados Unidos y Europa le negaron el registro de su invento. Fue en 1843 cuando consiguió la financiación del gobierno americano para la construcción de una línea telegráfica entre Washington y Baltimore.






El Código Morse es un medio de comunicación basado en la transmisión y recepción de mensajes empleando sonidos o rayos de luz y un alfabeto alfanumérico compuesto por puntos y rayas. Aunque este código surgió en el siglo 19, su empleo es perfectamente utilizable hoy en día cuando la existencia de condiciones atmosféricas adversas no permiten el empleo de otros medios más desarrollados como, por ejemplo, la transmisión de la voz. Aún cuando en una transmisión inalámbrica por radiofrecuencia realizada solamente con código Morse aparezcan interferencias producidas por tormentas eléctricas, los sonidos de los puntos y las rayas serán siempre reconocibles para el oído humano aunque se escuchen mezclados con el ruido que produce en esos casos la estática atmosférica.En sus inicios para transmitir y recibir mensajes en Código Morse se empleaba un primitivo aparato inventado en 1844 por Samuel Morse, creador a su vez del propio código que lleva su nombre. Ese aparato constaba de una llave telegráfica de transmisión, que hacía las veces de interruptor de la corriente eléctrica y un electroimán como receptor de los puntos y las rayas..
Cada vez que la llave se oprimía hacia abajo con los dedos índice y medio se establecía un contacto eléctrico que permitía transmitir los puntos rayas del código Morse. Los impulsos intermitentes que se producían al apretar la llave telegráfica se enviaban a un tendido eléctrico compuesto por dos alambres de cobre. Esos cables, soportados por postes de madera, se extendían muchas veces a cientos de kilómetros de distancia a partir del punto de origen de la transmisión hasta llegar al punto de recepción.
Vista superior de una llave telegráfica Morse
El primitivo receptor de ese sistema de telegrafía por donde se oía el sonido de los puntos y las rayas estaba formado por un electroimán con una bobina de alambre de cobre enrollada alrededor de un núcleo de hierro. Cuando la bobina recibía los impulsos de corriente eléctrica correspondientes a los puntos y las rayas, el núcleo de hierro se magnetizaba y atraía hacia sí una pieza móvil, también de hierro, que al golpearlo emitía un sonido seco peculiar. Ese sonido era semejante a un “tac” corto cuado se recibía un punto, o un “taaac” más largo si se recibía una raya. Por ejemplo, la letra “a” del código Morse, formada por un punto y una raya ( . – ), se oía aproximadamente así: “tac – taaac”.Con el invento de
Marconi del transmisor elemental de ondas de radio, a partir del año 1901 la transmisión de mensajes por telegrafía se comenzó a realizar también de forma inalámbrica, adaptándolo al mismo sistema inventado por Morse. Esa nueva forma de transmisión tenía la ventaja que no era necesario realizar tendidos de cables a largas distancias, por lo que muy pronto los barcos se adoptaron esa nueva tecnología para comunicarse entre sí y con tierra. El “telegrafista” pasó entonces a llamarse “radiotelegrafista”.La posterior aparición de la válvula de vacío inventada por Fleming en 1904 y el desarrollo de la válvula triodo inventada por Lee de Forest tres años después, abrieron la posibilidad de generar ondas de radiofrecuencia por medios electrónicos. Ese avance tecnológico mejoró en gran medida la transmisión de mensajes en código Morse por vía inalámbrica, permitiendo su envío a cualquier confín del mundo.Con la introducción en el mercado de los transmisores electrónicos por ondas de radiofrecuencia, el electroimán utilizado hasta entonces para recibir las señales del código Morse se sustituyó por un altoparlante o, en su defecto, un par de cascos (audífonos) y el sonido pasó a escucharse como “beeps” cortos o largos, según fuera un punto o una raya lo que se estuviera recibiendo. La llave telegráfica de Morse se sustituyó también por otra llamada "vibroplex bug", inventada en 1903 por Horace G. Martin que posibilitaba enviar los mensajes con mayor rapidez. El pulsador de esta nueva llave funcionaba de forma horizontal y se manipulaba haciendo presión hacia los lados utilizando el dedo índice y el pulgar.Además de las transmisiones de mensajes que se realizan empleando sistemas eléctricos o electrónicos, el código Morse permite utilizar también otros medios más sencillos. Uno de ellos consiste en utilizar una fuente de luz intermitente, mientras que el otro se basa en producir sonidos empleando cualquier dispositivo que permita reproducir los puntos y las rayas. Un ejemplo del uso práctico de esos diversos métodos lo tenemos principalmente en los barcos, que en determinados casos pueden llegar a emplear cualesquiera de las posibilidades que se han mencionado.
Por ejemplo, para enviar mensajes empleando una fuente de luz los barcos se valen de una especie de reflector llamado “blinker”, dotado de una cortinilla que al abrirse deja pasar los rayos de luz y al cerrarse los interrumpe. Un rayo de luz corto se entiende como un punto, mientras uno más largo es una raya. A la derecha se puede ver un blinker transmitiendo un S.O.S. pidiendo auxilio. La formación de esas siglas en código Morse se realiza con tres puntos que corresponden a la letra (S), tres rayas a la letra (O) y tres puntos más (igualmente para la otra S) ( . . . – – – . . . )
Blinker transmitiendo un S.O.S.
En casos de emergencia los barcos suelen utilizar también el “tifón” (silbato accionado por un chorro de vapor o de aire), que llevan comúnmente fijado a su chimenea; gracias al fuerte y grave sonido que emiten los tifones, se pueden utilizar para propagar los sonidos de mensajes de auxilio en código Morse. Un sonido corto del tifón significa un punto, mientras que uno más largo significa una raya.Para transmitir las letras del código, cada punto y cada raya se separa haciendo breves pausas. La velocidad de transmisión de las palabras que forman el texto de los mensajes depende en gran medida de la habilidad y experiencia práctica que tenga el telegrafista o el radiotelegrafista, tanto a la hora de transmitir como de recibir los mensajes.Independientemente de la velocidad y destreza que se pueda llegar a adquirir empleando el código Morse, a la hora de transmitir un mensaje el tiempo de demora de una raya debe superar en tres veces el de un punto. Cada letra o número del código se compone de uno o más puntos o rayas, o las combinaciones de ambos signos, separados entre sí por una pausa de tiempo equivalente al de la transmisión de un punto. Además, entre la transmisión de una letra y la siguiente, el tiempo de separación debe ser mayor que el necesario para transmitir una raya o tres puntos. El tiempo de separación entre una palabra y la otra debe ser equivalente al que se requiere para transmitir seis puntos.