miércoles, 27 de enero de 2010

Apple lanza iPad




iPad fue creada bajo la idea de combinar un laptop con las funciones de conectividad, movilidad y aplicaciones del iPod Touch.

El dispositivo está orientado a navegar por Internet, ver fotos, leer libros, ver videos, escuchar música, jugar y tareas similares que normalmente se hacen en un computador portatil teniendo en cuenta que está basado en iPhone OS y no en MAC OS.

Se conserva y se hace uso intensivo de las capacidades Multitouch de los ultimos dispositivos de Apple lo que viene siendo la principal novedad en la construcción de computadores portátiles.

Algunas caracteristicas generales

- Calendario y agenda renovada con respecto a lo que se usa en los iPod Touch
- Albumes fotográficos con localización geográfica
- Teclado QWERTY totalmente tactil
- Media pulgada de grosor
- 1.5 libras de peso
- Pantalla IPS de 9.7 pulgadas multitouch
- Chip Apple A4 de 1ghz
- Entre 16 y 64gb de almacenamiento en memoria Flash interna
- Bluetooth 2.1 + EDR
- WiFi 802.11n
- Acelerometro y brujula integrada
- Microfono y parlantes incorporados
- 10 horas de batería y hasta un mes en estado de reposo
- Compatibilidad total con las aplicaciones existentes para iPhone/iPod Touch
- Soporte OpenGLS. Algunas empresas como Electronic Arts y Gameloft mostraron sus juegos 3D corriendo fluidamente en el iPad
- iBooks y iBook Store. Ahora Apple lanza la competencia a Amazon y su Kindle ofreciendo un dispositivo para leer libros y una tienda para comprarlos.
- iWork reescrito para ser compatible y poder ejecutarse correctamente en el iPad.
- Algunos modelos tendrán conectividad 3G aparte de la conectividad WiFi básica con uso de micro SIMs GSM. Los modelos estarán desbloqueados de fábrica.
- Tendrá un Dock para usar teclado físico, salida de video 480p composite.

Precios:

Ediciones WiFi

16Gb: 499 dolares
32GB: 599 dolares
64Gb: 699 dolares

Ediciones WiFi + 3G

16Gb: 629 dolares
32Gb: 729 dolares
64Gb: 829 dolares

Igualmente se lanzará hoy una nueva versión del iPhone SDK que permite ahora crear aplicaciones que aprovechen las ventajas del iPad, sobre todo con el nuevo tamaño de pantalla.

Página oficial: iPad

Crean el primer transistor orgánico que imita el funcionamiento de las neuronas

Científicos del CNRS (Centre National de la Recherche Scientifique) y de la CEA (Commissariat à l'Énergie Atomique) han desarrollado el primer transistor capaz de imitar la forma en la que los sistemas biológicos, como las redes neuronales, operan para crear nuevos circuitos electrónicos, según se explica en un comunicado del CNRS que recoge asimismo www.alphagalileo.org. El estudio ha sido publicado en la revista Advanced Functional Materials.

Un transistor es el elemento básico de un circuito electrónico. Se comporta como un interruptor (que transmite o no una señal), pero además puede ofrecer otras funcionalidades, como la amplificación de la misma. La gran innovación de este nuevo transistor, al que han bautizado como NOMFET (Nanoparticle Organic Memory Field-Effect Transistor), consiste en la combinación de un transistor orgánico, basado en moléculas de pentaceno, con nanopartículas de oro.

“Efecto memoria”

Las nanopartículas de oro, recubiertas con pentaceno, poseen una propiedad especial que les permite simular la función de una sinapsis, es decir, del proceso de comunicación entre dos neuronas, durante la transmisión de sus impulsos eléctricos. Esta particularidad, denominada plasticidad, consiste en una especie de “efecto memoria”. Es la responsable de que la neurona sea capaz de “aprender” a asociar el estímulo (la señal que recibe) con sus “consecuencias” (lo que debe que hacer cuando lo recibe). Así, la neurona va optimizándose poco a poco, de modo que necesita “trabajar” menos para generar la misma respuesta ante un estímulo que ya conoce.

La plasticidad consigue que el componente electrónico pueda evolucionar en función del sistema en el que se coloca. Hasta ahora, para imitar esta plasticidad, eran necesarios siete transistores CMOS (un tipo de tecnología usada para fabricar la mayoría de los circuitos integrados, como microprocesadores o memorias).

Este nuevo transistor orgánico abre camino a nuevas generaciones de ordenadores “neuro-inspirados”, capaces de responder de una manera similar a la del sistema nervioso. A diferencia de las computadoras de silicio, ampliamente utilizadas en informática de alto rendimiento, los ordenadores “neuro-inspirados”, podrán resolver problemas mucho más complejos, como el reconocimiento visual.

Dominique Vuillaume, investigador del Instituto de Electrónica, Microelectrónica y Nanotecnología del CNRS y uno de los autores del estudio, afirma que el objetivo de NOMFET es conducir a una “respuesta colectiva como la que puede proporcionar una red neuronal integrada por múltiples informaciones”, lo que daría lugar a “sistemas tan flexibles que puedan ser programados por aprendizaje”.

La primera imagen de los átomos de una molécula

En agosto de 2009, científicos del laboratorio de IBM en Zúrich lograron visualizar por primera vez la imagen completa de los átomos de una molécula. Era el pentaceno, un tipo de compuesto orgánico con el que, meses más tarde, los investigadores del CNRS y de la CEA han conseguido crear el nuevo transistor NOMFET.

El pentaceno fue “fotografiado” gracias a un Microscopio de Fuerzas Atómicas (AFM), que permite ver y manipular la materia a dicha escala. La captación de su imagen supuso un avance significativo en el desarrollo de la electrónica molecular. Sin duda, un paso más para aumentar las prestaciones de dispositivos electrónicos como ordenadores o teléfonos móviles.

Microsoft Office 2010 - Requisitos del sistema




Al parecer la nueva version de Microsoft Office 2010 tendra los mismos requisitos que la version de Office 2007

Microsoft ha proporcionado los detalles finales para Microsoft Office 2010 de los requisitos del sistema. Si el equipo actual puede utilizar Office 2007, o si acaba de comprar una nueva computadora de escritorio / laptop, podrá ejecutar Office 2010 (CPU y RAM para Office 2010 son los mismos que para Office 2007). Si su computadora puede ejecutar Office 2003, usted tendrá que comprobar los requisitos para asegurarse de que le toca para Office 2010.

Vale la pena señalar que Office 2010 no tiene los requisitos recomendados (Microsoft ha simplificado los requisitos del sistema por no distinguir "mínimo" y "recomendadas" los requisitos y sólo tener un conjunto). Hemos preparado una tabla comparativa para mostrar los requisitos mínimos de Office 2003 y Office 2007 con los requisitos de Office 2010:



Mientras que la CPU y RAM no han cambiado, las necesidades de espacio de disco tienen, y Microsoft dice que esto es debido a nuevas características, la Oficina de aplicación de cinta ancha, diferentes referencias de almacén que incluyen más aplicaciones, y por supuesto generoso redondeo a la gigabyte proximidad de la media . Microsoft también señala que un conjunto de chips gráficos dedicados ayudará a impulsar el desempeño de ciertas funciones (Office 2010, pero funcionará sin uno), si su equipo tiene una GPU de la Oficina llevará a cabo tareas de procesamiento de gráficos (como el dibujo de gráficos en Excel o transiciones en PowerPoint ) en la GPU en lugar de en la CPU, lo que debería acelerar el rendimiento. Oficina 201 también se aprovechará de procesadores multi-core.

En términos de sistemas operativos compatibles para Office 2010, Microsoft dice que cada sistema operativo prioridad sobre la base de estadísticas de uso, así como la ingeniería de costos asociados a garantizar la compatibilidad y la prestación de apoyo al cliente para que el sistema operativo.



Como se puede ver en los gráficos anteriores, Windows XP 64-bit y Windows Server 2003 son a la vez que faltan, que Microsoft reconoció y explicó a finales del año pasado. El gigante del software todavía tiene que detalle los requisitos necesarios para ejecutar Office Web Apps, que se envío con el resto de Office 2010 en junio de 2010.

El HTML5 elegido por YouTube no funciona en Firefox




El portal de videos anunció recientemente su reproductor esxperimental HTML5 que usa el codec H264 para reemplazar al Flash de Adobe: si ustedes creian que la acción era digna de aplausos en favor a un estandar abierto, se equivocan, pues el sistema trabaja perfecto con Google Chrome y Apple Safari, pero no con Mozilla Firefox ya que no soporta H264.

Si señores, la verdad sale al descubierto. Con la decisión de YouTube al migrar de formato de video, los usuarios de Firefox quedarían, por el momento, absolutamente relegados. ¿Se trata sólo de una cuestión técnica? Lamentablemente no. El códec H.264 está patentado, y como toda cosa patentada, sus dueños reclamarán dinero por la utilización, así que no será tan libre como anuncian desde YouTube.

Esto es un puñetazo terrible para la gente de Mozilla, ya que indudablemente estarán perdiendo cuotas de mercado. Si los videos de YouTube sólo podrán verse a través de Chrome o Safari, es obvio que muchos usuarios migrarán de browser sin titubear.
Como dijimos antes, el problema de Mozilla es con las patentes. Mike Shaver, videpresidente de ingeniería de la organización, escribió en su blog:

“Mozilla decidió distinto, en parte porque no hay razones evidentes para que autoricemos el códec H.264 bajo términos que cubrirían a otros usuarios de nuestra tecnología, tales como distribuidores de Linux, o gente en proyectos afiliados como Wikimedia o la Participatory Culture Foundation. Incluso si debíamos pagar los $5.000.000 del coste anual de la autorización H.264 y no preocuparnos sobre el espectro de los impuestos en patentes para la distribución en Internet del contenido codificado, ni cuidar los contenidos y creadores de herramientas, creemos que en definitiva los proyectos no podrán avanzar”

Desde la comunidad open source, claro, dicen que el camino elegido por YouTube es incorrecto, ya que bien podría utlizar el códec Ogg/Theora que ofrece una calidad comparable al H.264 sin ningún costo. Incluso ya se armó una lista de petición para pedir a la gente de YouTube que utilice ese códec abierto.

La realidad es que hoy en día Google domina la Web y YouTube domina el espacio de los videos en la Web. Juntos parecen una fuerza dificil de doblegar y fácilmente podrán generar estándares cerrados que los usuarios deberán aceptar sin más para poder seguir aprovechando todo el contenido.

Es cierto que los videos en la Web nunca serán definitivamente abiertos ni gratuitos. Por algo existen tantos estándares, pues está el Real Network, Quicktime, Windows Media Video, DivX, XviD, Flash y vaya a saber cuántos sistemitas más que protegen la granja de quienes piensan hacer dinero con el contenido.

¿Está el mundo preparado para el sucesor del MP3?




Una compañía lider se está preparando para lanzar un nuevo formato-estándar de música digital capaz de embeber contenido adicional para fans como letras, actualizaciones e imágenes, y se postularía para reemplazar al popular MP3.

Como todos saben, la piratería diezmó los ingresos de la industria musical durante la última década, por lo que quienes deseaban vivir de los contenidos digitales debían ingeniarse para ofrecer originalidad frente a los sitios ilegales.

La nueva propuesta, denominada MusicDNA, trae consigo la intención del primer creador del formato MP3, quien pensó en la chance de acarriar, junto al archivo, contenidos extra en la computadora del usuario.

Entonces, sellos discográficos, bandas o distribuidores podrán enviar actualizaciones en los archivos cada vez que deseen comunicar u ofrecer algo, por ejemplo fechas de recitales o tours, entrevistas, etc.

Lo bueno es que el usuario podrá recibir tanta información como prefiera cada vez que esté conectado. Como ventaja para los que pagan, aquellos que descarguen ilegalmente el archivo sólo recibirán un estático que no podrá recibir ninguna actualización.

BACH Technology, el grupo detrás del nuevo MusicDNA, dice que está en la búsqueda de distribuidores, sellos discográficos, compañías tecnológicas y rights holders para darle el empujón inicial al estándar que, aseguran, dominará en pocos años y desplazará al MP3.

La compañía, basada en Noruega, Alemania y China, tiene como partner al Fraunhofer Institute for Digital Media Technology.

“Estamos recibiendo muy buen feedback y la realidad es que queremos incluir a todos en esto y no competir contra ellos, ayuda”, dijo a la agencia Reuter Stefan Kohlmeyer, jefe ejecutivo de la firma.

Los archivos MusicDNA pueden reproducirse en cualquier lector de MP3, incluido el iPod.

“Lo que estamos trayendo de nuevo hacia el usuario final es la entera experiencia emocional de la música”, dijo el empresario teutón. “Creemos que nos quedamos en una era de transición. Pensamos que una hermosa pieza de audio fue reducida a un código y queremos enriquecerlas de nuevo”.

BACH, quien también está aliado con Sony Music, espera que pronto los desarrolladores de software interesados puedan crear nuevas aplicaciones y contenidos para los venideros reproductores MusicDNA.

Una versión beta del proyecto estará disponible para dentro de tres meses.

lunes, 25 de enero de 2010

Ubuntu, clave para la producción de Avatar


http://www.muycomputer.com/files/264-21635-FOTO/Avatar%20y%20Ubuntu.jpg

Una charla de uno de los administradores de sistemas de Weta Digital -la empresa encargada de los efectos especiales- ha revelado algunos detalles sobre los centros de datos que se utilizaron para una producción que usó Ubuntu como sistema operativo.

Uno de los asistentes a las conferencias Linux Conf Australia 2010 (LCA2010) ha contado cómo en una de las charlas intervino Paul Gunn, administrador de sistemas en Weta Digital, responsable de los efectos visuales de la película Avatar.

En el post de Dustin Kirkland -que trabaja en Ubuntu Server- se indica que la infraestructura del centro de datos que tuvo que poner en marcha Weta Digital para esta producción fue impresionante. Ya habíamos hablado de la matriz de almacenamiento con capacidad para hasta 2 Petabytes, pero aún hay más detalles.

Entre otros, que se usó una red de conectividad a 10 Gbps, que había más de 4.000 HP Blades con cerca de 35.000 núcleos de proceso en su interior en el centro de datos y 104 Tbytes de memoria RAM en total, y que aún así se tardaba 48 horas en renderizar algunas de las secuencias gráficas.

Según Paul Gunn, responsable de la charla “Challenges in Data Center Growth“, Ubuntu fue el sistema operativo base de todo este desarrollo, y estaba instalado en todos los nodos de renderizado y en el 90% de los PCs de sobremesa de Weta Digital. De hecho, Gunn indicó que su propia “granja de renderizado” hace uso de Ubuntu Server, y no de RHEL como se publicó en algunos medios.

Eso ha permitido generar una película en la cual cada minuto ha ocupado nada menos que 17,28 Gbytes de datos, y curiosamente para refrigerar toda la instalación se limitaron a establecer la temperatura a 25º C, una cifra mayor que la mayoría de centros de datos, pero que les permitió ahorros energéticos importantes.

Un "hacker" añade la función "multi-touch" a Nexus One


http://fotos.levante-emv.com/fotos/noticias/646x260/2010-01-22_IMG_2010-01-22_16:19:21_nexusone.jpg

Lo que no ha podido hacer Google, lo hacen sus usuarios. La función 'multitouch', tan celebrada en iPhone y patentada por Apple, ha sido añadida a Nexus One por Cyanogen, un reconocido 'hacker' especializado en el sistema operativo Android.

La función 'multitouch' permite a los usuarios de estos 'smartphones' utilizar dos dedos de la mano para girar o hacer zoom sobre un objeto. Nexus One, fabricado por HTC, no incorpora de serie esta función pero el hecho de que sea un sistema operativo de código libre, es decir, que cualquier persona puede hacer modificaciones, da la oportunidad a los usuarios de cambiarlo a su antojo.

En este caso, Cyanogen, ha publicado en un foro los archivos necesarios para instalar las modificaciones encima del actual firmware de Nexus One, lo cual, según él mismo, se trata de "un parche temporal" hasta que Google libere el núcleo de la versión 2.1 de Android, la última versión de su sistema operativo y pueda realizar una modificación más completa.

Cuando Android 2.1 sea liberado no sólo Cyanogen será capaz de hacer una modificación del sistema sino que el proyecto estará abierto a cualquier cambio de los usuarios, ya sea estético o para modificar cualquier parte del funcionamiento del mismo.

Cyanogen publica, periódicamente, sus propias modificaciones del sistema en su página web. Hasta la fecha la última publicada ha sido una modificación de la versión 2.0 del SO aunque el "parche temporal", publicado este jueves, "contiene" la función 'multitouch' en un archivo aparte para que los desarrolladores puedan añadirla a cualquier aplicación.

La UE aprueba la compra de Sun Microsystems por parte de Oracle




La Comisión Europea aprobó este jueves la adquisición de la empresa estadounidense Sun Microsystems por parte de su compatriota Oracle, al estimar que la operación no plantea ningún problema de competencia en el mercado informático europeo.

Bruselas había estado a punto de vetar la compra el año pasado, cuando abrió una investigación por "serias dudas" sobre "problemas de competencia en el mercado de bases de datos".

Concretamente, se temía que el gigante Oracle retirara del mercado un programa informático gratuito de Sun, MySQL, con el fin de no perjudicar sus productos alternativos de pago.

Pero Oracle se comprometió finalmente a seguir desarrollando y suministrando el MySQL, utilizado masivamente por empresas de todo el mundo.

"Oracle ya ha realizado algunos pasos para cumplir sus promesas", se felicitó un portavoz de la Comisión Europea.

"Ahora estoy segura de que la competencia y la innovación serán preservadas en todos los mercados involucrados", estimó por su parte en un comunicado la comisaria europea de Competencia, Neelie Kroes.

"La adquisición de Sun por Oracle tiene el potencial de revitalizar activos importantes y crear productos nuevos e innovadores", subrayó.

Sondeada en un primer momento por IBM, Sun, creadora del popular lenguaje de programación Java, aceptó finalmente en abril de 2008 su compra por parte del gigante Oracle.

La transacción de 7.400 millones de dólares había sido aprobada por los accionistas de Sun el pasado julio y por el departamento estadounidense de Justicia al cabo de un mes, y hasta ahora pendía sólo del acuerdo de las autoridades europeas.

Oracle, IBM y Microsoft controlan un 85% del mercado en términos de ingresos. Sun, en cambio, representa únicamente un pequeño porcentaje debido a que los usuarios descargan y usan su 'software' informático gratuitamente.

Windows 7 arrasa entre los gamers, según Steam


http://img716.imageshack.us/img716/2466/steamwindows7.jpg

Ya es bien sabido que a Microsoft le está yendo bastante bien con Windows 7, tanto a nivel de licencias vendidas como en la penetración en el mercado. Aun así, las cifras que acaba de entregar Steam acerca de la popularidad del nuevo SO de Redmond entre los gamers no dejan de ser sorprendentes.

Estos datos han sido recolectados de entre todos los usuarios que tienen instalada en sus PCs la plataforma Steam para videojuegos. Al hacer esto, se envía información sobre el hardware y software de cada computador hacia los servidores de Steam, permitiéndole a la compañía obtener estadísticas de mercado. Estas mismas estadísticas nos revelan que, en ese universo de usuarios, la penetración de Windows 7 llega al 23%, casi el 4 veces más que la cuota que Net Applications le asigna para el total del mercado al mismo sistema operativo.

Las cifras también nos muestran que la participación de Vista se mantiene más o menos constante (bordeando el 30%), y que en la tasa que Windows 7 ha ganado se la está quitando principalmente a Windows XP, el cual ya es usado por menos del 50% de los usuarios de Steam.

También es interesante ver como en apenas 4 meses Windows 7 ya está alcanzando la participación (entre gamers) que Vista logró en más de 3 años.

El hacker del iPhone consigue acceso total a PS3




George Hotz, el joven hacker que saltó a la fama por desbloquear el iPhone, ha anunciado que ha logrado obtener acceso total al hardware de PS3. Sus avances comenzaron recientemente con la construcción de un complejo interfaz para poder atacar el hardware de la consola desde un PC y, tras varios intentos, parece haber tenido éxito.

Según comenta, puede leer y escribir completamente la memoria del sistema, así como acceder al procesador saltándose el hypervisor, lo que en teoría le da control total sobre la PS3. Se trata pues del avance más importante hasta la fecha, pero también de un primer paso, ya que todo el contenido de la memoria está cifrado (se tiene acceso al hardware, pero no al software).

miércoles, 20 de enero de 2010

Resuelven con supercomputadores un problema sobre la formación de las galaxias


http://plataformasinc.es/var/ezwebin_site/storage/images/en-exclusiva/imagenes-embargadas/resuelven-con-supercomputadores-un-problema-sobre-la-formacion-de-las-galaxias/779826-1-esl-MX/Resuelven-con-supercomputadores-un-problema-sobre-la-formacion-de-las-galaxias_imagenGaleria.jpg

Un equipo internacional de científicos ha resuelto el problema que planteaba la teoría de la materia oscura fría sobre la formación de las galaxias, según publican esta semana en la revista Nature. Hasta ahora no se sabía porque la mayor parte de las galaxias no tenían tantas estrellas y materia oscura como plantea la teoría, pero simulaciones realizadas con supercomputadores revelan que se podría deber a la expulsión de materia tras las explosiones de las estrellas.

Durante más de dos décadas, los cosmólogos han usado la teoría de la materia oscura fría para explicar cómo evolucionó el universo uniforme nacido del Big Bang hace más de 13.000 millones de años hasta convertirse en la filamentosa telaraña cósmica llena de galaxias que podemos ver en la actualidad.

Sólo había un problema: la teoría sugería que la mayor parte de las galaxias deberían tener muchas más estrellas y materia oscura en sus centros de lo que presentan realmente. El problema es más pronunciado para las galaxias enanas, las más comunes en nuestro entorno celestial. Cada una contiene menos de un 1 por ciento de las estrellas que se encuentran en las galaxias grandes, como la Vía Láctea.

Ahora, un equipo de investigación internacional, dirigido por astrónomos de la Universidad de Washington (EE UU), publica en el número del 14 de enero de la revista Nature que ha resuelto el problema usando millones de horas en superordenadores. Los científicos han realizado simulaciones de formación de galaxias (1 millón de horas equivalen a más de 100 años), que generaron galaxias enanas muy similares a las observadas actualmente por los satélites y los grandes telescopios del mundo.

"La mayor parte del trabajo anterior incluía únicamente una descripción sencilla sobre cómo y dónde se formaron las estrellas dentro de las galaxias, o no tuvieron en cuenta la formación de estrellas en absoluto", afirma Fabio Governato, profesor asociado de investigación de la Universidad de Washington que imparte la asignatura de Astronomía y que ha dirigido la publicación en Nature.

"En lugar de ello, hemos realizado nuevas simulaciones por ordenador, ejecutadas sobre varias instalaciones nacionales de superordenadores y hemos incluido una mejor descripción de dónde y cómo tiene lugar la formación de estrellas en las galaxias".

Las simulaciones han indicado que, según fueron explotando la mayoría de las nuevas estrellas masivas como supernovas, las explosiones generaron enormes vientos que despidieron ingentes cantidades de gases lejos del centro de lo que serían galaxias enanas, impidiendo así la formación de millones de nuevas estrellas.

Al quitarse de repente tanta masa del centro de la galaxia, disminuyó la atracción gravitatoria sobre la materia oscura y ésta se alejó, afirma Governato. Es similar a lo que sucedería si de repente desapareciera nuestro Sol y la pérdida de atracción gravitatoria permitiera que la Tierra se alejara hacia el espacio.

Las explosiones cósmicas demostraron ser la pieza que faltaba en el puzzle y, al añadirlas a las simulaciones, generaron una formación de galaxias con densidades sustancialmente inferiores en sus núcleos, lo que se corresponde con las propiedades observadas de las galaxias enanas.

"La teoría de la materia oscura fría funciona sorprendentemente bien para predecir dónde, cuándo y cómo se deberían formar muchas galaxias", continúa Governato. "Lo que hemos hecho ha sido encontrar una mejor descripción de procesos que sabemos que suceden en el universo real, consiguiendo simulaciones más precisas".

La teoría de la materia oscura fría, propuesta por primera vez a mediados de los años 80, sostiene que la inmensa mayoría de la materia del universo (hasta el 75%) está formada por materia "oscura" que no interactúa con los electrones y protones, por lo que no puede observarse a partir de la radiación electromagnética. El término "frío" significa que, justo después del Big Bang, estas partículas de materia oscura presentan velocidades muy inferiores a la velocidad de la luz.

Según la teoría de la materia oscura fría, primero se forman estructuras más pequeñas, que posteriormente se combinan entre sí para formar halos más masivos y, finalmente, se forman galaxias a partir de los halos.

Apple y Microsoft planean sustituir a Google en el iPhone por el buscador Bing


http://www.eltiempo.com/enter/actualidad_a/IMAGEN/IMAGEN-6992988-2.jpg

Las conversaciones entre ambas empresas llevan varias semanas, según un reporte del sitio en Internet de la agencia Bloomberg, que cita a dos personas familiarizadas con este asunto.

La información señaló que las negociaciones podrían no concluir pronto y aún podrían fracasar.

Microsoft intenta quitar una parte del mercado a Google, el líder entre los buscadores.

Considerados aliados en el pasado frente al dominio de Microsoft, Google y Apple se han hallado compitiendo en varios frentes, incluido el de los sistemas operativos y el mercado de rápido crecimiento de los teléfonos inteligentes.

Apple está trabajando también en las formas de gestionar los anuncios que aparecen en los dispositivos móviles, una iniciativa que desafiaría el negocio publicitario de Google, según la información de Bloomberg.

Kodak demanda a iPhone y BlackBerry por infringir sus patentes

La empresa experta en fotografía tomó acciones legales contra las compañías por infringir sus licencias de imagen digital en los teléfonos de Apple y RIM.La compañía especializada en fotografía presentó una queja contra Apple y RIM ante la Comisión de Comercio Internacional de Estados Unidos (ITC, por su sigla en inglés) , en la que reclama acciones contra la infracción de sus patentes en cuanto a tecnología referida al modo de previsualizar imágenes.
Kodak presentó también otras dos demandas contra Apple, en el juzgado del distrito del Oeste de Nueva York, por infracción de patentes sobre cámaras digitales y ciertos procesos informáticos.

En la queja contra ambas compañías, Kodak pretende conseguir de la ITC una orden de exclusión para prevenir la importación de los dispositivos que infringen la patente, incluso en ciertos teléfonos móviles y aparatos de comunicaciones inalámbricos de cámaras digitales.
En cuanto a las demandas a Apple, una de ellas se refiere la infracción de dos patentes referidas a métodos de previsualización de imágenes y procesamiento de estas según diferentes resoluciones.

La otra se refiere a la infracción de patentes que describen un un programa informático que puede preguntar por ayuda desde otra aplicación y desarrollar ciertas funciones, un tipo de sistema que se puede encontrar también en otros productos de Apple.
La directora de propiedad intelectual de Kodak, Laura Quatela, aseguró que su compañía ha mantenido conversaciones “durante años” con ambas empresas para resolver el asunto de forma amistosa, pero no ha sido posible alcanzar un acuerdo satisfactorio.

Ante este fracaso, justificó la acción legal como la única vía para asegurar la protección de los intereses de sus accionistas y las licencias de su tecnología.
Quatela manifestó que su compañía todavía está abierta a negociar un “amistoso y justo acuerdo” con Apple y RIM, y destacó que no pretende interrumpir la disponibilidad de ningún producto y sólo exige una compensación justa.

Reveladas antiguas tácticas anticompetencia de Microsoft


http://www.informatica.com.do/7BZ-PortalImageUpload/image/20092151231160.microsoft.jpg

Aunque recientemente Microsoft dio un giro a su política apostando por una mayor apertura e interoperabilidad, lo cierto es que la historia de la compañía tiene muchos momentos oscuros, especialmente durante el mandato de Bill Gates. Ahora, tras hacerse pública la información de uno de sus juicios por tácticas anticompetitivas, han salido a la luz numerosos emails de directivos y del propio presidente, en los que pueden verse los métodos que usaban en los años 90 para frenar a la competencia:

Bill Gates escribió:Recientemente hubo un intercambio de correos con gente en el grupo de Office respecto a Office y HTML. En un correo se sugiere que Office debe funcionar bien con todos los navegadores y que no deberíamos forzar a los usuarios de Office a usar nuestro navegador. Esto es incorrecto y quiero corregirlo. Otra sugerencia en este correo era que no podemos hacer nuestras propias extensiones unilaterales a HTML. Voy a decir que esto estaba mal y también lo corregiré. [...] Reconcilio esto con nuestras declaraciones sobre HTML al decir que necesitamos tener tags que sean específicos para Office/Windows/Microsoft. Algunas personas podrían estar en desacuerdo de que pongamos algo propietario en el navegador. Si es así, tendremos que dejar de ver a HTML como algo central en nuestra estrategia y buscar otra. [...]

Algo que me he estado preguntando es sobre si deberíamos intentar hacer extensiones al ACPI que sean específicas para Windows. Es desafortunado hacer este trabajo (definir el ACPI), conseguir que nuestros partners hagan el trabajo y al final resulta que Linux funciona genial sin tener que hacer este trabajo. Quizás no hay forma de evitar este problema, pero me molesta. Quizás podríamos definir la API de tal forma que funcione bien con NT y no con otros, aunque sean abiertos. O quizás podríamos patentar algo relacionado con esto.

Pueden leer más ejemplos traducidos o en el original en inglés. En cualquier caso confiamos en que la compañía haya aprendido de sus errores del pasado y todas estas tácticas solo sean historia.

Determinan el comportamiento de una molécula de hidrógeno con sólo dos qubits

Un equipo de físicos especializados en física cuántica (rama de la física que explica el comportamiento de la materia a escala atómica) ha dado el primer paso hacia la utilización de un ordenador cuántico para predecir cómo se produciría una reacción química.

Según publica la revista Newscientist, incluso a los ordenadores clásicos más potentes les cuesta calcular cómo las moléculas interactúan en una reacción química, debido a que la complejidad de estos diminutos sistemas se duplica a medida que cada nuevo átomo se incorpora y entrelaza con el resto de los átomos presentes en la molécula.

Para un ordenador cuántico, sin embargo, resulta más sencillo enfrentarse a la complejidad creciente de los sistemas moleculares, porque ellos mismos tienen propiedades similares a las de la molécula: cada vez que se les incorpora un quantum bit o qubit, estos ordenadores doblan su capacidad computacional.

Sistema de dos qubits

Un qubit es el nombre con el que se define la unidad mínima y constitutiva de la información cuántica. Los dos estados básicos de un qubit se corresponden con el 0 y el 1 del bit clásico (unidad de información de los ordenadores tradicionales).

Pero, además, el qubit puede encontrarse en un estado de superposición cuántica (también denominado estado qubital puro), en el que se superponen los dos estados del bit (el 0 y el 1), lo que en teoría permitirá desarrollar una potencia de tratamiento y procesamiento de información sin precedentes.

En 2005, un científico de la Universidad de Harvard llamado Alán Aspuru-Guzik desarrolló un algoritmo destinado a realizar cálculos sobre procesos químicos, en un ordenador cuántico.

Ahora, lo que han hecho el propio Aspuru-Guzik, otro científico llamado Andrew White, de la Universidad australiana de Queensland, y sus colaboradores, ha sido aplicar este algoritmo a un sistema de computación cuántica formado por dos qubits.

Este algoritmo es una variable de otros algoritmos existentes, como el de Shor, y que han sido utilizados con éxito para decodificar esquemas de encriptación.

Gracias a él, los científicos consiguieron modelar los estados energéticos de una molécula de hidrógeno con resultados muy exactos, publica la revista Arstechnica.

Este sistema, aunque aún no puede extenderse, potencialmente ayudará a mapear el dinamismo de moléculas más complejas, con un gasto menor de tiempo y energía que el que el de los ordenadores clásicos.

Resultados exactos

El seguimiento de la molécula de hidrógeno fue posible gracias a la incorporación de los qubits al algoritmo, uno de ellos precodificado con información digital relativa al sistema químico estudiado.

El valor emitido por los qubits –un 0 o 1- fue lo que proporcionó información sobre el sistema químico analizado. El proceso, de un total de 20 pasos, fue repetido 30 veces para comprobar sus resultados y evitar errores.

Gracias a este sistema, los científicos definieron, en concreto, los niveles de energía de una molécula de hidrógeno, lo que requiere calcular la distancia entre dos átomos y el efecto de diferentes grados de excitación de éstos.

Los resultados fueron sorprendentes, según los científicos: los niveles de energía calculados coincidieron de forma extremadamente precisa con los modelos de predicciones.

Por esta razón, Aspuru-Guzik señala que, aunque se cree que la criptografía será la primera aplicación de la computación cuántica cuando ésta se desarrolle, en realidad el área más prometedora para su aplicación es la de la química, al menos a corto plazo.

Utilidad para la química

Los investigadores señalan que, por ejemplo, como herramienta de estudio de los procesos químicos serviría un sistema computacional que contuviese tan sólo 128 qubits. En cambio, para la criptografía, los algoritmos cuánticos requerirían muchos miles de qubits para ser útiles.

De cualquier forma, el paso de los investigadores australianos se viene a sumar a los avances que en los últimos tiempos se han ido dando en este nuevo concepto de información, basado en la naturaleza cuántica de las partículas elementales.

Los expertos creen que la computación cuántica abrirá en el futuro increíbles posibilidades al procesamiento de datos, y que llegará a revolucionar el mundo de la información.

martes, 12 de enero de 2010

Desmantelan en Colombia banda de "hackers" bancarios liderada por venezolano




Una banda de piratas informáticos que defraudaba cuentas bancarias en Colombia, Argentina y España fue desmantelada este jueves por la Policía Metropolitana de Bogotá, que detuvo a seis de sus integrantes, entre ellos a su líder, el venezolano Omar Ignacio Roso.

Los piratas informáticos fueron detenidos en un allanamiento a una residencia de Bogotá donde fueron descubiertos mientras estaban conectados a la base de datos del Banco de Santander de Colombia y a una casa de cambios, informó la policía en un comunicado.

Los computadores ejecutaban programas con los cuales se conectaban a varios servidores de España, Argentina y Colombia.

Entre los detenidos figura un empleado del Citibank de Colombia, quien se desempeñaba como analista de bolsa y tenía acceso ilimitado a productos de clientes de alta capacidad económica, según la policía.

Los "hackers" afrontarán cargos por el delito de acceso abusivo a sistemas de información. Se estima que la banda logró defraudar más de dos millones de dólares en seis meses.

Un empapelado lumínico acabará con las bombillas en 2012




Una novedosa tecnología permitirá a partir de 2012 que el interior de nuestros hogares sea empapelado con un papel especial que emitirá luz propia, informa la compañía británica Carbon Trust.

Este sistema, que podría suponer la desaparición de las bombillas tradicionales, consistirá en la introducción de diodos orgánicos de emisión de luz, u organic light-emitting diodes (OLED), en el clásico papel del empapelado de las casas.

Un OLED es un diodo compuesto por una capa electroluminiscente, a su vez formada por una película de componentes orgánicos que reaccionan a una determinada estimulación eléctrica, generando y emitiendo luz por sí mismos.

La ventaja principal de la tecnología OLED aplicada a las paredes radicaría, según sus creadores, en que supondrá una importante reducción de las emisiones de C02 contaminantes derivadas del consumo eléctrico de las bombillas utilizadas actualmente en los hogares.

La empresa que está desarrollando los OLEDs lumínicos ultra eficientes es la británica LOMOX www.lomox.co.uk/. Para este desarrollo, LOMOX ha recibido una ayuda de Carbon Trust de más de 500.000 euros.

Superación de obstáculos

Hasta ahora, se sabía que los materiales OLED presentaban una amplia gama de potenciales aplicaciones y que éstos, introducidos en una película, podrían ser usados, por ejemplo, para cubrir paredes, dando a éstas la posibilidad de brillar “solas”.

Sin embargo, un problema clásico de la tecnología OLED ha sido la vida operativa de los diodos. Pero LOMOX asegura haber encontrado la forma de que éstos tengan una vida activa más larga, incluso, que la de las lámparas compactas fluorescentes o CFL.

Las CFL, también conocidas como lámparas de bajo consumo, tienen actualmente una vida útil más larga y consumen menos energía que las lámparas incandescentes. Ayudan por tanto a ahorrar energía y dinero, a pesar de su coste inicial. La tecnología OLED superará a este tipo de lámparas en vida operativa.

Asimismo, LOMOX afirma que la tecnología OLED que están desarrollando será también más eficiente (de 150 lúmenes por watio) y que producirá una luz de aspecto más natural que el que proporcionan otras fuentes de luz artificial.

Iniciativa del Gobierno británico

El proyecto de desarrollo de los diodos para la fabricación de “papel luminoso” tiene su origen en la iniciativa Carbon Trust, del gobierno del Reino Unido.

Este país es el primero del mundo que ha fijado presupuestos legalmente obligatorios para luchar contra la producción de emisiones contaminantes, y pretende reducir éstas en un 80% para 2050.

Para alcanzar este objetivo, el Reino Unido ha lanzado diversas acciones. Carbon Trust es una de ellas. Se trata de una empresa independiente fundada en 2001 que promueve la reducción de emisiones de dióxido de carbono, mediante el apoyo a compañías y al sector público, para que éstos reduzcan sus emisiones y ahorren energía.

Asimismo, Carbon Trust contribuye a la comercialización y al desarrollo de tecnologías punteras cuya aplicación favorezca la reducción de dichas emisiones.

Un total de 164 proyectos de este tipo han sido ya respaldados económicamente para este fin, de los que aproximadamente el 65% ya han sido completados o se encuentran en proceso de generación de nuevas patentes, de apertura al mercado o de recibir más inversiones para su completo desarrollo.

Se espera que este esfuerzo de comercialización de nuevas tecnologías ecológicas suponga el ahorro de más de 23 millones de toneladas de carbón al año para 2050.

Otras aplicaciones posibles

En la actualidad, existen muchas tecnologías OLED diferentes, tantas como la gran diversidad de estructuras y materiales que se han podido idear e implementar para contener y mantener la capa electroluminiscente.

Las pantallas OLEDs suponen diversas ventajas: son más delgadas y flexibles, presentan más contrastes y brillos, mayor ángulo de visión, menor consumo e incluso flexibilidad.

Si se supera el obstáculo del tiempo de vida o de la degradación de los materiales OLED, esta tecnología podrá ser utilizada en múltiples aplicaciones (además de para empapelar las casas con papel luminoso), como en pantallas de televisión, pantallas de ordenador, pantallas de dispositivos, etc.

Asimismo, con ella podrán crearse carteles de publicidad, fuentes de luz para espacios públicos e incluso pantallas plegables o enrollables.

Científicos de USA logran mezclar agua y aceite




Científicos estadounidenses han conseguido hacer realidad el viejo sueño de la física de los líquidos: combinar el agua con el aceite mediante el uso de un catalizador. Al mismo tiempo, los científicos de la Universidad de Oklahoma lograron acelerar las reacciones en esa mezcla, lo que ayudaría a optimizar las técnicas de refinamiento de biocombustibles, según indicaron en un informe publicado por la revista 'Science'.

Según explicó el científico argentino Daniel Resasco, profesor de Ingeniería de Materiales Químicos y Biológicos de la Universidad de Oklahoma, la mezcla había sido imposible hasta ahora.

"A diferencia de los combustibles comunes que sólo contienen componentes hidrofóbicos, los biocombustibles contienen compuestos oxigenados como los aldehídos, alcoholes y ácidos que son muy solubles en agua", señaló Resasco, uno de los autores de la investigación.

"La novedad es que estas nanopartículas que hemos desarrollado son capaces no sólo de estabilizar emulsiones agua-aceite y localizarse en la interfase (el punto de contacto entre los dos materiales), sino también de catalizar reacciones", agregó.

Según el científico, debido a que tienen dos "caras", una hidrofílica y otra hidrofóbica, los llamados "nanohídridos" que han desarrollado pueden catalizar reacciones en el agua y otras en el aceite. "De esa manera, se eliminan muchos pasos en el proceso de mejoramiento de los biocombustibles", indicó.

Un grupo especial de nanopartículas

El equipo dirigido por el ingeniero Steven Crossley, de la Universidad de Oklahoma, preparó un grupo especial de nanopartículas mezclando nanotubos hidrofóbicos con óxido de sílice, que es hidrofílico.

Esta combinación logró que las nanopartículas se unieran en la interfase, entre el aceite y el agua. Al utilizar paladio como catalizador metálico en las nanopartículas, los científicos pudieron medir la reacción del catalizador.

Según el informe de 'Science', los científicos descubrieron que las nanopartículas con paladio reaccionaban en tres niveles diferentes que se utilizan en la refinamiento de la biomasa.

"Este método mejora los sistemas catalíticos conocidos porque estas nanopartículas catalizan las reacciones de manera completa. Además, son fácilmente recuperables al fin de cada reacción", indicaron en el informe.

Según Resasco, el proceso permite la conversión simultánea de todos los productos oxigenados de una manera más económica y efectiva. Además, "el uso de estos catalizadores amfifílicos (hidrofóbicos e hidrofílicos) puede extenderse a muchas otras áreas, como la química fina y la industria farmacéutica", añadió.

CES 2010: Alienware presenta el M11X, un netbook para juegos




Si bien un portátil nunca fue pensado para ejecutar juegos al máximo de detalle, poco a poco parece que va habiendo una demanda de usuarios que quieren disfrutar de juegos de PC en cualquier sitio.

En el CES 2010 la compañía Alienware presentó un pequeño monstruo llamado Alienware M11x, el cual, según se pudo ver, es capaz de ejecutar perfectamente juegos como Modern Warfare 2 a altas resoluciones y con los detalles al máximo. Este netbook viene equipado con una pantalla de 11 pulgadas y una batería que dura 2 horas si estamos jugando (de 6 a 12 horas si lo usamos para otros menesteres), a lo que hay que sumar un Dual Core a 2,4GHz, 2GB de memoria RAM y una tarjeta gráfica equivalente a una 8800GS. Alienware ha confirmado que lanzará este netbook en un par de meses y con un precio que rondará los 1000 dólares.

TOP 10 de películas piratas

El diario Chicago Tribune ha publicado la lista "top 10" de las películas más populares para descargas ilegales en las redes BitTorrent.

1. Star Trek : 11 millones de descargas

2. Transformers 2 : 10,6 millones de descargas

3. Rock'n'Rolla : 9,4 millones de descargas

4. The Hangover : 9,2 millones de descargas

5. Twilight : 8,7 millones de descargas

6. District 9 : 8,3 millones de descargas

7. Harry Potter y el Príncipe Mestizo : 8 millones de descargas

8. State of Play : 7,4 millones de descargas

9. X-Men Wolverine : 7,2 millones de descargas

10. Knowing : 7 millones de descargas

miércoles, 6 de enero de 2010

Google Nexus one ha llegado


http://nexobit.com/wp-content/uploads/2010/01/Google_Nexus_One.jpg


Tamaño: 119mm x 59.8mm x 11.5mm

Peso: 130 gramos con bateria - 100 gramo sin bateria

Display: 3.7 pulgadas widescreen WVGA AMOLED touchscreen

Resolución: 800 x 480 pixels, ratio de contraste 100,000:1 - 1ms ratio de respuesta

Cámara: 5 megapixels, Flash led, Autofocus desde 6cms hasta el horizonte, 2X zoom digital, AGPS.

Video: 720x480 a 20 frames por segundo, dependiendo de las condiciones de luz.

Procesador: Qualcomm QSD 8250 1 GHz, Sistema operativo Android Mobile Technology Platform 2.1 (Eclair), AGPS (GPS Asistido) y acelerometro

Capacidad: 512MB Flash - 512MB RAM - 4GB Micro SD Card (Expansible a 32 GB)

Bandas y conectividad:
UMTS Band 1/4/8 (2100/AWS/900)
HSDPA 7.2Mbps
HSUPA 2Mbps
GSM/EDGE (850, 900, 1800, 1900 MHz)
Wi-Fi (802.11b/g/n)
Bluetooth 2.1 + EDR
A2DP stereo Bluetooth

Bateria: 1400 mAH, carga a 480mA desde un puerto USB o a 980mA desde el adaptador de corriente (no especifica los tiempos de carga obviamente con el adaptador es mas rapido)

Horas de tiempo al aire aproximadas: 10 horas en 2G - 7 horas en 3G

En espera: 290 horas en 2G - 250 horas en 3G

Uso de internet: 5 horas en 3G - 6.5 horas con Wi-Fi

Uso de Video: 7 horas

Uso de audio: 20 horas

No tiene soporte multitouch, como ven también tiene AGPS, es decir q no es un GPS independiente.

Según los primeros reviews, no lo favorecen al punto de ser llamado la maravilla, ya q no soporta multitoque, es decir q no detecta si se toca en dos puntos al mismo tiempo, igualmente la capacidad de almacenamiento es menor q la del Iphone y q no hubo muchas mejores en Android, lo q si se descarta es la cámara, la gran mejora en comandos de voz (Google Voice) y el wifi n q tiene.

En cuanto al precio en la presentación de Google se revelo q costará $530 dólares o $180 dólares con T-Mobile en contrato por 2 años.

Un fugitivo británico se burla de la policía a través de Facebook




Su nombre es Craig ‘Lazie’ (”perezoso” en inglés) Lynch, tiene 28 años y contabiliza más de 42.000 fans en la red social Facebook. Sus méritos sin embargo son cuestionables. Lynch, quien se encontraba en régimen carcelario abierto, decidió a pesar de todo darse a la fuga en septiembre de la prisión Hollesley Bay en Suffolk, Inglaterra. Cumplía condena de siete años por robo con violencia. Desde entonces, trae de cabeza a la policía británica por los mensajes de burla que les deja en Facebook.

Su firma es una fotografía en la que muestra el dedo corazón a los agentes de la ley. Al parecer, se conecta a Internet través de proxys anónimos, lo que impide su localización. Su última hazaña ha sido colgar una imagen de sí mismo en Navidad con un pollo para demostrar que sigue en libertad. Sin embargo, el propio Lynch es consciente “su fin está cerca”.

En su día, los responsables de Facebook cerraron el grupo creado por Lynch, pero el fugitivo ni corto ni perezoso ha abierto otro que sigue vigente en la actualidad. En el “Muro“, el sitio donde otros usuarios aprovechan para dejar sus comentarios, no dejan de llegarle mensajes de ánimo y de admiración. En el perfil de la cuenta asegura que dedica su descriptivo gesto a todos los que se meten con sus seguidores y que le calumnian al decir que ha robado y golpeado a una anciana. Una acción que Lynch desmiente haber cometido.

No obstante, el nuevo héroe de la Red para al menos un importante número de personas, no parece tenerlas todas consigo. No sin cierta carga de lucidez, el británico comenta que su situación está próxima a terminar. En concreto, ha incluido la siguiente frase en el apartado “Información Personal“: “Reís conmigo, pero acabará en lágrimas. Siempre lo hace“. Otros comentarios revisten una mayor carga optimista y ayuda a sus admiradores a hacerse un mapa con sus andanzas. Por ejemplo, hace nada afirmaba que pensaba en la “afortunada chica” con la que comenzaría 2010. También se da el lujo de describir en qué consisten sus comidas, a veces bastante envidiables: “Mmm… Acabo de comer un filete de venado de 12 libras (5,5 kilos y medio) con verduras y patatas fritas”. Ahí es nada. Incluso se atreve con mensajes arriesgados, como uno en el que decía que se encontraba de paseo en un centro comercial con un Winnie The Pooh gigante. En resumen, hace alarde de su vida lejos del alcance de las fuerzas del orden. No faltan los miembros de Facebook que le reprochan su historial delictivo y que señalan a otros internautas que no es correcto animar a un individuo así. La policía no sólo ha solicitado ayuda a los responsables del portal, sino a los propios usuarios. Les pide que proporcionen cualquier pista que contribuya a su captura.

Al final, con tantos sucesos pintorescos a su alrededor, como las mujeres chinas que descubrieron que compartían marido, o los intentos de timos en Facebook, a las redes sociales se las puede acusar de cualquier cosa menos de aburridas. Habrá que esperar para saber cómo concluirán las peripecias de Lynch y si al final regresa para completar su condena. A la que habrá que sumar la pena por fuga. No sabemos si las burlas a través de Internet contarán como agravante.

Grupo en el Facebook

Bluetooth 4.0 se centra en disminuir el consumo


http://www.neomanox.com/blog/images/LogoBluetooth.gif
Si el Bluetooth 3.0 combinaba este protocolo con Wi-Fi para conseguir mejoras en la velocidad de transmisión, su siguiente revisión Bluetooth 4.0 quiere que se reduzca el consumo de energía cuando lo usamos para comunicarnos con algunos dispositivos.

Para ello incorporará un modo de baja energía junto a los demás, de modo que pequeños dispositivos como relojes, ratones u otros periféricos que no requieren de una gran transferencia puedan funcionar con pilas de tipo botón sin problemas.

Es lo mismo que propuso Texas Instrument hace un par de meses con su propio chipset, pero que ahora que ha sido aprobado por el SIG, el organismo que se encarga de certificar los dispositivos con Bluetooth, seguro que podemos empezar a encontrar pronto en diversos fabricantes.

Intel lanza los nuevos Core i5/i3 de 32nm con GPU integrada

Tal como estaba programado, Intel ha introducido sus primeros procesadores fabricados a 32nm, los Core i5 y Core i3 series, que forman parte de su arquitectura de transición “Westmere” en su estrategia “tick tock”. Estos procesadores se basan en el núcleo “Clarkdale” para equipos de escritorio y “Arrandale” para equipos portátiles, son procesadores de doble núcleo y que incorporan además una unidad gráfica en el mismo procesador, así mientras la CPU está fabricada a 32nm el núcleo gráfico lo está en 45nm. Luego del corte las especificaciones.

Estos procesadores, al menos los Core i5/i3 basados en Clarkdale, son de socket LGA-1156, al igual que los procesadores Lynnfield, pero un funcionamiento ad-hoc es con placas que incorporen el chipset Intel H57 y H55 (que es otro de los productos que lanza Intel junto a estos procesadores) pues requieren que el chipset soporte la tecnología “Intel Flexible Display” asociada al GPU integrado. El controlador de memoria integrado soporta DDR3, poseen un TDP
bajo los 90W según modelo, 4 o 3MB de cache L3 entre otras características.

A continuación el listado de procesadores tanto para escritorio como para equipos portátiles y luego algunos reviews de rendimiento.

http://img264.imageshack.us/img264/3703/intell.jpg

Google patenta método para crear juegos en YouTube

Google pudo haberse tomado vacaciones por las fiestas, pero sabemos que siempre tiene un As bajo la manga. Es por eso que no nos sorprendió cuando salió a la luz una patente registrada hace casi un año, para un sistema que permite crear juegos en YouTube. Todavía no está bien claro cómo piensan usarlo, pero el concepto básico del sistema se basa en las anotaciones que también funcionan como links a otros momentos del mismo vídeo o a otro completamente diferente.

Si creías que YouTube no tenía nada nuevo para ofrecer, una última patente registrada a principios del año pasado, puede hacerte cambiar de opinión. Por alguna razón, Google siente la necesidad de hacer que YouTube también ofrezca juegos. Pero no juegos tradicionales como uno pensaría, sino diseñados por ellos mismos dentro de algunos vídeos. A este sistema lo han denominado: “Web-Based System for Generation of Interactive Games Based on Digital Videos”. Fácil, ¿no?

Una de las porciones más reveladoras de la patente explica: “Un vídeo puede estar asociado con una o más anotaciones, lo que modificaría su apariencia y/o su comportamiento a como fue originalmente subido. Algunas anotaciones, (como una gráfica compuesta por un link a una secuencia particular del vídeo) están asociadas con un tiempo exacto del vídeo, que puede ser del mismo vídeo a la que está asociada la anotación o uno completamente diferente. Al seleccionar una anotación, produce que el vídeo comience a reproducirse en un momento particular. Estas anotaciones pueden usarse para construir juegos interactivos utilizando vídeos.”

Entonces, básicamente lo que quieren hacer, es que de vez en cuando en un vídeo pueden aparecer varias anotaciones de manera simultánea y al presionar en las diferentes opciones, podrían ocurrir distintos resultados. Ahora bien, va a necesitar de un diseñador bastante brillante para que de esa idea surja un juego entretenido que este a la altura de YouTube. Porque cuando uno de los sitios más importantes del mundo promete algo nuevo y posiblemente innovador, por lo general la expectativa es muy grande.

Como Google no ha anunciado absolutamente nada sobre esto, esta difícil imaginar qué tipo de juegos piensan hacer con la enorme base de datos de vídeos. Y lo que es aún más importante, siguiendo con la idea de la importancia de la comunidad en YouTube, ¿se podrán crear juegos propios eventualmente? Tú, ¿qué opinas? Ahora que sabes de qué se trata la misteriosa licencia de Google para crear juegos en YouTube, ¿cómo piensas que funcionará el sistema?

lunes, 4 de enero de 2010

Simulación en video del universo observable

El video “El universo conocido” fue producido por Michael Hoffman y dirigido por Carter Emmart para la exposición “Cosmos: From the Milky Ocean to an Evolving Universe” del Museo de Arte Rubin (Nueva York).

Utiliza datos recogidos por investigadores en el Planetario Hayden a lo largo de varios años y refleja una visión real (o al menos aproximada) de nuestro universo.

El planetario Hayden en el Museo Americano de Historia Natural mantiene el “Atlas Digital Universe” (Atlas Digital del Universo), el mapa del universo más completo en cuatro dimensiones.

Inició hace una década y se actualiza continuamente, Los datos incluyen la ubicación exacta de cada objeto del universo observable que se extiende por 93 mil millones de años luz, desde los cuásares a los pulsares, de los agujeros negros a la nebulosa.

Mozilla desarrolló versión para móviles


Fennec es el nombre de la nueva versión para móviles que la fundación Mozilla desarrolló y que se usa a través del navegador Firefox.

El nuevo navegador será presentado dentro de unos días y, en principio, solo estará disponible para el Nokia N900, aunque posteriormente podrá ser utilizado con otros terminales. Fennec está sincronizado con Firefox, por lo que cualquier página que se abra desde el PC se abrirá automáticamente en el móvil.

Fennec podrá ser descargado desde la web de Mozilla y desde Ovi, la tienda de Nokia. Asimismo, se está desarrollando una versión para Windows Mobile, el sistema operativo para móviles de Microsoft. De momento no habrá versión para iPhone, debido a las restricciones de Apple, que solo permite la utilización navegadores que utilicen WebKit, la base de su navegador Safari.

Más información en:
www.efeeme.com

Registro de números excluidos

De acuerdo con la Resolución CRC 2229 de 2009, a partir del 1 de Enero de 2010 los usuarios podrán inscribir su número de abonado móvil en el Registro de Números Excluidos (RNE) ante la CRC y de forma gratuita, a través de la página del SIUST www.siust.gov.co en la opción "Registro de Numeros Excluídos", con el propósito de evitar la recepción de mensajes cortos de texto (SMS) y/o mensajes multimedia (MMS) con fines comerciales y/o publicitarios.

Este registro es una alternativa adicional a los mecanismos que los operadores deben poner a disposición de los usuarios con el objeto de evitar la recepción de mensajes cortos de texto (SMS) y/o mensajes multimedia (MMS) con fines comerciales y/o publicitarios. Así mismo los usuarios podrán solicitar la exclusión de su número del RNE de forma gratuita.

El fundador de Facebook, víctima de la falta de protección de datos

Mark Zuckerberg, el fundador de Facebook, ha probado su propia medicina. Después de los polémicos cambios en la protección de datos de los usuarios, un incidente en la propia cuenta de Zuckerberg ha causado revuelo en la Red. Y es que hace tan sólo unos días, 290 fotos personales del fundador de Facebook se pusieron misteriosamente a disposición de los 350 millones de usuarios dados de alta en la famosa red social. Cabe recordar que las nuevas medidas de protección empujaban al usuario a mostrar sus archivos personales a toda la comunidad. Algo por lo que Facebook ha sido duramente criticado.

De hecho, las fotos no podían ser más comprometedoras. En ellas Mark Zuckerberg lucía un pijama en la intimidad y se arrimaba a un tierno osito de peluche, cosa que hace dudar de que hubiera verdadera intención de mostrar esas fotos. Sobre todo teniendo en cuenta que Zuckerberg siempre se ha mostrado receloso a dar rienda suelta a las visualizaciones en su perfil. Pero claro, el fundador de Facebook no podía plegarse ante un descuido. Así que no se le ocurrió otra cosa que dejar un mensaje en su propio perfil diciendo que “no ve porque tendría que limitar la visibilidad de las fotos de sus amigos, su pijama o su osito“.


Curiosamente, horas después de haber detectado la fuga de fotos y de comprobar como distintas páginas web las publicaban sin reparo, Mark Zuckerberg cerró el grifo de su privacidad, de manera que a día de hoy las fotos más íntimas de este señor ya no están a disposición de los 350 millones de personas que habitan Facebook. Aunque la negación de la evidencia ha sido contundente, la duda sigue planeando sobre el despiste del primer experto en Facebook del planeta. O eso parece.

El HDMI se prepara para la imagen 3D


El consorcio del estándar HDMI ha preparado la especificación 1.4 de dicha conexión para añadir soporte para la imagen 3D.

Esta conexión de vídeo es usada en ordenadores, y en las consolas Xbox 360 (no en los primeros modelos) y PlayStation 3, para extraer imagen digital de alta definición. También tiene la posibilidad de ofrecer sonido.

La reunión en la que está previsto aprobar este nuevo estándar de imagen tendrá lugar a finales de enero, y se establecerá, así, cuál será el protocolo de imagen oficial para los dispositivos que quieran integrar imagen 3D estereoscópica.

Este movimiento responde al crecimiento del mercado de pantallas con soporte para imagen 3D, y los anuncios de emisiones basadas en esta tecnología para ya el año 2010, aprovechando el Mundial de Fútbol.

Se espera que en el CES, la feria de tecnología estadounidense, que tendrá lugar del 7 al 10 de enero en Las Vegas se muestren televisores con esta tecnología.

Paralelamente, la Blu-ray Disc Association también ha finalizado la creación de la espeficación oficial para incluir imagen 3D en este formato óptico. Se espera que AMD y Nvidia también apuesten por esta tecnología con una gran presencia de la misma en el CES.