10.28.2013

Tabula Rasa, un proyecto financiado por la UE para evitar el spoofing

La suplantación de identidad en los sistemas biométricos está a la orden del día, como lo han demostrado desde el consorcio Tabula Rasa, financiado por los fondos de investigación e innovación de la UE y en el que participan doce socios investigadores e industriales de cinco estados miembros (entre los que se encuentra España), Suiza y China.
La suplantación de identidad en los actuales sistemas biométricos utilizados especialmente en tablets y smartphones y basados en el reconocimiento facial, de voz o de huellas dactilares, es cada vez más frecuente. El uso de maquillaje, fotografías o grabaciones de voz para hacerse “pasar por” son los métodos más utilizados en el spoofing, como demostró en la iniciativa Reto de Spoofing que convocó Tabula Rasa y en el que participaron investigadores de todo el mundo para atacar y engañar a diferentes sistemas biométricos.
Frente a esta realidad, como explica Sébastien Marcel, coordinador del proyecto, Tabula Rasa propone un software mejorado que, además de hacer la información y los dispositivos más seguros, permite iniciar sesión de forma más rápida en equipos informáticos, ofreciendo a los controles de aduanas y verificaciones de pasaporte un método más rápido y preciso. “Creemos que muchas y muy diferentes organizaciones estarán interesadas en nuestra investigación, incluyendo compañías tecnológicas, oficinas de correos, bancos, fabricantes de teléfonos móviles o proveedores de servicios online.”, comenta Marcel.
La investigación, que ha durado tres años, cuenta con una inversión de 4,4 millones de euros procedente de la UE, a lo que se suma los 1,6 millones de euros aportados por el consorcio, y ha consistido en la elaboración de una lista de posibles ataques y en la evaluación de la vulnerabilidad de los diferentes sistemas biométricos ante los mismos paradesarrollar medidas que mejoren la identificación, como es el caso de la detección de signos de vida, ya sean parpadeos o la transpiración.

La Universidad Autónoma de Madrid y Starlab.

La participación española en el proyecto se ha llevado a cabo desde la Universidad Autónoma de Madrid y la empresa española de investigación, desarrollo e innovación Starlab. Y, como explica Para Javier Acedo, investigador y project manager de Starlab, “Con este proyecto hemos conseguido que los algoritmos biométricos sean todavía más seguros. Incluso si un hacker tratase de engañar al software mediante la inclusión de una señal artificial, como una grabación o una máscara, los nuevos algoritmos que hemos desarrollado podrían detectar esta situación.”
Starlab, basándose en los resultados de la investigación, ha creado una aplicación real combinando la monitorización de los usuarios con  la autentificación. De este modo, como explica Acebo, utilizando el análisis de señales electrofisiológicas, como la actividad cerebral y del corazón, se puede detectar a la persona, pero también chequear su estado físico y emocional, con la consiguiente aplicación que esto puede tener en aplicaciones de telepresencia.
http://innovacion.ticbeat.com/tabula-rasa-proyecto-europeo-evitar-spoofing/

10.25.2013

Microrobots voladores para limpiar la casa

El invento se llama «Mab», y es el concepto creado por Adrián Pérez que ha resultado ganador del concurso internacional de diseño Electrolux Design Lab. Se trata de un sistema de limpieza autónomo integrado por cientos de minirobots voladores que se encargan de limpiar la superficie de los suelos, paredes u objetos con el contacto de gotas de agua que atrapan las partículas de suciedad.
Además del primer premio, Adrián también se llevó el premio al más votado por el público a través de la página web oficial del certamen con una amplia diferencia con el resto de sus competidores.
«Estoy realmente feliz, me siento muy afortunado de haber ganado un certamen de diseño tan importante», ha dicho Adrián, que también ha reconocido que hasta llegar a conseguir este diseño han tenido que pasar unos meses «bastante duros de trabajo en los que he tenido que pensar diferente para conseguir algo que resaltara pero ha merecido realmente la pena».
El jurado del concurso quiso destacar el alto nivel de los ocho finalistas. Precisamente, uno de los trabajos más valorados por el jurado y por los asistentes al evento celebrado en el Museo Fotografiska de Estocolmo fue el del español Francisco Barboza, «Kitchen Hub». Este aragonés aseguraba que el jurado ha optado por los conceptos más futuristas pero estoy muy satisfecho con el trabajo realizado en la final».
El segundo premio fue para «Atomium», una impresora 3D que reconoce dibujos de los niños y los fabrica con ingredientes moleculares. Y el tercero para «Breathing Wall», una pared con diseño inspirado en las branquias de peces que purifica el aire del hogar, cambia el color de la pared dependiendo del estado de ánimo y puede aportar una fragancia al hogar.

El secreto de la materia oscura a punto de ser desvelado

Investigadores estadounidenses revelarán el 30 de octubre si las posibles señales de materia oscura vistas por otros experimentos son reales


Un equipo de científicos del Centro de Investigación Sandford ,en Lead, Dakota del Sur (Estados Unidos) ha llevado a cabo un experimento que podría resolver los misterios de la materia oscura. Los primeros datos de este trabajo se harán públicos el próximo 30 de octubre, según ha informado la revista 'Nature'.
Para llegar a estos resultados, los investigadores han utilizado el conjunto de tubos fotomultiplicadores en el Gran xenón subterráneo (conocido como LUX), que capturan destellos de luz emitida cuando las partículas de materia oscura colisionan con xenon. Este aparato está formado por 122 tubos detectores de líquidos y, según han explicado los expertos, son mucho más sensibles que el sistema rival más cercano en la búsqueda de materia oscura.
La próxima semana, los responsables de este trabajo revelarán si las posibles señales de materia oscura vistas por otros experimentos son reales, y también informará acerca de cuánto más tiempo y dinero deben de invertirse en la búsqueda de la materia oscura. "El potencial está ahí, y toda la comunidad está esperando con gran expectación para ver lo que se observa" ha indicado uno de los responsables del proyecto, Juan Collar.

El Sol lanza dos impresionantes llamaradas en menos de 48 horas

Esta mañana se registraba la más intensa, de clase X 1.7, y otra algo menos potente ocurría la madrugada del jueves.

El Sol llevaba un tiempo tranquilo, pero ha vuelto a demostrar que no está precisamente dormido. Esta mañana, pasado un minuto de las diez en la Península (8.00 GMT), el Observatorio de Dinámica Solar (SDO), una sonda lanzada por la NASA para estudiar el comportamiento del Astro rey, ha detectado una impresionante llamarada solar de clase X1.7, de las más potentes, proveniente de la mancha llamada AR 1882. Menos de 48 horas antes, en la madrugada del jueves, se registraba otra erupción de clase M9.3, no tan intensa pero también fortísima.
Las llamaradas solares son explosiones de radiación de gran alcance. Aunque sus efectos nocivos no pueden pasar a través de la atmósfera de la Tierra para afectar físicamente a los seres humanos sobre el terreno, cuando son lo suficientemente intensas sí pueden perturbar el ambiente a la altura en la que viajan las señales de GPS y de comunicaciones. Esto puede interrumpir las señales de radio desde minutos a horas.
Las llamaradas solares pueden ser de clase A, B, C, M y X, de menor a mayor intensidad, seguidas de un número que va del 1 al 9, El brote ha sido clasificado por los científicos como de clase X1.7. La letra corresponde a las llamaradas más intensas, mientras que el número incluye información sobre su fuerza. Una llamarada X2 es dos veces más intensa que una X1, mientras que X3 lo es tres veces más, etc. En el pasado, llamaradas de clase X de la intensidad de la de esta mañana han causado la degradación o la pérdida de las comunicaciones de radio durante alrededor de una hora.
El primer evento se produjo ayer jueves y fue ligeramente más suave (M9.3), pero sorprendió a los científicos que estudian el clima espacial tras meses de baja actividad desde que el pasado mayo se registraran grandes llamaradas. Las de clase M pueden causar algunos efectos meteorológicos en el espacio cercano a la Tierra. En el pasado, han causado apagones breves de radio en los polos, según informa la NASA.
Que ahora mismo se produzcan más erupciones no es algo inesperado, ya que el ciclo de 11 años de actividad del Sol está cerca de su máximo. Los científicos han seguido este ciclo solar continuamente desde que fue descubierto en 1843, y es normal que haya muchos estallidos al día durante el pico de actividad solar. La primera llamarada de clase X del actual ciclo solar se produjo en febrero de 2011. La mayor de este ciclo fue de X6.9, y se registró el 9 de agosto de 2011.

Pronósticos

Los científicos están a la espera de conocer si estas llamaradas pueden enviar al espacio una eyección de masa coronal (CME), una nube ardiente de partículas y radiación que puede afectar a las operaciones de los satélites y a las redes eléctricas. Para ver cómo el evento de esta mañana podría impactar en la Tierra, la NASA aconseja consultar el Centro de Predicción del Clima Espacial de la NOAA, fuente oficial del gobierno de los EE.UU. para el espacio de pronósticos de clima espacial.
Podrían sucederse más llamaradas. En la actualidad hay tres grupos de manchas solares en la cara del Sol hacia la Tierra capaz de lanzar erupciones fuertes: AR1875, AR1877 y AR1882. Los meteorólogos de NOAA estiman una probabilidad del 55% de llamaradas de clase M y una probabilidad del 10% de llamaradas de tipo X en las próximas 24 horas.

Sherpa se hace más inteligente en su primer aniversario

Como no muchos sabréis , Sherpa es un app disponible en android parecia a Siri que se usa para controlar el dispositivo móvil con la voz. Esta app es completamente española y acaba de cumplir su primer año.
Cada vez es más aplicado e inteligente y, sobre todo, conocedor de su dueño. Así es como se ha vuelto Sherpa, el asistente personal virtual para dispositivos Android, en su primer año de vida. Precisamente coincidiendo con su aniversario sus creadores lanzan una nueva versión –eso sí, aún en beta– de la aplicación que se caracteriza por integrar un módulo proactivo, que permite al asistente aprender de los gustos, hábitos y necesidades del usuario con el fin de brindar a este último la información antes incluso de que se dé cuenta de que la necesita.

“De momento hemos incluido cuatro tipos de notificaciones en esta nueva versión de Sherpa (Beta 3.0): información sobre deportes (resultados de fútbol, Formula 1, NBA, las ligas de fútbol americano y béisbol en EE UU y las ligas de fútbol de Chile, México, Colombia y Argentina), sobre el tiempo, la actividad de las redes sociales y el propio teléfono –explica el emprendedor vasco Xabier Uribe-Etxebarria, impulsor de la aplicación y fundador de la empresa homónima que se encarga de su desarrollo–. No obstante, nuestra idea es ir incorporando muchas más, de modo que, sin ser intrusivo, el asistente realice propuestas interesantes al usuario, por ejemplo, a qué restaurante puede ir, cómo va la Bolsa, cuál es el estado del tráfico…”.
En este sentido, gracias al nuevo Sherpa, disponible desde hoy en la tienda de aplicaciones de Google, Google Play, el usuario podrá saber quién acaba de meter un gol o cómo ha arrancado la carrera de Fórmula 1 (en función de los equipos que le interesen, pues no hay que olvidar que el asistente es aplicado y aprende de los gustos de su dueño), si ese día va a necesitar paraguas o debe tener especial cuidado con el coche porque va a helar, si debe felicitar a alguien gracias a las notificaciones de las redes sociales y, en concreto, de Facebook, o tiene algún tuit interesante en Twitter o algún mensaje directo o si acaban de llamarle o mandarle un mensaje a su móvil.
La versión Beta 3.0 es la base del Sherpa del futuro”, sentencia Uribe-Etxebarria, que indica, por otra parte, que “hasta que el producto no esté perfecto no dejará de estar en versión beta”, algo que, estima, ocurrirá en 2014. “Lo que queremos es que Sherpa sea un asistente lo más personalizado y útil posible para el usuario. Y que esté totalmente preparado para el lanzamiento de su versión de producto definitiva”.

Pero, ¿qué tiene Sherpa que no tengan Siri o Google Now?

Para Uribe-Etxebarria, las ventajas de Sherpa respecto a la propuesta de Apple, Siri, y a la de Google, Google Now, son “patentes”. Según el responsable, “Siri no es muy proactivo y en castellano funciona relativamente mal. Para el mercado en español Sherpa es mucho mejor producto, además de disponer de un módulo mejor de notificaciones de datos. Frente a Google Now Sherpa está mucho más personalizado y sus notificaciones son mucho más rápidas”.
Además, como dato simpático, en la nueva versión el look del asistente irá cambiando en función de la fecha en la que estemos. Por ejemplo, en Halloween el personaje aparecerá disfrazado de forma característica a ese día.

10.18.2013

Teoría panspermia

La panspermia (del griego παν- pan, todo y σπερμα spermasemilla) es una hipótesis que propone que la vida puede tener su origen en cualquier parte del universo, y no proceder directa o exclusivamente de la Tierra; sino que probablemente proviene y posiblemente se habría formado en la cabeza de los cometas, y éstos, al fragmentarse tarde o temprano, pudieron haber llegado a la Tierra incrustados en meteoros pétreos, en una especie de "siembra cósmica" o panspermia. Estas ideas tienen su origen en algunas de las consideraciones del filósofo griego Anaxágoras.Es así que al referirse a la hipótesis de la Paspermia esta solo hace referencia de la llegada a la Tierra de formas de vida microscópicas desde el espacio exterior; y no hace referencia directa a la llegada a la Tierra desde el espacio de moléculas orgánicas precursoras de la vida, o de explicar como ocurrió el proceso de formación de la posible vida paspérmica proveniente fuera del planeta Tierra.

El término fue defendido por el biólogo alemán Hermann Richter en 1865. Fue en 1908 cuando el químico sueco Svante August Arrhenius usó la palabra panspermia para explicar el comienzo de la vida en la Tierra. El astrónomo Fred Hoyle también apoyó dicha hipótesis. No fue sino en 1903 cuando el químico —y ganador del Premio Nobel— Svante Arrhenius popularizó el concepto de la vida originándose en el espacio exterior.

Pruebas a favor
Existen estudios que sugieren la posible existencia de bacterias capaces de sobrevivir largos períodos de tiempo incluso en el espacio exterior, Otros han hallado bacterias en la atmósfera a altitudes de más de 40 km donde, aunque no se espera que se produzcan mezclas con capas inferiores, pueden haber llegado desde éstas. Bacterias Streptococcus mitis que fueron llevadas a la Luna por accidente en la Surveyor 3 en 1967, pudieron ser revividas sin dificultad cuando llegaron de vuelta a la Tierra tres años después.
El análisis del meteorito ALH84001, generalmente considerado como que fue originado por el planeta Marte, sugiere que contiene estructuras que podrían haber sido causadas por formas de vida microscópica. Esta es hasta la fecha la única indicación de una posible vida extraterrestre, y aún es muy controvertida. Por otro lado, existe el meteorito Murchison, que contiene uracilo y xantina, dos precursores de las moléculas que configuran el ARN y el ADN.

Críticas y pruebas en contra
El mayor inconveniente de esta teoría es que no resuelve el problema inicial de cómo surgió la vida (Abiogénesis), sino que solo mueve la responsabilidad del origen de esta a otro lugar del espacio.
Otra objeción a la panspermia es que las bacterias no sobrevivirían a las altísimas temperaturas y las fuerzas involucradas en un impacto contra la Tierra, aunque no se ha llegado aún a posiciones concluyentes en este punto (ni a favor ni en contra), pues se conocen algunas especies de Bacterias Extremófilas. Sin embargo, experimentos en los que se recrea las condiciones de los cometas cuando bombardearon la Tierra, moléculas orgánicas tales como los aminoácidos no sólo no se destruyen, sino que comienzan a formar péptidos.

10.16.2013

Teoría del origen de la vida


Fue una de las teorías que se propusieron a mediados del siglo XX para entender el origen de la vida tras suprimirse la teoría de la generación espontánea.
Gracias a sus estudios de astronomía, Oparin sabía que en la atmósfera del Sol, de Júpiter y de otros cuerpos celestes, existen gases como el metano, el hidrógeno y el amoníaco. Estos gases son sustratos que ofrecen carbono, hidrógeno y nitrógeno, los cuales, además del oxígeno presente en baja concentración en la atmósfera primitiva y más abundantemente en el agua, fueron los materiales de base para la evolución de la vida.
Para explicar cómo podría haber agua en el ambiente ardiente de la Tierra primitiva, Oparin usó sus conocimientos de geología. Los 30 km de espesor medio de la corteza terrestre constituidos de roca magmática evidencian, sin duda, la intensa actividad volcánica que había en la Tierra. La persistencia de la actividad volcánica durante millones de años habría provocado la saturación en humedad de la atmósfera. En ese caso el agua ya no se mantendría como vapor.
Oparin imaginó que la alta temperatura del planeta, la actuación de los rayos ultravioleta y las descargas eléctricas en la atmósfera (relámpagos) podrían haber provocado reacciones químicas entre los elementos anteriormente citados. Esas reacciones darían origen a aminoácidos, los principales constituyentes de las proteínas, y otras moléculas orgánicas.
Las temperaturas de la Tierra, primitivamente muy elevadas, bajaron hasta permitir la condensación del vapor de agua. En este proceso también fueron arrastradas muchos tipos de moléculas, como varios ácidos orgánicos e inorgánicos. Sin embargo, las temperaturas existentes en esta época eran todavía lo suficientemente elevadas como para que el agua líquida continuase evaporándose y licuándose continuamente.
Oparin concluyó que los aminoácidos que eran depositados por las lluvias no regresaban a la atmósfera con el vapor de agua, sino que permanecían sobre las rocas calientes. Supuso también que las moléculas de aminoácidos, con el estímulo del calor, se podrían combinar mediante enlaces peptídicos. Así surgirían moléculas mayores de sustancias albuminoides. Serían entonces las primeras proteínas en existir.
La insistencia de las lluvias durante millones de años acabó llevando a la creación de los primeros océanos de la Tierra. Y hacia ellos fueron arrastradas, con las lluvias, las proteínas y aminoácidos que permanecían sobre las rocas. Durante un tiempo incalculable, las proteínas se acumularían en océanos primordiales de aguas templadas del planeta. Las moléculas se combinaban y se rompían y nuevamente volvía a combinarse en una nueva disposición. De esa manera, las proteínas se multiplicaban cuantitativa y cualitativamente.
Disueltas en agua, las proteínas formaron coloides. La interacción de los coloides llevó a la aparición de los coacervados. Un coacervado es un agregado de moléculas mantenidas unidas por fuerzas electrostáticas. Esas moléculas son sintetizadas abióticamente. Oparin llamó coacervados a los protobiontes. 
Es posible que en esa época ya existieran proteínas complejas con capacidad catalizadora, como enzimas o fermentos, que facilitan ciertas reacciones químicas, y eso aceleraba bastante el proceso de síntesis de nuevas sustancias.
Cuando ya había moléculas de nucleoproteínas, cuya actividad en la manifestación de caracteres hereditarios es bastante conocida, los coacervados pasaron a envolverlas. Aparecían microscópicas gotas de coacervados envolviendo nucleoproteínas. En aquel momento faltaba sólo que las moléculas de proteínas y de lípidos se organizasen en la periferia de cada gotícula, formando una membrana lipoproteica. Estaban formadas entonces las formas de vida más rudimentarias. Así Oparin abrió un camino donde químicos orgánicos podrían formar sistemas microscópicos y localizados (posiblemente precursores de las células) a partir de los cuales esas primitivas formas de vida podrían desarrollarse.
Y en esta línea ordenada de procesos biológicos, van avanzando con cada vez más importancia: la competencia y la velocidad de crecimiento, sobre los que actuaría la selección natural, determinando formas de organización material que es característica de la vida actual.

Teoría celular


La teoría celular es una parte fundamental y relevante de la Biología que explica la constitución de los seres vivos sobre la base de células, y el papel que éstas tienen en la constitución de la vida y en la descripción de las principales características de los seres vivos.
Principios:
Varios científicos postularon numerosos principios para darle una estructura adecuada:
  • Robert Hooke, observó una muestra de corcho bajo el microscopio, Hooke no vio células tal y como las conocemos actualmente, él observó que el corcho estaba formado por una serie de celdillas de color transparente, ordenadas de manera semejante a las celdas de una colmena; para referirse a cada una de estas celdas, él utiliza la palabra célula.
  • Anton Van Leeuwenhoek, usando microscopios simples, realizó observaciones sentando las bases de la morfología microscópica. Fue el primero en realizar importantes descubrimientos con microscopios fabricados por sí mismo. Desde 1674 hasta su muerte realizó numerosos descubrimientos. Introdujo mejoras en la fabricación de microscopios y fue el precursor de la biología experimental, la biología celular y la microbiología.(Descubrio los microbios en el agua)
  • A finales del siglo XVIII, Xavier Bichat, da la primera definición de tejido (un conjunto de células con forma y función semejantes). Más adelante, en 1819, Meyer le dará el nombre de Histología a un libro de Bichat titulado “Anatomía general aplicada a la Fisiología y a la Medicina”.
  • Dos científicos alemanes, Theodor Schwann, histólogo y fisiólogo, y Jakob Schleiden, botánico, se percataron de cierta comunidad fundamental en la estructura microscópica de animales y plantas, en particular la presencia de centros o núcleos, que el botánico británico Robert Brown había descrito recientemente (1831). Publicaron juntos la obra Investigaciones microscópicas sobre la concordancia de la estructura y el crecimiento de las plantas y los animales (1839) . Asentaron el primer y segundo principio de la teoría celular histórica: "Todo en los seres vivos está formado por células o productos secretados por las células" y "La célula es la unidad básica de organización de la vida".
  • Otro alemán, el médico Rudolf Virchow, interesado en la especificidad celular de la patología (sólo algunas clases de células parecen implicadas en cada enfermedad) explicó lo que debemos considerar el tercer principio: '"Toda célula se ha originado a partir de otra célula, por división de ésta".
  • La teoría celular fue debatida a lo largo del siglo XIX, pero fue Pasteur el que, con sus experimentos sobre la multiplicación de los microorganismos unicelulares, dio lugar a su aceptación rotunda y definitiva.
  • Santiago Ramón y Cajal logró unificar todos los tejidos del cuerpo en la teoría celular, al demostrar que el tejido nervioso está formado por células. Su teoría, denominada “neuronismo” o “doctrina de la neurona”, explicaba el sistema nervioso como un conglomerado de unidades independientes. Pudo demostrarlo gracias a las técnicas de tinción de su contemporáneo Camillo Golgi, quien perfeccionó la observación de células mediante el empleo de nitrato de plata, logrando identificar una de las células nerviosas. Cajal y Golgi recibieron por ello el premio Nobel en 1906.

Teoría de la generación espontánea

La teoría de la generación espontánea es una antigua teoría biológica de abiogénesis que defiende que podía surgir vida compleja (animal y vegetal), de manera espontánea a partir de la materia inorgánica. Para referirse a la "generación espontánea", también se utiliza el término abiogénesis, acuñado por Thomas Huxley en 1870, para ser usado originalmente para referirse a esta teoría. Louis Pasteur refutó de forma definitiva la teoría de la generación espontánea, postulando la ley de la biogénesis, que establece que todo ser vivo proviene de otro ser vivo ya existente.

La teoría de la generación espontánea se aplicaba a insectos, gusanos y seres vivos pequeños en los que no parecían generarse por biogénesis.


El experimento de Redi

Francesco Redi, médico e investigador, realizó un experimento en 1668 en el que colocó cuatro vasos en los que puso respectivamente un pedazo de serpiente, pescado, anguilas y un trozo de carne de buey. Preparó luego otros cuatro vasos con los mismos materiales y los dejó abiertos, mientras que los primeros permanecían cerrados herméticamente. Al poco tiempo algunas moscas fueron atraídas por los alimentos dejados en los vasos abiertos y entraron a comer y a poner huevos; transcurrido un lapso de tiempo, en esta serie de vasos comenzaron a aparecer algunas larvas. Esto no se verificó, en cambio, en los vasos cerrados, ni siquiera después de varios meses. Por tal motivo, Redi llegó a la conclusión que las larvas (gusanos) se originaban de las moscas y no por generación espontánea de la carne en descomposición.
Algunos objetaron que en los vasos cerrados había faltado la circulación del aire (el principio activo o principio vital) y eso había impedido la generación espontánea. Redi realizó un segundo experimento: esta vez los vasos del experimento no fueron cerrados herméticamente, sino sólo recubiertos con gasa. El aire, por lo tanto, podía circular. El resultado fue idéntico al del anterior experimento, por cuanto la gasa, evidentemente, impedía el acceso de insectos a los vasos y la consiguiente deposición de los huevos, y en consecuencia no se daba el nacimiento de las larvas.
Con estas simples experiencias, Redi demostró que las larvas de la carne putrefacta se desarrollaban de huevos de moscas y no por una transformación de la carne, como afirmaban los partidarios de la abiogénesis. Los resultados de Redi fortalecieron la biogénesis, teoría que sostiene que el origen de un ser vivo solamente se produce a partir de otro ser vivo.

10.13.2013

Las cinco grandes descubrimientos de la Física de los últimos 25 años

El Nobel para los «padres» del bosón de Higgs ha sido también un premio a la Física con mayúsculas. Repasamos las grandes investigaciones modernas que han marcado lo que ahora sabemos sobre la materia y el Universo.

10.12.2013

Fin de Windows XP

¿Eres uno de los muchos que aún utiliza Windows XP? Si la respuesta es sí, tienes un problema, porque tan pronto como el próximo 8 de abril de 2014 el sistema operativo dejará de recibir soporte por parte de Microsoft, o el último clavo en el ataúd de la versión más longeva de la historia de Windows.
Ante tal hecho migrar hacia otra plataforma es algo que todo el mundo sin excepción debería hacer. A continuación te explicamos por qué es imprescindible abandonar Windows XP y cómo lograrlo sin morir en el intento junto a varias consideraciones a tener en cuenta y tareas vitales a realizar antes de mudar.

Por qué es importante abandonar Windows XP

Desde 2008 se viene anunciando la muerte de Windows XP, pero un gran número de personas se resisten a abandonarlo porque, como tú, ni les apetece, ni saben lo que deben hacer ni son conscientes de la importancia de migrar, les da miedo… o una combinación de todos los factores.
Podemos dar muchos argumentos que justifican el abandonar Windows XP, de entre los que destacan los siguientes: uno, si utilizas Windows para trabajar, hacerlo con XP supone una pérdida de tiempo –y, por extensión, de dinero– ya que las versiones del sistema operativo superiores han mejorado mucho y en muchos aspectos. Dos, todos los programas y periféricos están dejando de funcionar con Windows XP. Tres, es fácil que te encuentres con problemas al intentar ejecutar diversos tipos de archivos. Cuatro, y la más importante, las posibilidades de que se te cuelen virus –si no los tienes ya– son muy altas.
Así que esto no va de obsolescencia programada. Dejar de utilizar Windows XP es pura sensatez y aunque tengas que comprar nuevo equipo o sudes algo de tinta al migrar, a todas luces merece la pena.

10.09.2013

Tikker, el reloj que señala la hora de tu muerte.


Si te dijeran que mañana vas a morir, ¿qué harías en tus últimas horas de vida? Esta pregunta que a veces nos hacemos entre bromas o simplemente por darle vuelo a nuestra imaginación podría estar muy presente en nuestro día a día si llevásemos un reloj con la cuenta atrás del tiempo que nos queda.

La bizarra idea, que parece sacada de la película «In Time», de Justin Timberlake, ha sido llevada a la realidad. El investigador sueco Fredrik Colting ha creado el Tikker, es decir «el reloj de la muerte» que señala los años, los meses, los días, los minutos y los segundos que quedan para que su propietario se vaya de este mundo.
«La vida de cada uno de nosotros no tiene una fecha de caducidad y aunque se tienda a evitar el argumento, la muerte no es una sorpresa para ninguno y aunque no es negociable, la vida sí lo es. Es por esto que tenemos que aprender a amarla y a aprovechar cada momento, siguiendo nuestro corazón», señala Colting.

10.07.2013

Mashme TV

Víctor Sánchez y su equipo van a por todas con Mashme TV, la aplicación de videoconferencia que el primero ideó hace más de un año y que en 12 meses ha logrado atesorar unos 415.000 usuarios activos en 71 países. Su última iniciativa ha sidolanzar una versión móvil de la aplicación para dispositivos iOS y Android. “Teníamos claro que una solución de videoconferencia solo basada en el navegador se quedaba coja. La gente tiene necesidad de estar en contacto continuo así que decidimos continuar la experiencia de Mashme TV más allá del desktop”, explica el CEO de la startup a TICbeat.
No obstante, matiza, “las apps no son solo un clon de la web sino que aportan funcionalidades adicionales”. Por ejemplo, explica el portavoz, permiten utilizar la navegación web del móvil para controlar la sala de videoconferencia. “El usuario podrá mostrar lo que quiera a través de esa sala lo que es útil por ejemplo si estamos en un aula, ya que resuelve la problemática de la movilidad dentro de ésta”.
Sánchez asevera además que con el lanzamiento de las nuevas apps Mashme TV espera doblar el número de usuarios que ahora tiene en solo tres meses. “Por otra parte, el uso de la aplicación podría triplicarse gracias a las apps móviles”, asevera el portavoz. La aplicación móvil permitirá que conversen unas 10 personas con conexión 3G y unas 12 con conexión 4G.

http://emprendedores.ticbeat.com/mashme-tv-la-startup-espanola-se-ha-propuesto-reinventar-la-videoconferencia-llega-al-movil/

Nexus 5

¿Es que lo han presentado ya y no me enteré?” No, Google sigue sin soltar prenda. Como habrás adivinado se trata de una nueva filtración, la definitiva: una copia del manual de reparación correspondiente al Nexus 5, el sucesor del smartphone Nexus 4 de Google sobre el que desde hace meses se vienen filtrando imágenes y datos provenientes de toda clase de fuentes.
En el documento, de 281 páginas, aparecen gráficos e imágenes del terminal calcadas a las que ya habíamos visto por filtraciones anteriores junto a todas sus características técnicas, que también concuerdan casi al 100% con las desveladas en ocasiones pasadas. Entre la gran cantidad de especificaciones técnicas del terminal que aparecen en el manual, cuya nomenclatura interna es LG D821, destacan las siguientes:
- Pantalla IPS de 4.95 pulgadas y 1920×1080 píxeles de resolución (FullHD)
- Procesador Qualcomm Snapdragon 800 de 4 núcleos a 2.4 GHz
- 2 GB de RAM
- Cámara trasera de 8 megapíxeles
- Y frontal de 1.3 megapíxeles
- Batería de 2.300 mAh
- NFC, conectividad móvil LTE y carga inalámbrica
- Ranura para tarjetas micro-SIM
- Acelerómetro y Giroscopio
- Dos versiones, una de 16 GB de almacenamiento interno y otra de 32 GB
Así que todo indica que Google está siguiendo el mismo plan que con el Nexus 4. Al igual que ese fue construido por LG a partir de su modelo Optimus G, el Nexus 5 –o como finalmente lo llamen– tiene más o menos las mismas especificaciones que el terminal G2 de la marca surcoreana, siendo el software y el diseño exterior los grandes elementos diferenciadores (el G2 corre Android y el Nexus 5 funcionará con el mismo SO, pero sin la capa adicional de interfaz que LG añade a Android en sus terminales).

10.06.2013

El bosón de Higgs

¿Qué es el bosón de Higgs?
 El bosón de Higgs o partícula de Higgs es una partícula elemental propuesta en el Modelo estándar de física de partículas. Recibe su nombre en honor a Peter Higgs quien, junto con otros, propuso en 1964, el hoy llamado mecanismo de Higgs, para explicar el origen de lamasa de las partículas elementales. El Bosón de Higgs constituye el cuanto del campo de Higgs, (la más pequeña excitación posible de este campo). Según el modelo propuesto, no posee espín, carga eléctrica o color, es muy inestable y se desintegra rápidamente, su vida media es del orden del zeptosegundo. En algunas variantes del Modelo estándar puede haber varios bosones de Higgs.
La existencia del bosón de Higgs y del campo de Higgs asociado serían el más simple de varios métodos del Modelo estándar de física de partículas que intentan explicar la razón de la existencia de masa en las partículas elementales. Esta teoría sugiere que un campo impregna todo el espacio, y que las partículas elementales que interactúan con él adquieren masa, mientras que las que no interactúan con él, no la tienen. En particular, dicho mecanismo justifica la enorme masa de los bosones vectoriales W y Z, como también la ausencia de masa de los fotones. Tanto las partículas W y Z, como el fotón son bosones sin masa propia, los primeros muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de Higgs.
El bosón de Higgs ha sido objeto de una larga búsqueda en física de partículas. Si se demostrara su existencia, el modelo estaría completo. Si se demostrara que no existe, otros modelos propuestos en los que no se involucra el Higgs podrían ser considerados.
El 4 de julio de 2012, el CERN anunció la observación de una nueva partícula «consistente con el bosón de Higgs», pero se necesitaría más tiempo y datos para confirmarlo. El 14 de marzo de 2013 el CERN, con dos veces más datos de los que disponía en el anuncio del descubrimiento en julio de 2012, encontraron que la nueva partícula se ve cada vez más como el bosón de Higgs. La manera en que interactúa con otras partículas y sus propiedades cuánticas, junto con las interacciones medidas con otras partículas, indican fuertemente que es un bosón de Higgs. Todavía permanece la cuestión de si es el bosón de Higgs del Modelo estándar o quizás el más liviano de varios bosones predichos en algunas teorías que van más allá del Modelo estándar.


A la caza del Higgs
La mayoría de las partículas que existen son inestables y, a primera vista, inútiles. Para estudiarlas, primero hay que crearlas. Para ello es necesario producir colisiones de una energía (en el “centro de masa”) superior a la energía en reposo de la partícula en cuestión. A los “particuleros” nos resulta más fácil decir estas cosas, puesto que no distinguimos entre
energía y masa. Por ejemplo, en la fórmula ­­

E = mc² / √(1 – v² / c²), ponemos la velocidad de la luz c=1, una simple elección de unidades. Si medimos tiempos en nanosegundos y distancias en unidades de “mi pié izquierdo”, c=1 puesto que dicho pié (de unos 30 cm) mide precisamente (por definición) lo que la luz en el vacío recorre en un nanosegundo. Por cierto, la consabida E = mc² es falsa. Es válida para un objeto en reposo, en cuyo caso es casi tautológica.



El LHC es, entre otras cosas, un MSV (Máquina de Sacudir el Vacío) ya que su principal objetivo es encontrar el bosón de Higgs o demostrar que no existe. En general, demostrar que algo no existe es imposible. Este caso es una excepción. Con un Higgs de masa superior a 1 TeV, el modelo estándar violaría la “unitariedad”: predeciría absurdamente procesos con probabilidad superior al 100%. El LHC alcanza para fabricar objetos de masa 1 TeV, y si no encuentra el ­Higgs, después de algunos años buscándolo, es que no existe. O tiene propiedades significativamente distintas a las previstas, en cuyo caso no es “el” Higgs.



El proceso más probable de producción del Higgs es el de la Figura 2. Curiosamente tendría lugar a través de un “triángulo virtual” de quarks “top”. La razón es que este quark es el más masivo y el Higgs se “acopla” a las partículas proporcionalmente a su masa: así es como el campo de Higgs en el vacío genera las masas.



El proceso de desintegración del Higgs que mejor permitiría medir sus propiedades –y saber si su identidad es la que le atribuimos– está también esbozado en la Figura 2. La razón es que electrones o sus “réplicas” inestables de mayor masa, los muones, son las partículas cuya energía y dirección pueden medirse con mayor precisión, permitiendo determinar bien el espín y “acoplamientos” del Higgs. 

http://es.wikipedia.org/wiki/Bos%C3%B3n_de_Higgs
http://www.fgcsic.es/lychnos/es_ES/articulos/boson_de_higgs

10.05.2013

Entorno de programación “made in Spain” para investigadores


Se llama COMPSs, se ha gestado en el seno del Centro de Supercomputación de Barcelona y es un software público que permite desarrollar aplicaciones para avanzar de forma más rápida y eficiente en proyectos de investigación cuya infraestructura esté basada en la computación  distribuida.
Con 500 descargas a sus espaldas y una nueva versión mejorada, COMPSs, que lleva años siendo utilizado en proyectos que ya han obtenido resultados, se presenta ahora públicamente con el fin de darse a conocer y hacerlo oficial, como nos comenta Rosa M. Badia, directora del equipo Grid Computing del  Centro de Supercomputación de Barcelona.BSC
El entorno permite tener un código simple secuencial y ejecutarlo en pantalla, utiliza varios procesadores a la vez  para ir solucionando los problemas que surjan, ejecutar en paralelo y realizar la transferencia de los datos a varios computadores en cloud de forma automática… Pero, todo esto ¿qué significa y qué repercusión tiene en los proyectos de investigación a los que se aplica? Como explica M. Badia, “en la práctica, las ganancias son la facilidad de desarrollo que, a su vez, comporta un aumento de eficiencia, es decir, hacer el proyecto más rápido y más económico”.

Resultados tangibles

El procesamiento de datos genómicos en el proyecto Venus-C, la adaptación de las especies animales y vegetales a determinados entornos en EUBrazilOpenBio o la elaboración de medicinas personalizadas a través del estudio de un determinado gen en una población con Optimis son algunos de las investigaciones y áreas en las que se ha utilizado COMPSs. “Son proyectos con un gran impacto social y económico  –dice M. Badia–, como el de EUBrazilOpenBio, que permite generar modelos de cómo se adapta una especie a un entorno, tanto geográficamente como por la temperatura o presión. De esta forma, se descubre dónde más se podría cultivar un cereal que se cultiva en una zona determinada”.
El futuro
COMPSs continuará evolucionando en el futuro, y como nos adelanta la responsable del Centro de Supercomputación de Barcelona, tienen pensado desarrollar una extensión para plataformas Android, trabajar para reducir el consumo de energía y el aprovechamiento de los recursos y facilitar el desarrollo de aplicaciones en combinación con la gestión optimizada de datos, es decir, aprovechar el mundo del Big Data

http://innovacion.ticbeat.com/compss-entorno-programacion-spain-para-investigadores-bsc/

10.01.2013

El mercado de apps generan 10.000 millones de euros en la UE

Que el mercado de las aplicaciones móviles está creciendo a un ritmo que mete miedo lo sabemos todos. Lo que seguro que no conocían tantos es que los 28 países de la Unión Europea están jugando un papel importante dentro del sector. Así lo indica una investigación realizada por VisionMobile en la que se analiza el tamaño del mercado de las aplicaciones móviles en la UE y los ingresos y puestos de trabajo generados por la economía de las appsen la comunidad de países.
Entre las conclusiones del estudio, encontramos algunas muy interesantes. Por ejemplo que un 22% de todas las aplicaciones móviles producidas a nivel mundial salen de países de la UE, lo que en el año 2012 generó ingresos por valor de 10.000 millones de euros. También que el sector de las apps aporta unos 529.000 puestos de trabajo directos, el 60% de los cuales son desarrolladores, y aproximadamente un total de 790.000 teniendo en cuenta los creados por toda la economía de las aplicaciones (desarrollo de las mismas, servicios asociados a ellas, etc).