10.16.2013

Teoría celular


La teoría celular es una parte fundamental y relevante de la Biología que explica la constitución de los seres vivos sobre la base de células, y el papel que éstas tienen en la constitución de la vida y en la descripción de las principales características de los seres vivos.
Principios:
Varios científicos postularon numerosos principios para darle una estructura adecuada:
  • Robert Hooke, observó una muestra de corcho bajo el microscopio, Hooke no vio células tal y como las conocemos actualmente, él observó que el corcho estaba formado por una serie de celdillas de color transparente, ordenadas de manera semejante a las celdas de una colmena; para referirse a cada una de estas celdas, él utiliza la palabra célula.
  • Anton Van Leeuwenhoek, usando microscopios simples, realizó observaciones sentando las bases de la morfología microscópica. Fue el primero en realizar importantes descubrimientos con microscopios fabricados por sí mismo. Desde 1674 hasta su muerte realizó numerosos descubrimientos. Introdujo mejoras en la fabricación de microscopios y fue el precursor de la biología experimental, la biología celular y la microbiología.(Descubrio los microbios en el agua)
  • A finales del siglo XVIII, Xavier Bichat, da la primera definición de tejido (un conjunto de células con forma y función semejantes). Más adelante, en 1819, Meyer le dará el nombre de Histología a un libro de Bichat titulado “Anatomía general aplicada a la Fisiología y a la Medicina”.
  • Dos científicos alemanes, Theodor Schwann, histólogo y fisiólogo, y Jakob Schleiden, botánico, se percataron de cierta comunidad fundamental en la estructura microscópica de animales y plantas, en particular la presencia de centros o núcleos, que el botánico británico Robert Brown había descrito recientemente (1831). Publicaron juntos la obra Investigaciones microscópicas sobre la concordancia de la estructura y el crecimiento de las plantas y los animales (1839) . Asentaron el primer y segundo principio de la teoría celular histórica: "Todo en los seres vivos está formado por células o productos secretados por las células" y "La célula es la unidad básica de organización de la vida".
  • Otro alemán, el médico Rudolf Virchow, interesado en la especificidad celular de la patología (sólo algunas clases de células parecen implicadas en cada enfermedad) explicó lo que debemos considerar el tercer principio: '"Toda célula se ha originado a partir de otra célula, por división de ésta".
  • La teoría celular fue debatida a lo largo del siglo XIX, pero fue Pasteur el que, con sus experimentos sobre la multiplicación de los microorganismos unicelulares, dio lugar a su aceptación rotunda y definitiva.
  • Santiago Ramón y Cajal logró unificar todos los tejidos del cuerpo en la teoría celular, al demostrar que el tejido nervioso está formado por células. Su teoría, denominada “neuronismo” o “doctrina de la neurona”, explicaba el sistema nervioso como un conglomerado de unidades independientes. Pudo demostrarlo gracias a las técnicas de tinción de su contemporáneo Camillo Golgi, quien perfeccionó la observación de células mediante el empleo de nitrato de plata, logrando identificar una de las células nerviosas. Cajal y Golgi recibieron por ello el premio Nobel en 1906.

Teoría de la generación espontánea

La teoría de la generación espontánea es una antigua teoría biológica de abiogénesis que defiende que podía surgir vida compleja (animal y vegetal), de manera espontánea a partir de la materia inorgánica. Para referirse a la "generación espontánea", también se utiliza el término abiogénesis, acuñado por Thomas Huxley en 1870, para ser usado originalmente para referirse a esta teoría. Louis Pasteur refutó de forma definitiva la teoría de la generación espontánea, postulando la ley de la biogénesis, que establece que todo ser vivo proviene de otro ser vivo ya existente.

La teoría de la generación espontánea se aplicaba a insectos, gusanos y seres vivos pequeños en los que no parecían generarse por biogénesis.


El experimento de Redi

Francesco Redi, médico e investigador, realizó un experimento en 1668 en el que colocó cuatro vasos en los que puso respectivamente un pedazo de serpiente, pescado, anguilas y un trozo de carne de buey. Preparó luego otros cuatro vasos con los mismos materiales y los dejó abiertos, mientras que los primeros permanecían cerrados herméticamente. Al poco tiempo algunas moscas fueron atraídas por los alimentos dejados en los vasos abiertos y entraron a comer y a poner huevos; transcurrido un lapso de tiempo, en esta serie de vasos comenzaron a aparecer algunas larvas. Esto no se verificó, en cambio, en los vasos cerrados, ni siquiera después de varios meses. Por tal motivo, Redi llegó a la conclusión que las larvas (gusanos) se originaban de las moscas y no por generación espontánea de la carne en descomposición.
Algunos objetaron que en los vasos cerrados había faltado la circulación del aire (el principio activo o principio vital) y eso había impedido la generación espontánea. Redi realizó un segundo experimento: esta vez los vasos del experimento no fueron cerrados herméticamente, sino sólo recubiertos con gasa. El aire, por lo tanto, podía circular. El resultado fue idéntico al del anterior experimento, por cuanto la gasa, evidentemente, impedía el acceso de insectos a los vasos y la consiguiente deposición de los huevos, y en consecuencia no se daba el nacimiento de las larvas.
Con estas simples experiencias, Redi demostró que las larvas de la carne putrefacta se desarrollaban de huevos de moscas y no por una transformación de la carne, como afirmaban los partidarios de la abiogénesis. Los resultados de Redi fortalecieron la biogénesis, teoría que sostiene que el origen de un ser vivo solamente se produce a partir de otro ser vivo.

10.13.2013

Las cinco grandes descubrimientos de la Física de los últimos 25 años

El Nobel para los «padres» del bosón de Higgs ha sido también un premio a la Física con mayúsculas. Repasamos las grandes investigaciones modernas que han marcado lo que ahora sabemos sobre la materia y el Universo.

10.12.2013

Fin de Windows XP

¿Eres uno de los muchos que aún utiliza Windows XP? Si la respuesta es sí, tienes un problema, porque tan pronto como el próximo 8 de abril de 2014 el sistema operativo dejará de recibir soporte por parte de Microsoft, o el último clavo en el ataúd de la versión más longeva de la historia de Windows.
Ante tal hecho migrar hacia otra plataforma es algo que todo el mundo sin excepción debería hacer. A continuación te explicamos por qué es imprescindible abandonar Windows XP y cómo lograrlo sin morir en el intento junto a varias consideraciones a tener en cuenta y tareas vitales a realizar antes de mudar.

Por qué es importante abandonar Windows XP

Desde 2008 se viene anunciando la muerte de Windows XP, pero un gran número de personas se resisten a abandonarlo porque, como tú, ni les apetece, ni saben lo que deben hacer ni son conscientes de la importancia de migrar, les da miedo… o una combinación de todos los factores.
Podemos dar muchos argumentos que justifican el abandonar Windows XP, de entre los que destacan los siguientes: uno, si utilizas Windows para trabajar, hacerlo con XP supone una pérdida de tiempo –y, por extensión, de dinero– ya que las versiones del sistema operativo superiores han mejorado mucho y en muchos aspectos. Dos, todos los programas y periféricos están dejando de funcionar con Windows XP. Tres, es fácil que te encuentres con problemas al intentar ejecutar diversos tipos de archivos. Cuatro, y la más importante, las posibilidades de que se te cuelen virus –si no los tienes ya– son muy altas.
Así que esto no va de obsolescencia programada. Dejar de utilizar Windows XP es pura sensatez y aunque tengas que comprar nuevo equipo o sudes algo de tinta al migrar, a todas luces merece la pena.

10.09.2013

Tikker, el reloj que señala la hora de tu muerte.


Si te dijeran que mañana vas a morir, ¿qué harías en tus últimas horas de vida? Esta pregunta que a veces nos hacemos entre bromas o simplemente por darle vuelo a nuestra imaginación podría estar muy presente en nuestro día a día si llevásemos un reloj con la cuenta atrás del tiempo que nos queda.

La bizarra idea, que parece sacada de la película «In Time», de Justin Timberlake, ha sido llevada a la realidad. El investigador sueco Fredrik Colting ha creado el Tikker, es decir «el reloj de la muerte» que señala los años, los meses, los días, los minutos y los segundos que quedan para que su propietario se vaya de este mundo.
«La vida de cada uno de nosotros no tiene una fecha de caducidad y aunque se tienda a evitar el argumento, la muerte no es una sorpresa para ninguno y aunque no es negociable, la vida sí lo es. Es por esto que tenemos que aprender a amarla y a aprovechar cada momento, siguiendo nuestro corazón», señala Colting.

10.07.2013

Mashme TV

Víctor Sánchez y su equipo van a por todas con Mashme TV, la aplicación de videoconferencia que el primero ideó hace más de un año y que en 12 meses ha logrado atesorar unos 415.000 usuarios activos en 71 países. Su última iniciativa ha sidolanzar una versión móvil de la aplicación para dispositivos iOS y Android. “Teníamos claro que una solución de videoconferencia solo basada en el navegador se quedaba coja. La gente tiene necesidad de estar en contacto continuo así que decidimos continuar la experiencia de Mashme TV más allá del desktop”, explica el CEO de la startup a TICbeat.
No obstante, matiza, “las apps no son solo un clon de la web sino que aportan funcionalidades adicionales”. Por ejemplo, explica el portavoz, permiten utilizar la navegación web del móvil para controlar la sala de videoconferencia. “El usuario podrá mostrar lo que quiera a través de esa sala lo que es útil por ejemplo si estamos en un aula, ya que resuelve la problemática de la movilidad dentro de ésta”.
Sánchez asevera además que con el lanzamiento de las nuevas apps Mashme TV espera doblar el número de usuarios que ahora tiene en solo tres meses. “Por otra parte, el uso de la aplicación podría triplicarse gracias a las apps móviles”, asevera el portavoz. La aplicación móvil permitirá que conversen unas 10 personas con conexión 3G y unas 12 con conexión 4G.

http://emprendedores.ticbeat.com/mashme-tv-la-startup-espanola-se-ha-propuesto-reinventar-la-videoconferencia-llega-al-movil/

Nexus 5

¿Es que lo han presentado ya y no me enteré?” No, Google sigue sin soltar prenda. Como habrás adivinado se trata de una nueva filtración, la definitiva: una copia del manual de reparación correspondiente al Nexus 5, el sucesor del smartphone Nexus 4 de Google sobre el que desde hace meses se vienen filtrando imágenes y datos provenientes de toda clase de fuentes.
En el documento, de 281 páginas, aparecen gráficos e imágenes del terminal calcadas a las que ya habíamos visto por filtraciones anteriores junto a todas sus características técnicas, que también concuerdan casi al 100% con las desveladas en ocasiones pasadas. Entre la gran cantidad de especificaciones técnicas del terminal que aparecen en el manual, cuya nomenclatura interna es LG D821, destacan las siguientes:
- Pantalla IPS de 4.95 pulgadas y 1920×1080 píxeles de resolución (FullHD)
- Procesador Qualcomm Snapdragon 800 de 4 núcleos a 2.4 GHz
- 2 GB de RAM
- Cámara trasera de 8 megapíxeles
- Y frontal de 1.3 megapíxeles
- Batería de 2.300 mAh
- NFC, conectividad móvil LTE y carga inalámbrica
- Ranura para tarjetas micro-SIM
- Acelerómetro y Giroscopio
- Dos versiones, una de 16 GB de almacenamiento interno y otra de 32 GB
Así que todo indica que Google está siguiendo el mismo plan que con el Nexus 4. Al igual que ese fue construido por LG a partir de su modelo Optimus G, el Nexus 5 –o como finalmente lo llamen– tiene más o menos las mismas especificaciones que el terminal G2 de la marca surcoreana, siendo el software y el diseño exterior los grandes elementos diferenciadores (el G2 corre Android y el Nexus 5 funcionará con el mismo SO, pero sin la capa adicional de interfaz que LG añade a Android en sus terminales).

10.06.2013

El bosón de Higgs

¿Qué es el bosón de Higgs?
 El bosón de Higgs o partícula de Higgs es una partícula elemental propuesta en el Modelo estándar de física de partículas. Recibe su nombre en honor a Peter Higgs quien, junto con otros, propuso en 1964, el hoy llamado mecanismo de Higgs, para explicar el origen de lamasa de las partículas elementales. El Bosón de Higgs constituye el cuanto del campo de Higgs, (la más pequeña excitación posible de este campo). Según el modelo propuesto, no posee espín, carga eléctrica o color, es muy inestable y se desintegra rápidamente, su vida media es del orden del zeptosegundo. En algunas variantes del Modelo estándar puede haber varios bosones de Higgs.
La existencia del bosón de Higgs y del campo de Higgs asociado serían el más simple de varios métodos del Modelo estándar de física de partículas que intentan explicar la razón de la existencia de masa en las partículas elementales. Esta teoría sugiere que un campo impregna todo el espacio, y que las partículas elementales que interactúan con él adquieren masa, mientras que las que no interactúan con él, no la tienen. En particular, dicho mecanismo justifica la enorme masa de los bosones vectoriales W y Z, como también la ausencia de masa de los fotones. Tanto las partículas W y Z, como el fotón son bosones sin masa propia, los primeros muestran una enorme masa porque interactúan fuertemente con el campo de Higgs, y el fotón no muestra ninguna masa porque no interactúa en absoluto con el campo de Higgs.
El bosón de Higgs ha sido objeto de una larga búsqueda en física de partículas. Si se demostrara su existencia, el modelo estaría completo. Si se demostrara que no existe, otros modelos propuestos en los que no se involucra el Higgs podrían ser considerados.
El 4 de julio de 2012, el CERN anunció la observación de una nueva partícula «consistente con el bosón de Higgs», pero se necesitaría más tiempo y datos para confirmarlo. El 14 de marzo de 2013 el CERN, con dos veces más datos de los que disponía en el anuncio del descubrimiento en julio de 2012, encontraron que la nueva partícula se ve cada vez más como el bosón de Higgs. La manera en que interactúa con otras partículas y sus propiedades cuánticas, junto con las interacciones medidas con otras partículas, indican fuertemente que es un bosón de Higgs. Todavía permanece la cuestión de si es el bosón de Higgs del Modelo estándar o quizás el más liviano de varios bosones predichos en algunas teorías que van más allá del Modelo estándar.


A la caza del Higgs
La mayoría de las partículas que existen son inestables y, a primera vista, inútiles. Para estudiarlas, primero hay que crearlas. Para ello es necesario producir colisiones de una energía (en el “centro de masa”) superior a la energía en reposo de la partícula en cuestión. A los “particuleros” nos resulta más fácil decir estas cosas, puesto que no distinguimos entre
energía y masa. Por ejemplo, en la fórmula ­­

E = mc² / √(1 – v² / c²), ponemos la velocidad de la luz c=1, una simple elección de unidades. Si medimos tiempos en nanosegundos y distancias en unidades de “mi pié izquierdo”, c=1 puesto que dicho pié (de unos 30 cm) mide precisamente (por definición) lo que la luz en el vacío recorre en un nanosegundo. Por cierto, la consabida E = mc² es falsa. Es válida para un objeto en reposo, en cuyo caso es casi tautológica.



El LHC es, entre otras cosas, un MSV (Máquina de Sacudir el Vacío) ya que su principal objetivo es encontrar el bosón de Higgs o demostrar que no existe. En general, demostrar que algo no existe es imposible. Este caso es una excepción. Con un Higgs de masa superior a 1 TeV, el modelo estándar violaría la “unitariedad”: predeciría absurdamente procesos con probabilidad superior al 100%. El LHC alcanza para fabricar objetos de masa 1 TeV, y si no encuentra el ­Higgs, después de algunos años buscándolo, es que no existe. O tiene propiedades significativamente distintas a las previstas, en cuyo caso no es “el” Higgs.



El proceso más probable de producción del Higgs es el de la Figura 2. Curiosamente tendría lugar a través de un “triángulo virtual” de quarks “top”. La razón es que este quark es el más masivo y el Higgs se “acopla” a las partículas proporcionalmente a su masa: así es como el campo de Higgs en el vacío genera las masas.



El proceso de desintegración del Higgs que mejor permitiría medir sus propiedades –y saber si su identidad es la que le atribuimos– está también esbozado en la Figura 2. La razón es que electrones o sus “réplicas” inestables de mayor masa, los muones, son las partículas cuya energía y dirección pueden medirse con mayor precisión, permitiendo determinar bien el espín y “acoplamientos” del Higgs. 

http://es.wikipedia.org/wiki/Bos%C3%B3n_de_Higgs
http://www.fgcsic.es/lychnos/es_ES/articulos/boson_de_higgs

10.05.2013

Entorno de programación “made in Spain” para investigadores


Se llama COMPSs, se ha gestado en el seno del Centro de Supercomputación de Barcelona y es un software público que permite desarrollar aplicaciones para avanzar de forma más rápida y eficiente en proyectos de investigación cuya infraestructura esté basada en la computación  distribuida.
Con 500 descargas a sus espaldas y una nueva versión mejorada, COMPSs, que lleva años siendo utilizado en proyectos que ya han obtenido resultados, se presenta ahora públicamente con el fin de darse a conocer y hacerlo oficial, como nos comenta Rosa M. Badia, directora del equipo Grid Computing del  Centro de Supercomputación de Barcelona.BSC
El entorno permite tener un código simple secuencial y ejecutarlo en pantalla, utiliza varios procesadores a la vez  para ir solucionando los problemas que surjan, ejecutar en paralelo y realizar la transferencia de los datos a varios computadores en cloud de forma automática… Pero, todo esto ¿qué significa y qué repercusión tiene en los proyectos de investigación a los que se aplica? Como explica M. Badia, “en la práctica, las ganancias son la facilidad de desarrollo que, a su vez, comporta un aumento de eficiencia, es decir, hacer el proyecto más rápido y más económico”.

Resultados tangibles

El procesamiento de datos genómicos en el proyecto Venus-C, la adaptación de las especies animales y vegetales a determinados entornos en EUBrazilOpenBio o la elaboración de medicinas personalizadas a través del estudio de un determinado gen en una población con Optimis son algunos de las investigaciones y áreas en las que se ha utilizado COMPSs. “Son proyectos con un gran impacto social y económico  –dice M. Badia–, como el de EUBrazilOpenBio, que permite generar modelos de cómo se adapta una especie a un entorno, tanto geográficamente como por la temperatura o presión. De esta forma, se descubre dónde más se podría cultivar un cereal que se cultiva en una zona determinada”.
El futuro
COMPSs continuará evolucionando en el futuro, y como nos adelanta la responsable del Centro de Supercomputación de Barcelona, tienen pensado desarrollar una extensión para plataformas Android, trabajar para reducir el consumo de energía y el aprovechamiento de los recursos y facilitar el desarrollo de aplicaciones en combinación con la gestión optimizada de datos, es decir, aprovechar el mundo del Big Data

http://innovacion.ticbeat.com/compss-entorno-programacion-spain-para-investigadores-bsc/

10.01.2013

El mercado de apps generan 10.000 millones de euros en la UE

Que el mercado de las aplicaciones móviles está creciendo a un ritmo que mete miedo lo sabemos todos. Lo que seguro que no conocían tantos es que los 28 países de la Unión Europea están jugando un papel importante dentro del sector. Así lo indica una investigación realizada por VisionMobile en la que se analiza el tamaño del mercado de las aplicaciones móviles en la UE y los ingresos y puestos de trabajo generados por la economía de las appsen la comunidad de países.
Entre las conclusiones del estudio, encontramos algunas muy interesantes. Por ejemplo que un 22% de todas las aplicaciones móviles producidas a nivel mundial salen de países de la UE, lo que en el año 2012 generó ingresos por valor de 10.000 millones de euros. También que el sector de las apps aporta unos 529.000 puestos de trabajo directos, el 60% de los cuales son desarrolladores, y aproximadamente un total de 790.000 teniendo en cuenta los creados por toda la economía de las aplicaciones (desarrollo de las mismas, servicios asociados a ellas, etc).