18 de octubre de 2016

Introducción a ¿Es sostenible el estado del bienestar?

El libro ¿es sostenible el estado del bienestar? nos introduce en un tema candente: el desarrollo, mantenimiento y crisis del Estado de bienestar en las sociedades occidentales. Cómo, cuando y por qué surge el primer Estado de bienestar en el Reino Unido después de la Segunda Guerra Mundial; sus antecedentes históricos en el siglo XIX e inicios del siglo XX y el precedente del New Deal de Roosevelt en los años 30 en Estados Unidos. Es, en ese contexto histórico, social, económico y político, que emerge el keneysianismo como respuesta a los estragos de la Gran Depresión y la II Guerra Mundial. Será el economista británico, John Maynard Keynes, quien establecerá las bases teóricas del Estado de bienestar. Las políticas keynesianas se implementarán y desarrollarán a lo largo de más de tres décadas en los países occidentales. Se caracterizaron por apostar por políticas intervencionistas por parte del Estado en materia económica, financiera y social en detrimento del libre mercado a la hora de ofrecer bienes y servicios básicos- empleo, vivienda, educación, sanidad...- a la población. Durante 30 años, las políticas keynesianas fueron un éxito en el Reino Unido y en Estados Unidos, permitiendo el despegue, desarrollo y mantenimiento del Estado de bienestar. En paralelo, a este proceso de inicio y consolidación del Estado de Bienestar, se inicia una reacción liberal contra la intervención del Estado en la economía. Los defensores de la libertad de mercado, apoyados por las tesis de Milton Friedman y la Escuela de Chicago, preconizaron un paulatino abandono de los postulados keynesianos, y, por extensión, del Estado del bienestar. Pero, no será, hasta los años 80, cuando definitivamente estas ideas (neo)liberales harán fortuna con los gobiernos de Margaret Thatcher y Ronald Reagan en Reino Unido y Estados Unidos, respectivamente. El ascenso de la doctrina neoliberal cuestionará tanto la legitimidad como la sostenibilidad del Estado del bienestar y apostará por su desmantelamiento progresivo, substituyéndolo por una creciente mercantilización de servicios básicos como la sanidad o la educación, y, por la privatización de los sectores económicos estratégicos de los países desarrollados, y posteriormente, del resto del mundo.

En segundo lugar, desarrolla los distintos modelos de Estado de bienestar existentes en la mayoría de los países occidentales. Podemos hablar y diferenciar claramente tres grandes modelos de Estado de bienestar: el modelo socialdemócrata de los países nórdicos; el modelo liberal de los países anglosajones y el modelo conservador de países como Alemania o Francia. Se expone tanto sus puntos fuertes como sus puntos débiles así como sus aportaciones y limitaciones que han reavivado el debate sobre la sostenibilidad fiscal de estos modelos de Estado de bienestar a medio y a largo plazo por motivos demográficos y por la irrupción de la globalización.

14 de octubre de 2016

Descripción del libro ¿Es sostenible el estado del bienestar?

El libro ¿es sostenible el estado de bienestar? del economista Óscar Vara Crespo contiene 141 páginas. Está editado en el año 2016 por RBA Coleccionables dentro de la colección titulada Los retos de la economía. Es el primer número de la colección. El sumario del libro contiene: una introducción y 4 capítulos: las políticas keynesianas y el nacimiento del Estado del bienestar; la reacción liberal y las propuestas de reforma; los distintos modelos actuales de Estado de bienestar y Retos globales de futuro. 


13 de octubre de 2016

¿Es sostenible el estado del bienestar?

¿Es sostenible el estado de bienestar? del economista español Óscar Vara Crespo nos invita a adentrarnos en la temática del Estado de bienestar: qué es, cómo y por qué se desarrolla el Estado de bienestar en las sociedades occidentales; quiénes son sus principales teóricos y sus principales detractores o críticos más acérrimos; cuáles son los principales modelos del Estado de bienestar así como cuáles son sus principales retos o amenazas al albur de la actual crisis económica y de su futuro incierto en las próximas décadas del siglo XXI.


16 de mayo de 2016

Documental: La curiosa guerra de Alan Turing.

El Documental, la curiosa guerra de Alan Turing, focaliza la atención sobre aspectos biográficos de  la vida de Alan Turing antes, durante y después de la Segunda Guerra Mundial. Especialmente, en su labor como matemático y sobre todo como criptógrafo en Bletchley Park.



13 de mayo de 2016

Más allá de Alan Turing: sus aportaciones a la inteligencia artificial y a la biología matemática.

A pesar de, su prematura muerte en 1954, Alan Turing ha sido uno de los matemáticos más brillantes e influyentes del siglo XX. Con su trabajo no sólo sentó las bases teóricas de la informática sino también abrió el campo de la inteligencia artificial y el de la biología matemática. Además de su labor como matemático, dejó un número importante de documentos sin concluir con comentarios, anotaciones y observaciones acerca de la "maquinaria inteligente" y de la morfogénesis.

La muerte de Alan Turing no le permitió concluir sus investigaciones en la Universidad de Manchester. Durante su estancia, Alan Turing abordó el diseño de modelos de circuitos neuronales para estudiar el cerebro humano que él denominaba "maquinaria inteligente". En ese mismo año, Belmont Forley y Wesley Clark lograron la simulación, en un ordenador, de una red de 128 neuronas "capaces de reconocer patrones sencillos tras una fase de entrenamiento." Observaron que, si se eliminaba un 10% de las neuronas, la red no perdía su capacidad de reconocimiento de patrones. El modelo de Forley y Clark consistía en neuronas conectadas entre sí al azar, asociando a cada conexión un valor de peso, el resultado era algo parecido a una red Mc Culloch- Pitts. En 1956, dos años después de la muerte de Alan Turing, John McCarthy acuñó el término inteligencia artificial durante una conferencia en la universidad de Barmouth. Un año más tarde, en 1957, Frank Rosenblatt desarrolló el perceptrón. A partir de éste, surgieron otros modelos de redes neuronales artificiales, como, por ejemplo, las redes con retropropagación que permiten reconocer letras, números, imágenes, etc. Actualmente, estas redes de retropropagación están muy presentes en la clasificación del correo electrónico, en el reconocimiento del latido cardíaco del feto para distinguirlo del de la madre, etc. En resumen, ha hecho falta más de medio siglo para que, las ideas acerca de la "maquinaria inteligente" de Alan Turing, formen parte de nuestra vida cotidiana.

En sus últimos años de vida, Alan Turing hizo experimentos pioneros sobre morfogénesis, utilizando los ordenadores de la Universidad de Manchester. La morfogénesis son procesos biológicos que conducen a que un organismo desarrolle una determinada forma.  Alan Turing postuló la existencia de los morfógenos así como la existencia de ciertos procesos físico- químicos y fenómenos como la activación o la inhibición responsables de los procesos de diferenciación celular que estaban detrás de las etapas por las que pasa una célula hasta alcanzar o convertirse en una célula especializada. La idea central era que, las posiciones de las células de un embrión, aún sin diferenciar, contienen morfógenos que controlarían posteriormente su desarrollo. La genialidad de Alan Turing fue la predicción de la existencia de los morfógenos, antes que fueran descubiertos muchos años después.  Fue, en los años 60, cuando Lewis Wolpert redefinió el concepto de morfógeno, introducido por Turing, tras descubrir una proteína con estas características en la mosca del vinagre Drosophila melenogaster. Los morfógenos pueden ser sustancias químicas, desde proteínas hasta vitaminas, que funcionan controlando los genes. En la actualidad, el modelo propuesto por Alan Turing, ha sido demostrado experimentalmente. Sin embargo, algunos sostienen que la morfogénesis ocurre de otra forma, a la postulada por Alan Turing. Las células seguirían un plan maestro por el que las células del embrión se irían especializando, como consecuencia de una serie de transformaciones, cuya explicación estaría en las propiedades mecánicas de esas células. Esta teoría está respaldada por investigadores como Conrad Waddington, Murray Gell- Mann o Brian Goodwin. 


7 de mayo de 2016

El futuro de la computación cuántica.

La computación cuántica amenaza con aumentar el potencial de cálculo de los ordenadores, que el proceso de descifrado por ensayo y error de los algoritmos actuales de encriptación, resultarían un juego de niños en comparación con el de la computación cuántica. Esta revolución se apoya en la mecánica cuántica, cuyo edificio teórico levantaron cuatro personalidades excepcionales: Niels Bohn, Max Planck, Werner Heisenberg y Erwin Schrödinger. La mecánica cuántica es una teoría de la física que sostiene que, en el ámbito macroscópico, rige las leyes de la física clásica, pero que, en el ámbito microscópico, rige la mecánica cuántica y sus paradojas. 

Una de las aportaciones más brillantes a la mecánica cuántica es la de Erwin Schrödinger y su experimento del "gato de Schrödinger". La idea de este experimento era explicar el concepto de superposición de estados. El fenómeno de la superposición de estados sucede cuando una partícula ocupaba, a la vez, más de una posición, o poseía, al mismo tiempo, cantidades distintas de energía. Cuando se introducía un observador para medir alguna de estas variables, la partícula decidía adoptar una posición u otra o poseer una cantidad de energía u otra. Para explicar este fenómeno, Erwin Schrödinger ideó el famoso experimento del "gato de Schrödinger". ¿En qué consistió? "Imagínese un felino del tipo mencionado depositado en una caja sellada y opaca. En el interior de la caja se coloca un recipiente de gas venenoso conectado por un dispositivo a una partícula radiactiva de modo que, si ésta se desintegra, el gas escapa del recipiente y el gato muere envenenado. La partícula en cuestión tiene un 50% de probabilidades de desintegrarse durante un periodo de tiempo determinado." El tiempo se ha cumplido, la pregunta, que nos hacemos, es: ¿Está el gato vivo o muerto? En el lenguaje de la mecánica cuántica equivale a decir: ¿cuál es el estado del sistema caja- gato- mecanismo? Para conocer la respuesta es imprescindible que un observador abra la caja y "mida" el estado del sistema, entonces la partícula decidirá si se ha desintegrado o no, y, por tanto, el sistema "caja- gato- mecanismo" está en una superposición de estados: el gato no está ni vivo ni muerto, sino las dos cosas a la vez.

el gato de Schrödinger

Ahora bien, si llevamos el concepto de superposición de estados a la computación o a la criptografía, ¿cuál sería la relación entre ambos? Hasta 1984, nadie se planteó esta posible relación. Fue el físico David Deutsch que empezó a barajar una idea revolucionaria: ¿cómo podría ser los ordenadores si obedecieran a las leyes de la mecánica cuántica? ¿De qué modo podría la computación cuántica sacar partido de la superposición de estados? A través de estas cuestiones, David Deutsch puedo iniciar sus investigaciones sobre la computación cuántica y puedo, posteriormente, a través de su trabajo probar que era posible teóricamente la construcción de un ordenador cuántico.

El desarrollo de una posible computación cuántica traería consigo el desmoronamiento de la criptografía moderna. Tomemos, por ejemplo, romper una clave RSA, ¿es posible? La respuesta es sí. Si se construyera un ordenador cuántico, y se ejecutará el algoritmo de Shor, la clave RSA se desmoronaría, y con él, el edificio de la criptografía moderna. Peter Shor en 1994 pudo demostrar que se puede romper una clave RSA a través de su algoritmo, que lleva su nombre, el algoritmo de Shor. Mediante este algoritmo pudo demostrar que, si se ejecuta este algoritmo en un ordenador cuántico, se podría descomponer números primos enormes en un tiempo menor que el del ordenador convencional más potente del mercado.

Otro aspecto de la mecánica cuántica es el principio de indeterminación de Weiner Heisenberg. Según el propio Heisenberg no podemos conocer con detalle el presente. Resulta imposible determinar ciertas propiedades de una partícula en un momento dado. Pongamos, un ejemplo, para ilustrar estas palabras: el caso de los fotones, y, muy concretamente, una de sus características más fundamentales: la polarización. Pues bien, el principio de Heisenberg afirma que la única manera de averiguar algo sobre la polarización de un foton es haciéndolo pasar por un filtro o "rendija". En función de, si el foton está polarizado, horizontalmente, verticalmente o diagonalmente, el resultado será distinto. En consecuencia, una vez emitido un foton no es posible saber con certeza cuál era la polarización original. Entonces, ¿qué relación existe entre la polarización de los fotones y la criptografía? En 1984, Charles Bennett y Gilles Brassard idearon un criptosistema cuántico basado en la transmisión de fotones polarizados. La información se transmitía por medio de fotones polarizados que es un canal seguro por medio del cual se puede transmitir una clave única. El resultado de este proceso de polarización, es que tanto el emisor como el receptor comparten una secuencia de unos y ceros generada de forma aleatoria. El criptosistema cuántico ideado por Brassard y Bennett impecable, desde el punto de vista teórico, se pudo llevar a la práctica en 1989, cuando se puso a punto un sistema criptográfico formado por dos ordenadores separados por una distancia de 32 centímetros, uno de los cuales iba a hacer las veces de emisor y, el otro, de receptor. Tras pruebas y ajustes, emisor y receptor pudieron verificar sus claves. La criptografía cuántica era posible. El criptosistema cuántico desarrollado por Brassard y Bennett representa el éxito del secreto sobre la indiscreción, de la criptografía frente al criptoanálisis.

Criptosistema cuántico de Charles Bennett y Gilles Brassard

2 de mayo de 2016

Origen, cronología, ventajas y problemática de la computación cuántica

Ya habíamos mencionado, en una entrada anterior, ¿Qué es la computación?, qué era la computación cuántica. Esbozamos muy superficialmente una definición. Ahora, vamos a desarrollar otros aspectos como son el origen, la cronología, las ventajas y la problemática entorno a la computación cuántica.

El origen de la computación cuántica responde a la necesidad de descubrir nuevas tecnologías que superaran las limitaciones que imponen las propias leyes físicas a la hora de miniaturizar los chips. La imposición de estas limitaciones permitió que surgiera la idea de la computación cuántica en 1981. La idea de la Computación cuántica fue expuesta y desarrollada por Paul Benioff en 1981. Paul Benioff expuso su propia teoría sobre la computación cuántica, aplicando las leyes de la física cuántica a la computación. Según su teoría, "la cinta de la máquina de Turing podría ser reemplazada por una serie de sistemas cuánticos. Es decir, que en lugar de trabajar con voltajes eléctricos pasaría hacerlo con cuántos." En la computación clásica, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, como interviene las leyes de la mecánica cuántica, y, por tanto, una partícula puede estar en superposición: puede ser 0, 1 y puede ser 0 y 1 a la vez. Eso permite que se pueda realizar diferentes operaciones a la vez, según el número de qubits. En definitiva, las ideas esenciales de la computación cuántica surgieron del trabajo de Paul Benioff.

Posteriormente, se han realizado numerosas aportaciones a la computación cuántica. Las más significativas son las de David Deutsh, Dan Simon, Peter Shor y Lov Grover. En 1985, David Deutsh describió, por primera vez, el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico. De este modo, sugerió que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. En los años 90, se aplicó su teoría a la práctica: aparecieron los primeros algoritmos cuánticos y se realizaron los primeros cálculos cuánticos. En 1993, Dan Simon planteó un problema teórico que demostraba la ventaja del computador cuántico frente al clásico. Comparó el modelo clásico de probabilidad con el modelo cuántico. Sus ideas y observaciones sirvieron como base para el desarrollo de algoritmos como el de Lov Grover en 1996. En ese mismo año, 1993, Charles Benett descubrió el teletransporte cuántico y abrió la posibilidad de desarrollar comunicaciones cuánticas. Entre 1994 y 1995, Peter Shor definió un algoritmo, que lleva su nombre, el algoritmo de Shor, que permitía calcular los factores primos de números, mucho más rápidamente que las computadoras clásicas. Su algoritmo permitía romper muchos de los sistemas criptográficos existentes. En 1996, Lov Grover creó un algoritmo cuántico de tipo probabilístico para la búsqueda de datos conocido como Algoritmo de Grover. Ese algoritmo aceleraba los cálculos factoriales o las simulaciones físicas.

La computación cuántica presenta ventajas respecto a la computación clásica. Aporta enormes ventajas como la aplicación de operaciones masivas en paralelo y la capacidad de aportar nuevas soluciones a problemas que son abarcables desde la computación cuántica por su elevado coste computacional.

Uno de los principales problemas de la computación cuántica es el problema de la decoherencia cuántica que causa la pérdida del carácter unitario- o reversibilidad- de los pasos de un algoritmo cuántico. Otro de los principales problemas de la computación cuántica es la escalabilidad, sobre todo teniendo en cuenta el considerable aumento en qubits necesarios para realizar cálculos cuánticos, que implican la corrección de errores.

Computación cuántica

22 de abril de 2016

Historia de la computación

Vamos a dejar un enlace sobre la historia de la computación que recoge los principales hitos históricos del desarrollo de la computación desde la Edad Media hasta la actualidad. 
En este enlace: https://es.wikipedia.org/wiki/Anexo:Historia_de_la_computaci%C3%B3n podréis encontrar de forma pormenorizada una lista de estos principales hitos dentro de la computación. 

historia de la computación

20 de abril de 2016

¿Qué es la computación?

La computación es la ciencia que estudia los sistemas que gestionan automáticamente la información. Existen diferentes tipos de computación: computación ubicua, computación gráfica, computación distribuida, computación en la nube y computación cuántica.

La computación ubicua- conocida como Pervasive computing, Calm Tecnology, Things that Thing o Everywhere- tiene como objetivo la integración de la informática en el entorno de las personas. Su origen está en el trabajo de Mark Weiser en Xerox en el laboratorio de Palo Alto en los años 80. Las áreas de investigación y de desarrollo de la computación ubicua son: los sensores, redes de próxima generación, sistemas distribuidas, computación móvil y desarrollo de sistemas ubicuos.

La computación gráfica( o gráficos por ordenador) es el uso de los ordenadores tanto para generar imágenes visuales como para integrar o cambiar imágenes del mundo real. En la computación gráfica, podemos encontrar gráficos en 2D o en 3D.

La computación distribuida( o informática en malla) es un modelo para resolver problemas de computación utilizando multitud de ordenadores conectados entre sí por una red de comunicaciones.

La computación en la nube( o cloud computing, en inglés) es un conjunto de servicios informáticos, que se ofrecen de forma gratuita o de pago, a los usuarios a través de la conexión a Internet. Hay diferentes tipos de nubes: una nube pública, nubes privadas, nubes híbridas y una nube comunitaria.

La computación cuántica hace referencia a la aplicación de las teorías de la física cuántica en la informática. Es un nuevo paradigma de computación. Surgió en los años 80 y aún está en fase de desarrollo. Se basa en el uso de qubits en lugar de bits. Algunos problemas que se suponían intratables para la computación clásica, ahora se consideran tratables para la computación cuántica. Mientras un ordenador normal equivale a una máquina de Turing, un ordenador cuántico equivaldría a una máquina de Turing cuántica.

computación cuántica

11 de abril de 2016

Tipos de criptografía: criptografía simétrica, criptografía asimétrica y criptografía hibrida.

Existen diferentes tipos de criptografía. Vamos a centrarnos en 3 fundamentalmente: criptografía simétrica, criptografía asimétrica y criptografía hibrida.

La criptografía simétrica- también llamada criptografía de clave secreta o criptografía de una clave-. Es un método criptográfico en el que usa una misma clave para cifrar y descifrar mensajes. Tanto el emisor como el receptor deben ponerse de acuerdo de antemano sobre la clave a usar. Una vez que el emisor y el receptor tienen acceso a esta clave, el emisor cifra el mensaje usando la clave, y, el receptor descifra el mensaje, utilizando la misma clave. Como ejemplo de criptografía simétrica está Enigma. Éste fue el sistema empleado por Alemania durante la Segunda Guerra Mundial, en el que las claves se distribuían a diario en forma de libros de códigos. Cada día se consultaba en el libro de códigos la clave del día. Toda la información que se utilizaba era cifrado y descifrada usando las claves del día. El principal inconveniente de la criptografía simétrica está en el intercambio/ distribución de claves. Otro inconveniente es el número de claves que se necesitan. Esto puede funcionar si el número de personas es reducido, pero sería muy difícil si éste fuera un número mayor. Para solucionar estos dos inconvenientes se podría crear centros de distribución de claves simétricas.
criptografía simétrica

La criptografía asimétrica- también llamada criptografía de clave pública o criptografía de dos claves-. Es otro método criptográfico, alternativo a la criptografía simétrica, en el que se utiliza un par de claves para el envío de mensajes. Las dos claves pertenencen al emisor del mensaje a diferencia de la criptografía simétrica en la que el emisor sólo tiene un clave. Las dos claves pertenecen a la misma persona que ha enviado el mensaje. Una clave es pública y puede ser conocida a cualquier persona. La otra clave es privada y no puede ser conocida, nadie puede tener acceso a ella. Además, la criptografía asimétrica garantiza que ese par de claves sólo se pueda generar una sola vez. El remitente del mensaje puede utilizar la clave pública del destinatario podrá descifrar este mensaje, ya que es el único que la conocen. Por tanto, se logra la confidencialidad del envío del mensaje, nadie salvo el destinatario puede descifrarlo. La criptografía asimétrica como sistema de cifrado de clave pública se creó con la finalidad de evitar el problema del intercambio de claves en la criptografía simétrica. Con las claves públicas no es necesario que el emisor y el receptor del mensaje se pongan de acuerdo en la clave que se emplea. Existen dos tipos de criptografía de clave pública: el cifrado de clave pública y las firmas digitales. La mayor ventaja de la criptografía asimétrica es que la distribución de claves es más fácil y segura porque la clave pública es la que se distribuye, manteniéndose la clave privada en secreto y en exclusiva para el propietario, pero a su vez, este sistema tiene desventajas: el mensaje cifrado ocupa más espacio que el original, las claves son de mayor tamaño que las claves de la criptografía simétrica y para una misma longitud de clave y mensaje se necesita más tiempo de procesamiento.

criptografía asimétrica

La criptografía híbrida es un método criptográfico intermedia que utiliza tanto el cifrado simétrico como el asimétrico. Emplea el cifrado de clave pública para compartir una clave para el cifrado simétrico. El mensaje que se envía, se cifra usando su propia clave privada, luego el mensaje cifrado se envía al destinatario. Ya que compartir una clave simétrica no es seguro, ésta es diferente para cada sesión.
Criptografía híbrida