Un 54% de los asesores de empresas españolas considera que Internet no es estratégico ni relevante para su negocio a medio ni largo plazo, según se desprende de la encuesta realizada durante el Foro de Asesores Wolters Kluwer a 1.000 asesores de empresas españolas.
   Así, de acuerdo con el III Barómetro de Coyuntura Tecnológica  promovido por CISS y A3 Software, más de la mitad de los asesores españoles no tiene página web o blog ni participa en redes sociales.
   Por el contrario, un 29% de los participantes cree necesario tener una página web corporativa con buen posicionamiento para que los potenciales clientes les encuentren de una forma más sencilla, mientras que un 38% cree conveniente participar en blogs, comunidades virtuales o redes sociales donde compartir opiniones con expertos del sector.
   Asimismo, un 53% de los asesores admitieron que siguen utilizando las clásicas carpetas de cartón y las de Windows para archivar sus documentos. En esta línea, el 30% de los encuestados afirmó utilizar un software general en su despacho para archivar documentos y sólo un 10% reconoció disponer de uno específico para dicha tarea.
   En cuanto al asesoramiento en materia de protección de datos , el 58% de los asesores contrata los servicios de un tercero a la hora de  aconsejar a sus clientes en el manejo y archivo de datos confidenciales.

La red social permite que las aplicaciones desarrolladas por terceros accedan a los datos privados de los usuarios

 

Facebook acaba de anunciar en su blog para desarrolladores que a partir de ahora va a permitir el acceso a «las direcciones y números telefónicos de los usuarios», como parte del objeto gráfico. O lo que es lo mismo, las aplicaciones desarrolladas por terceros tendrán acceso a la información de contacto de los usuarios.
«Como ésta es una información sensible” se lee en el post, “(…) el permiso tendrá que ser explícitamente autorizado a tu aplicación por el usuario o a través de nuestros diálogos estándar de permiso». Recomendamos revisar los ejemplos de los diálogos estándar de permiso y que cada uno decida si es un mecanismo suficiente.
Como el blog especializado All Facebook señala, lo importante aquí es que Facebook ahora va a compartir una serie de datos que antes no compartía. En este ejemplo de caja de diálogo, sólo hay un par de elementos, pero hay otras cajas similares que contienen más. Jacki Cohen escribe: «(Los usuarios) probablemente no notarán que se han agregado las palabras ‘dirección actual y número de teléfono’ al texto, y seguramente harán clic en ‘permitir’ sin realmente darse cuenta de que están otorgando más acceso que nunca».
Menús confusos
Afortunadamente, no se puede acceder a este tipo de información no puede a través de los contactos y su actividad despreocupada, como, de hecho, sí sucede con otros datos del perfil. De acuerdo con el post de Facebook, «estos permisos sólo permiten acceso a la dirección y número telefónico de un usuario, no a los de sus amigos».
Estas nuevas reglas del juego cambian la percepción que algunos usuarios tienen sobre las aplicaciones de Facebook, o al menos la cambiarían si fueran conscientes que cualquier aplicación que ejecuten puede acceder a estos datos. Esta información es muy golosa para los publicistas, imaginemos una aplicación que mediante preguntas o juegos obtiene datos sobre los gustos y preferencias de consumo.
Seguramente algunos usuarios no encuentran ningún inconveniente en que sus datos estén disponibles, sin embargo otros se sentirán muy incómodos y Facebook debería de establecer un mecanismo en el que no haya ninguna duda sobre la información que se ofrece.
Siempre hemos tenido muy clara la relación de Facebook con la privacidad, sin embargo si estuviera perfectamente claro que estos datos son disponibles, muchos usuarios querrían borrar las aplicaciones de Facebook y probablemente por eso es que ni los diálogos son claros ni desde la red social se hace mucho eco de la noticia.

 

La explosión de la telefonía móvil avanzada

Desde hace un par de años vivimos una auténtica explosión de la telefonía móvil avanzada. Los terminales tienen mejores y más grandes pantallas y funcionalidades que hasta hace poco eran o un sueño o directamente estaban implementados en otros equipos más avanzados.
Todo el mundo da por supuesto que en unos años (Duncan Stewart lo establece para 2014) el teléfono móvil será el dispositivo principal con el que accederemos a Internet, y eso significa como mínimo acceso directo a información y servicios. Si luego pensamos en la explosión de aplicaciones para los nuevos teléfonos, ¿quién es el loco/a que piensa en un límite para lo que puede hacer el móvil por nosotros?

La semana pasada vivimos precisamente uno de esos momentos en los que a todos nos viene a la cabeza la frase nada es imposible. Android, que poco a poco va erigiéndose como el sistema operativo del futuro, se volvía a llevar el gato al agua de la mano de Google, que llevaba a este sistema operativo la traducción simultánea de conversaciones.

image0.png

Y qué decir de las posibilidades del nuevo Google Googles, que ha demostrado que con una simple foto que hagamos a un Sudoku, él se encarga de resolvérnoslo. ¿Seguimos? Realidad aumentada, geolocalización con acceso a servicios de forma directa, pagar, control de coches, domótica …

Es una prueba de inteligencia artificial mucho más complicada que la que afrontó Deep Blue cuando venció a Kasparov 

 

La supercomputadora Watson de IBM, que retará a los campeones del juego Jeopardy, un concurso televisivo en Estados Unidos de preguntas sobre cultura y conocimientos de alto nivel, ha comenzado ganando en una ronda de prueba. Esto supone una prueba para la inteligencia artificial mucho más complicada que la que afrontó Deep Blue cuando venció al mejor jugador de ajedrez del mundo, Gary Kasparov.
El reto tendrá lugar en febrero y será una competición entre dos humanos, Ken Jennings y Brad Rutter, campeones de Jeopardy, y la inteligencia artificial de Watson, la supercomputadora de IBM. Los premios serán 1 millón de dólares para el primero, 300.000 para el segundo y 200.000 para quien quede en tercer lugar. De momento, la ronda de prueba la ha ganado el ordenador.
Bautizada como el compañero de Sherlock Holmes (aunque en realidad el nombre se lo debe al fundador de IBM, Thomas Watson), la supercomputadora es la sucesora de Deep Blue, la máquina que venció por primera vez al campeón de ajedrez Gary Kasparov en 1996 y que lo derrotó finalmente en una ronda de partidas al año siguiente. Pero esta vez las cosas son distintas. Obtener la victoria en Jeopardy es considerablemente más complicado ya que hay más aspectos implicados aparte de cálculo de movimientos y de la mejor jugada.
Jeopardy es un concurso de alto nivel con preguntas sobre cultura y conocimiento de todo tipo que se emite en Estados Unidos. Lo primero de todo Watson tiene que ser capaz de entender las preguntas y las respuestas que da, a lo que ayudarán sus 200 millones de páginas de contenido almacenadas en su sistema. También tiene que realizar jugadas inteligentes a la hora de sopesar la elección de las categorías y cuando tenga que apostar una cantidad en la ronda final.
Más rápido que los humanos
En una ronda de práctica, Watson fue más rápido, con respuestas correctas, que sus competidores humanos. El reto de Jeopardy está destinado a mostrar el desarrollo de la inteligencia artificial de IBM, que ha trabajado durante cuatro años en la investigación y la construcción de la máquina.
La supercomputadora Watson dispone de 10 racks de los Power 750, funcionando con Linux, con 2.880 núcleos de procesador a 80 teraflops y 15 TB de RAM. En comparación Deep Blue funcionaba a 1 teraflop. Esto supone un gran avance y sea cual sea el resultado seguro que abre nuevas posibilidades a la inteligencia artificial. Queda por conocer si está siendo refrigerada con agua fría o, como recientemente se descubrió, con agua caliente.

 


El grupo Anonymous bloqueó en la tarde de ayer el acceso a los sites del Partido Popular, el Senado y la embajada de EE.UU en España como medida de presión para evitar sorpresas de última hora que permitieran la aprobación de la Ley Sinde.
Este nuevo ataque, bautizado como “Operación Ley Sinde” se produce cuando faltan dos días para que finalice el plazo para presentar enmiendas a la Ley Sinde, que ya fue rechazada en el Congreso pero que aún podría ser “resucitada” por el Senado.
Precisamente el paso por el Senado de la Ley Sinde ha sido uno de los motivos que ha inspirado este ataque, con el que buscaban presionar a los grupos políticos para que no cambien de parecer en la votación de la Cámara Alta, que tendrá lúgar en e mes de febrero.
La operación ha estado coordinada desde el foro abierto IRC y ha sido seguida activamente en Twitter donde los participantes debatieron sobre sus objetivos. Como viene siendo habitual, la desactivación de las webs se produjo mediante un ataque DDoS o de denegación de servicio, que consiste en saturar con visitas las páginas hasta tumbarlas.
Llama la atención que los atacantes se hayan dirigido contra la web de PP, un partido que desde el principio se ha posicionado en contra de la Ley, pero al parecer lo habrían hecho para evitar que se pudieran arrepentir en el último momento.
Éste no es el primer ataque que organiza Anonymous para protestar por la Ley Sinde, recordemos que un día antes de que la propuesta fuera debatida en la Comisión de Economía, el grupo de ciberactivistas logró desactivar las webs del PSOE, PP, CiU y el PNV así como las del Congreso y la SGAE.

Bruselas acepta el filtrado de redes P2P


Una disputa ente la sociedad de gestión de derechos de autor belga (Sabam) y una operadora de aquel país, Scarlet, que se originó en 2004 ha llegado al Tribunal Europeo. El tema central es la negativa del proveedor de acceso a instalar un sistema de filtrado de las redes P2P para perseguir el intercambio de obras protegidas por derechos de autor. En 2007, un tribunal dio la razón a Sabam y Scarlet recurrió. El tribunal de apelación envió una consulta al Tribunal Europeo para saber el criterio comunitario en esta cuestión. En la documentación publicada por éste, figura la respuesta de la Comisión Europea que admite la imposición de un filtrado por parte del proveedor de acceso pero acota su implantación.
Según el texto remitido al tribunal, las directivas europeas no impiden que un juez nacional pueda ordenar a un proveedor de acceso instalar un sistema de filtrado "destinado a identificar en su red la circulación de archivos electrónicos relativos a una obra musical, cinematográfica o audiovisual sobre la que el demandante aduce tener los derechos y bloquear la transmisión de los mismos sea a nivel de la petición o con ocasión de su envío". Con todo, el juez debe vigilar que esta medida sea "proporcional atendiendo al objetivo perseguido y a los diferentes derechos en juego". El juez debe tomar la decisión teniendo presente la naturaleza y las medidas concretas de filtrado y su eventual impacto sobre la privacidad de las comunicaciones. Asimismo debe instaurar "un cierto número de garantías procesales" para encuadrar la puesta en marcha del filtrado.
El tribunal belga había preguntado al europeo si se podía exigir la instalación de un sistema de filtrado a título preventivo, sobre toda la clientela y a costa del proveedor de acceso de todas las comunicaciones electrónicas transitando por su servicio, "en particular por el empleo de programas P2P, para identificar en su red la circulación de archivos electrónicos conteniendo una obra musical, cinematográfica o audiovisual sobre la que el demandante pretende tener derechos" y su bloqueo.
En el informe del tribunal europeo se recogen las opiniones de distintos gobiernos sobre la cuestión. El belga, por ejemplo, considera que no se puede imponer una obligación genérica de filtrado, por tiempo indefinido, pero sí que un juez puede ordenar medidas de vigilancia temporales en un caso concreto.
El gobierno holandés y finlandés consideran que es imposible que pueda ordenarse la implantación de un sistema obligatorio, general, preventivo y sistemático de filtrado.
Scarlet había argumentado ante los tribunales belgas que un sistema de filtrado y bloqueo como el que se le exigía era ineficiente y podía conducir al bloqueo de archivos ajenos al pleito.

Tinta electrónica para camuflar tanques

BAE Systems, compañía de defensa británica, está trabajando en una nueva tecnología de camuflaje basada en la tinta electrónica. Esta nueva tecnología se encargaría de proyectar imágenes en tiempo real del entorno sobre el exterior de los vehículos, consiguiendo el efecto camuflaje.


Como es lógico, este efecto se conseguiría con cámaras y sensores gracias a los cuales la tinta electrónica produciría el camuflaje sobre la superficie del vehículo en cuestión.
El asunto parece sacado de una película de ciencia ficción, pero desde BAE afirman que este sistema podría estar listo para su uso en el campo de batalla en apenas cinco años.


Según los datos recogidos de un estudio de NPD Group, la consola Xbox 360 habría aumentado sus ventas en un 42 por ciento, lo que la convertiría en la única plataforma que vendió en 2010 más unidades que en 2009.


A pesar de ello, en la batalla navideña entre Kinect y la Wii gana esta última, que en diciembre consiguió vender 2.3 millones de unidades por 1.9 millones que logró el dispositivo de Microsoft, aunque este se ha llevado una alegría con las espectaculares ventas de su juego Call of Duty Black Ops.
Nintendo, por su parte, espera que su nueva consola portátil 3DS le permita aumentar sus cifras de ventas globales en 2011.


El estudio de NPD Group también ha resaltado que las descargas de juegos para dispositivos móviles y los juegos en las redes sociales aumentaron durante 2011.

En la parte del informe que analiza el dinero gastado por los consumidores en videojuegos, apreciamos que se redujo un 1 por ciento sobre 2009, y se sitúo en torno a los 15.600 millones de dólares, mientras que el dedicado a hardware y otros accesorios descendió un 6 por ciento, sumando un total de 18.600 millones de dólares.

El Gobierno de Estados Unidos canceló este viernes el proyecto de "barrera virtual" que buscaba mejorar la vigilancia en partes de la frontera del país norteamericano con México, y lo reemplazará con otrasmedidas de seguridad.
 
El proyecto, administrado por Boeing Co., ha costado hasta el momento alrededor de 1.000 millones de dólares y busca reunir tecnologías de cámaras, sensores y radares para detectar a quienes intentan cruzar la porosa frontera de forma ilegal.

   La secretaria de Seguridad Nacional Janet Napolitano dijo que en lugar del proyecto se usarán sistemas de vigilancia disponibles en el mercado, naves no pilotadas, imágenes térmicas y otros equipos, después de sugerencias clave hechas por críticos al programa Boeing SBInet.

   "Esta nueva estrategia está hecha a medida para las necesidades únicas de cada región fronteriza, brindando un despliegue más rápido de la tecnología, mejor cobertura y un equilibrio más efectivo entre costo y capacidad", afirmó en un comunicado. Un representante de Boeing no hizo comentarios de inmediato.

   El Gobierno del presidente Barack Obama ha estado bajo presión para aumentar la seguridad y detener el flujo ilegal de inmigrantes que cruzan la frontera entre México y Estados Unidos, además de reducir el contrabando de armas y drogas.

   El año pasado, Obama promulgó una ley de 600 millones de dólares para financiar la contratación de 1.500 nuevos agentes de patrulla fronteriza, inspectores de aduanas y otros funcionarios en la zona limítrofe, además de pagar por dos naves no pilotadas adicionales.

   Así mismo, ordenó el despliegue de unos 1.200 agentes de la Guardia Nacional a la frontera suroeste para ayudar con los asuntos de seguridad.

   El proyecto SBInet ha enfrentado reveses, no superó sus plazos y sus costos se excedieron. El fruto del proyecto había estado en duda por un tiempo, después de afrontar críticas de legisladores demócratas y republicanos, e incluso por parte de Napolitano.

   Una evaluación del programa de Boeing dado a conocer por el Departamento de Seguridad Nacional encontró que se han gastado 1.000 millones de dólares sólo para cubrir la seguridad en 85 kilómetros de la zona limítrofe de Arizona.

   El nuevo esquema debería costar menos de 750 millones de dólares y abarcará el resto de la frontera en el estado, unos 520 kilómetros, sostuvo el Gobierno estadounidense.

   "La decisión del departamento de usar tecnología en una necesidad particular de seguridad de la frontera es un enfoque mucho más sabio, y espero que resulte efectivo", dijo el senador Joseph Lieberman, presidente de la Comisión de Seguridad Nacional del Senado estadounidense.

En Tom´s Hardware han actualizado su ya clásico artículo de las mejores tarjetas gráficas en relación a su precio y su rendimiento. Está claro que este artículo contiene las recomendaciones de la gente de dicha web y es posible que vuestra opinión no concuerde con la suya, pero no cabe duda de que con la avalancha de nuevos productos de NVIDIA y AMD esta lista resultará útil a los menos expertos.
Dentro del segmento de tarjetas gráficas por debajo de los 100 dólares tenemos como opción recomendada a la HD 4650 que, por apenas 50 dólares, es capaz de mover casi todos los juegos actuales a 1280 x 1024 píxeles o a 1680 x 1050 con nivel de detalle bajo. Un poco más arriba tenemos la HD 4670, con un precio de 60 dólares, y la HD 5670 por 80 dólares, siendo esta última la que realmente supondría un salto notable frente a la HD 4650.
Entrando en la gama media tendríamos a la HD 5770 como una de las mejores opciones, ya que por 130 dólares permite mover casi todos los juegos actuales a 1920 x 1200 píxeles. Un nivel por encima, pero dentro todavía de la gama media, tenemos la HD 6850 y la GTX 460 de 1GB, dos tarjetas que quedan prácticamente al mismo nivel y cuyo precio ronda los 185 dólares.
Saltamos ya a la gama alta, donde desde Tom´s Hardware no recomiendan ni una GTX 570 ni una HD 6950 ya que aunque su rendimiento queda cerca del de una solución multi GPU (SLI o CrossFire), su precio es mayor, por lo que por 370 dólares recomiendan un SLI de GTX 460 1GB o un CrossFire de dos HD 6850.
Ya en la gama "entusiasta" vemos que el CrossFire de HD 6870 se sitúa como la opción recomendada ya que, con un precio de 460 dólares, ofrece un rendimiento superior al de una GTX 580 por menos dinero, siendo su consumo también inferior al de un SLI de GTX 470.

Con la tecnología de Blogger.