La Lettre Innovation, Nouveautés, Evènements, et Pratiques des TI
Transcription
La Lettre Innovation, Nouveautés, Evènements, et Pratiques des TI
La Lettre Innovation, Nouveautés, Evènements, et Pratiques des TI N° 12/04 23 Janvier 2012 La pensée de la semaine « Le chemin est long du projet à la chose. chose. » Molière Définition de la semaine : Les raccourcis clavier indispensables sur PC ? http://www.darty-et-vous.com/faqarticle/quels-sont-les-raccourcis-clavier-indispensables-sur-pc.html#ectrans=1 Pour gagner du temps sur un PC, on a inventé les raccourcis clavier. Que de secondes sauvées en préférant systématiquement à la souris ces combinaisons magiques de touches ! Le truc à garder en tête pour en tirer profit, c'est que les raccourcis sont valables quel que soit le logiciel utilisé. N'hésitez donc pas à expérimenter ! Ne reste ensuite qu'à les mémoriser... Vous allez voir, vous allez être plus efficace. Il existe en outre des raccourcis spécifiques pour chaque logiciel : traitement de texte, navigateur internet, tableur, lecteur vidéo... Mais voici les principaux. Niveau basique Rappel pour les non-initiés : si vous rencontrez des difficultés, décomposez ! Exemple : appuyer sur la première touche du raccourci [Ctrl], la maintenir enfoncée avant d'appuyer sur la seconde [C]. C'est copié ! Ctrl + C Copier Ctrl + X Couper Ctrl + V Coller Ctrl + Z Annuler Ctrl + A Sélectionner tout Ctrl + F Chercher un mot dans une page Niveau medium Ctrl + B Mettre en gras Ctrl + H Chercher et remplacer un terme Ctrl + S Enregistrer un fichier Ctrl + O Ouvrir un fichier Ctrl + N Créer un nouveau document Ctrl + P Imprimer Niveau initiés Alt + F4 Ferme le programme/la fenêtre en cours F5 Actualiser F11 Plein écran Alt + tab Permute les fenêtres ouvertes windows + tab Passer d'une fenêtre à une autre avec flip 3D (Vista et Widows 7) Alt + Maj Basculer en clavier AZERTY en clavier QWERTY Windows + flèche du bas Réduit la fenêtre active windows + M (ou D) Réduit toutes les fenêtres pour arriver sur le bureau Ctrl + + Augmenter la taille du texte Ctrl + - Diminuer la taille du texte En utilisant ces raccourcis systématiquement, vous allez gagner temps et efficacité ! Wi-Fi : la cinquième génération approche http://www.lemagit.fr/article/wi-fi/10239/1/wi-cinquieme-generation-approche/ La cinquième génération Wi-Fi a fait ses premiers pas lors du CES, grand messe américaine de l’électronique grand public qui se déroule à Las Vegas. L’événement a en effet été l’occasion pour D-Link et Netgear, notamment, de présenter leurs premiers produits à la norme 802.11ac [encore une fois poussée par les industriels en amont de la finalisation des travaux de la Wi-Fi Alliance, NDLR]. Ils sont attendus sur le marché pour le courant de l’année 2012. Le fondeur Broadcom a de son côté présenté quatre chipsets compatibles. 802.11ac utilise la bande de fréquence des 5 GHz, plus dégagée que la désormais bien encombrée bande des 2,4 GHz utilisée par 802.11b/g et n. La nouvelle norme doit être rétrocompatible avec 802.11a et 802.11n en 5 GHz. Elle promet d’offrir initialement des débits maximum de 1,3 Gbps à l’interface air, contre de 300 à 600 Mbps pour 802.11n. Le streaming vidéo en haute définition fait partie des applications mises en avant par les promoteurs de 802.11ac. Et pour améliorer la fiabilité des liaisons, la norme prévoit la possibilité d’établir des liens directionnels, même avec des antennes classiques. Mais, pour connaître l’impact réel de 802.11ac sur les déploiements réseau, il faudra éprouver son fonctionnement sur le terrain et, notamment, les débits utiles dans différentes configurations. IBM reste le moteur de la propriété intellectuelle avec 6180 brevets déposés en 2011 aux US http://www.silicon.fr/ibm-reste-le-moteur-de-la-propriete-intellectuelle-avec-6180-brevets-deposes-en-2011-aux-etats-unis-70655.html Le groupe informatique IBM a déposé pour la dix-neuvième année consécutive le plus grand nombre de brevets outreAtlantique, 6180 au total en 2011, d’après la société américaine IFI CLAIMS Patent Services. Sans surprise, IBM, multinationale centenaire, a déposé le plus grand nombre de brevets aux États-Unis sur une année, 6180 en 2011 contre 3651 en 2006, selon la société d’études IFI CLAIMS Patent Services (Fairview Research). IBM distance Microsoft et HP Big Blue devance ainsi les poids lourds asiatiques de l’industrie électronique, dont le Sud-Coréen Samsung (4894 brevets) et le Japonais Canon (2821). Suivent au classement : Panasonic (2559), Toshiba (2483), Microsoft (2311), Sony (2286), Seiko Epson (1533), Hon Hai (1514) et Hitachi (1465). À l’exception de Microsoft, les poids lourds américains des solutions et services informatiques professionnels ne font pas partie des dix entreprises ayant déposé le plus de brevets outre-Atlantique en 2011. Ainsi HP, un des plus sérieux concurrents d’IBM, se positionne « uniquement » à la quatorzième place, avec 1308 brevets déposés. Des millions de dollars générés IBM estime à 8000 le nombre de ses collaborateurs installés aux États-Unis et à l’international, ayant contribué à ces dépôts de brevets dans des domaines tels que le commerce, la banque, la santé et les transports. Le groupe a également élargi le champ des technologies informatiques qu’il protège par un brevet. Parmi ces solutions brevetées figurent : une méthode d’octroi de privilèges utilisateur adaptée au commerce électronique ; des systèmes dédiés à l’interprétation automatisée des procédures analytiques dans le domaine du langage ; une méthode pour développer un système informatisé de simulation du cerveau ; une solution dédiée à la conception d’analyses en continu de sources de données volumineuses et hétérogènes. Étude Cigref : Maturité et gouvernance de l’Open Source http://blog.admin-linux.org/logiciels-libres/etude-cigref-maturite-et-gouvernance-de-l%E2%80%99open-source http://www.cigref.fr/cigref_publications/2011/03/maturite-gouvernance-open-source-vision-grandes-entreprises.html Je voulais vous présenter ici une étude qui a été réalisée par le CIGREF, réseau de Grandes Entreprises. Cette étude a pour but de montrer la vision concernant la maturité et la gouvernance de l’open source et des logiciels libres dans les grandes entreprises Françaises. L’approche de cette étude est basée sur trois axes : la gouvernance de l’Open Source, la migration des entreprises vers Open Office, la perception de la maturité de l’Open Source dans les grandes entreprises. Beaucoup d’entreprises ont mis en place une gouvernance de l’open source, ou en utilisent simplement, l’étude va essayer de montrer de quelle manière est géré ou non l’intégration de briques libres dans le système d’information. L’étude de la migration vers OpenOffice va illustrer cette gouvernance. Et enfin le Cigref s’est intéressé à la perception de la maturité des solutions libres et open source dans les grandes entreprises. Il a été identifié trois types de maturité : La maturité technologique, qui est le ressenti qu’ont les entreprises au niveau technologique, la confiance accordée aux solutions libres et open source (Performance, fiabilité, sécurité…) La maturité d’usage, qui correspond à la perception d’utilisabilité des solutions open source et libres selon les besoins de l’entreprise. La maturité de moyens, qui correspond à la capacité des entreprises à investir dans ces solutions libres. Voici un graphique issu de cette étude qui représente la maturité technologique par catégories d’application. Voici le même graphique issu de cette étude, mais pour la maturité d’usage. Et enfin, le même graphique issu de cette étude mais pour la maturité de moyens. J’ai vraiment apprécié cette étude, il y a un vrai regard critique et un vrai recul. C’est pourquoi j’ai décidé de vous la faire découvrir. L’approche est intéressante et permet d’avoir la vision des grands D.S.I. Français. Google Body devient Zygote Body et passe en open source http://www.veilleur-strategique.eu/2454-google-body-zygote-open-source Il y a déjà quelque temps que l’on savait que Zygote Body prenait la relève, maintenant c’est certain, mais un élément important arrive et va plaire à beaucoup de programmeurs et webmasters. Le passage de Google Body à Zygote Body n’est pas qu’un simple passage et changement de nom pour cet outil qui est utilisé par beaucoup d’utilisateurs curieux dans le domaine médical. On apprend que le code source de base de l’application est « Open 3D Viewer » et Open Source, de quoi intéresser certains programmeurs et faire des petites merveilles en 3D. Pour utiliser Zygote Body ou la technologie « Open 3D Viewer », il faudra utiliser un navigateur qui prend en charge le WebGL, par exemple Google Chrome ou FireFox comme l’explique la page de l’article d’information en anglais du blog de Google : Open Source at Google. On apprend ainsi que le seul besoin pour cette application n’est que le WebGL. Pour aider l’équipe de Zygote Body, l’équipe de Google Body a en fait mis en place un projet « Open Source » qui est donc le « Open 3D Vierwer » sur lequel Zygote Body se base. Ce code source étant disponible au grand public, vous pouvez si vous le souhaitez utiliser donc cette technologie pour faire vous aussi votre application 3D utilisable avec les navigateurs de dernière génération. Chose amusante avec l’article en anglais de Google, c’est le souvenir du précédent 1er avril avec l’utilisation de cette technologie pour explorer le corps d’une vache, comme vous pouvez le découvrir en vidéo. « Open 3D Viewer » est disponible: Code Google. L'iPhone 5 sera-t-il vingt fois plus puissant que son prédécesseur ? http://www.01net.com/editorial/553060/l-and-039-iphone-5-sera-t-il-vingt-plus-puissant-que-son-predecesseur/ La machine à rumeurs n'a pas à nouveau parlé. C'est Imagination, responsable de la création des puces graphiques qui motorisent l'iPhone et l'iPad, qui a annoncé une nouvelle génération de puces beaucoup plus puissantes. Imagination n'est pas forcément très connue du grand public. Pourtant, cette société britannique est au cœur des performances de l'iPhone et de bon nombre de smartphones et tablettes. Ainsi, l'iPhone 4S embarque une puce Imaginaton double cœur Power Series 5XT (SGX543MP2, pour être précis). Ne pas être connu ne veut pas dire qu'on ne fait rien pour mériter des lauriers. Ainsi, lors du CES de Las Vegas, Imagination a annoncé sa nouvelle génération de puces graphiques pour plates-formes mobiles, la Series 6, nom de code Rogue. Ces puces seraient jusqu'à vingt fois plus performantes que celles de la génération actuelle en termes de puissance brute. Elles sont par ailleurs compatibles avec les technologies OpenGL ES, Open CL et DirectX 10 (comme les puces actuelles). Quelques nouveaux modèles étant même compatibles avec certaines fonctions DirectX 11. Un monstre de puissance ? On se prend alors à rêver à la présence de ces nouveaux monstres de puissance dans l'iPhone 5. Pourtant les Series 6 n'étant présentées que maintenant, il paraît difficile d'imaginer qu'Apple va changer sa configuration de test, surtout si l'iPad 3 est, selon les dernières rumeurs, destinée à la mise sur le marché en mars ou avril. Or, l'iPhone 5, attendu à l'automne, devrait offrir une configuration très proche. Ce sera tout au moins le cas, si Apple continue à respecter le même schéma de construction de sa gamme. De fait, même si ces nouvelles puces d'Imagination sont compatibles avec les puces Series 5, il serait trop tard pour l'iPhone 5 et l'iPad 3... Ce serait donc pour la prochaine génération ? Pour l'iPhone 6 ? Prudence et patience, même s'il est vrai que ce serait un bon moyen pour Apple de relancer son iPhone et de conforter l'hégémonie de son App Store face à une concurrence de plus en plus collante. Le compteur électrique communicant qui étale votre vie privée http://www.01net.com/editorial/553084/le-compteur-electrique-communicant-qui-etale-votre-vie-privee/ Le nouveau compteur électrique Linky d'ERDF a été piraté par un petit groupe de hackers allemands. Ce qu'ils y ont découvert fait un peu froid dans le dos. Le compteur électrique intelligent d'ERDF baptisé Linky en France, ou Smart Meter à l'étranger, a dès sa sortie été l'objet de nombreuses critiques. D'une part, son prix exorbitant (entre 120 et €240) pourrait, malgré l'engagement pris d'ERDF pour une gratuité, être pris en charge par le consommateur. Par ailleurs, en décembre 2010, l'Agence de l’environnement et de la maîtrise de l’énergie (ADEME) déclarait que « si le compteur Linky, tel qu’il est actuellement conçu, apporte des bénéfices en termes de comptage et de gestion du réseau électrique, voire de diminution du contenu CO2 du kWh électrique, ses bénéfices pour le consommateur en termes de maîtrise de la demande restent encore théoriques ». Ce qui a poussé les élus Europe Ecologie/Les Verts de la ville de Paris à rejeter la décision ministérielle d'installation de l'appareil. Enfin, ce sont surtout ses aptitudes à communiquer des données bien plus personnelles que de simples relevés de consommations électriques qui ont fait le plus de remous. Et c'est précisément sur ce point délicat que nos « pirates technophiles » allemands entrent en scène. En « hackant » le petit boîtier, ils se rendent compte qu'il est capable d'identifier exactement le type et le nombre d'appareils connectés dans votre foyer. Pratique pour automatiser le paiement de la redevance audiovisuelle ! Pire, il peut même savoir précisément la chaîne de télé que vous êtes en train de regarder ! Sur le modèle testé fourni par une société allemande, ils s'aperçoivent que toutes les données transitaient entre le compteur et les serveurs de manière non cryptées.Enfin, poursuivant leurs investigations, ils falsifient les données envoyées à l'aide d'un programme d'émulation, faisant croire que le foyer raccordé au Smart Meter n'avait pas consommé d'électricité pendant deux mois ! Et d'après eux, le piratage de l'appareil est à la portée de tous ou presque, à l'aide de simples outils Windows. Dell a toujours des ambitions dans les tablettes http://www.lemondeinformatique.fr/actualites/lmi/lire-dell-a-toujours-des-ambitions-dans-les-tablettes-47377.html Malgré ses déboires sur le marché des tablettes, Dell ne renonce pas à ce marché et devrait revenir en fin d'année avec un produit peut être basé sur Windows 8. Malgré l'échec de ses tablettes professionnels Streak 5 et 7, que Dell a cessé de commercialiser entre août et décembre derniers, le Texan semble toujours vouloir percer sur ce marché. Interrogé par l'agence Reuter, Steve Felice, le directeur commercial de du fabricant, a indiqué que ce dernier devrait en effet lancer un modèle, grand public cette fois-ci, vers la fin de l'année 2012. « Dell prend son temps », a indiqué le représentant de Dell. Une façon de dire que le fabricant souhaite éviter les échecs qu'ont connu HP et RIM, avec des tablettes moins bien conçues que celles des deux leaders du marché, Apple et Samsung. Soigner l'écosystème autour de la tablette Dell reconnaît que le succès d'une tablette ne repose pas uniquement sur sa configuration matérielle. De fait, il consacre beaucoup de temps à développer l'écosystème qui devra accompagner son nouveau produit. « Quand on parle de PC, les gens se focalisent sur l'aspect matériel. Lorsqu'il s'agit de tablette ou de smartphone, ils s'intéressent à tout ce qui entoure le dispositif pour assurer son fonctionnement. » Hormis le fait d'annoncer la date approximative de livraison de sa future tablette, Dell se garde bien de fournir plus de détail. Le constructeur ne souhaite notamment pas indiquer si le produit fonctionnera sous Windows 8 ou Android. Fruit du hasard ou non, sa sortie est en tous cas programmée à la même période que celle de Windows 8, la version de l'OS de Microsoft optimisée pour les tablettes. Un jeu Google Maps sur Chrome http://www.memoclic.com/624-google-maps/15678-jeu-google-maps-chrome.html Google va lancer un nouveau jeu utilisant la cartographie de Google Maps et disponible sous le navigateur Google Chrome. Le géant de la recherche vient d’annoncer le lancement prochain d’un jeu basé sur la cartographie de Google Maps et disponible sur le navigateur Google Chrome. Google Maps Game, c’est le nom de ce nouveau jeu à venir signé Google et qui sera notamment disponible sur le navigateur Google Chrome. Le principe n’a rien de bien compliqué puisqu’il s’agit de diriger une petite boule bleue. Celle-ci se baladera ainsi sur un plan de ville de votre choix du service de cartographie Google Maps. Le géant de la recherche ne cache pas ses intentions dans le domaine du jeu en ligne, et notamment via son fureteur Google Chrome. Ce dernier propose d’ailleurs déjà bon nombre de jeux sur son magasin d’applications, le Chrome Web Store. Et parce que Google peut difficilement se passer de la dimension sociale, les joueurs pourront également comparer leurs résultats via le réseau social Google +. Les allergiques à Flash peuvent d’ores et déjà se rassurer, il ne sera pas nécessaire d’installer un tel plug-un pour jouer à Google Maps Game. Ce dernier s’appuiera sur la technologie WebGL et Chrome fera donc amplement l’affaire. CES 2012 : Le smartphone Android le plus fin du monde est chinois http://www.silicon.fr/ces-2012-le-smartphone-android-le-plus-fin-du-monde-est-chinois-70705.html Huawei a présenté l’Ascend, un smartphone de moins de 7 mm d’épaisseur. Un modèle avec lequel le fabricant chinois compte bien imposer sa marque propre. Plus connu pour ses solutions de réseau de télécommunications et d’entreprise, Huawei produit également des téléphones, essentiellement en marque blanche, pour ses clients opérateurs. Mais le constructeur chinois a bien l’intention d’imposer son emprunte et sa marque sur le marché des smartphone. Une stratégie déjà initiée (et similaire à celle de son compatriote ZTE) qui se renforcera à coup d’innovations. Huawei a donc profité du CES 2012 de Las Vegas pour présenter le smartphone le plus fin du monde, rapporte nos confrères de Gizmodo.fr. L’Accent P1 S étonne effectivement par sa finesse de seulement 6,68 mm d’épaisseur. Un record jusqu’alors détenu par le Razr de Motorola avec 7,1 mm sur tranche. Ice Cream Sandwich aux commandes Les spécifications de l’Accent P1 S ne sont pas en reste. Son écran Super Amoled en verre Corning Gorilla Glass (la seconde version du Gorilla Glass) de 4,3 pouces affiche ainsi une définition de 960 x 540 pixels. Il embarque la plate-forme OMAP 4460 de Texas Instrument laquelle intègre deux cœurs Cortex-A9 cadencés à 1,5 GHz. Le tout est alimenté par une batterie de 1800mAh. L’ensemble tourne sous Android 4 (Ice Cream Sandwich). « Le Ascend P1 S est une preuve de plus de notre engagement permanent à innover avec des appareils de haute qualité équipés des toutes dernières technologies matérielles et logicielles », s’est félicité Richard Yu, président de Huawei Device. Annoncé pour juin en France En parallèle, Huawei en a profité pour dévoiler un autre smartphone, l’Ascend P1 qui partage nombre de caractéristique du P1 S mais s’en trouve légèrement plus épais (7,69 mm) avec une batterie de 1670mAh. Les deux terminaux disposent de deux capteurs (8 Mpx en face arrière et un 1, 3 Mpx en façade). Les deux Ascend ont donc le profil pour attirer l’intérêt des consommateurs et renforcer la présence de Huawei en tant qu’acteur dynamique sur le marché des smartphones en France où ses terminaux sont proposés chez Bouygues Telecom. Les smartphones Ascend seront distribués à partir d’avril prochain dans la plupart des régions du monde. En France, l’Ascend devrait débarquer courant juin. Samsung : Bada fusionne avec Tizen http://www.igeneration.fr/0-apple/samsung-bada-fusionne-avec-tizen-74742 Samsung et Intel collaborent sur la fusion Bada et Tizen. Tizen est le nom choisi en septembre pour rebaptiser Meego. Lui-même le fruit du rapprochement de Maemo (Nokia, avant qu'il ne s'en aille vers Microsoft) et Moblin (Intel). Un jeu de poupées russes qui voit Samsung diriger son OS maison dans une nouvelle direction. Le coréen avait un temps parlé d'une possible orientation vers l'open source pour Bada, et ce à compter de 2012. Tizen est depuis l'automne dernier un projet open source hébergé par la fondation Linux et dirigé par Intel, la fondation LiMo (Access, NEC Casio, NTT DoCoMo, Samsung, SK Telecom, Telefonica, Vodafone et Panasonic) ainsi que Samsung. L'évolution annoncée à l'époque pour Tizen le portait vers l'HTML5. Tae-Jin Kang, un VP de Samsung, a expliqué à Forbes que le projet de fusionner les deux plateformes était en cours, sans date pour son achèvement. La rétrocompatibilité du futur OS avec les applications Bada est prévue et les développeurs Bada devraient retrouver un SDK et des API identiques. Bada est ce système que l'on trouve sur les smartphones d'entrée de gamme de Samsung, les Wave, des modèles particulièrement populaires en France, Allemagne, Italie et Russie. D'ailleurs fin novembre c'est d'abord dans l'hexagone que Samsung a lancé son Wave III équipé de Bada 2 (lire aussi France : Samsung devance nettement Apple). Samsung utilise aujourd'hui pas moins de quatre OS mobiles : Bada, Android, Windows Phone et Tizen qui devrait figurer dans « au moins un ou deux téléphones » ces prochains mois avant de fusionner. Forbes rappelle que la part de marché de Bada dans le monde, estimée à 2%, est supérieure à celle de Windows Phone. Office sur iPad grâce à une application cloud gratuite http://www.zdnet.fr/actualites/office-sur-ipad-grace-a-une-application-cloud-gratuite-39767447.htm#xtor=EPR-100 OnLive Desktop va lancer une application iPad gratuite qui permet d’utiliser les versions originales de Word, Excel et PowerPoint hébergées dans le nuage. Alors que Microsoft travaille encore au portage d’Office sur iPad, les suites bureautiques alternatives n’ont pas manqué d’occuper le terrain (iWorks, Quickoffice, Documents To Go). Mais voici qu’une application va très bientôt permettre d’utiliser les « vrais » logiciels Word, Excel et PowerPoint sur latablette Apple. Et qui plus est, elle est gratuite ! Il s’agit de OnLive Desktop qui sera disponible dans quelques jours sur l’App Store. OnLive s’est déjà fait connaître avec son service cloud de jeux vidéo qualité console accessibles en streaming. OnLive Desktop reprend le même principe. Une fois l’application installée et un compte OnLive créé, les utilisateurs d’iPad se connectent à un environnement sous Windows 7 depuis lequel ils pourront lancer Word, Excel ou PowerPoint. Tout se passe depuis les serveurs OnLive et les fichiers sont stockés sur un espace en ligne de 2 Go. Connexion Internet d’au moins 1,5 Mo indispensable Walt Mossberg, le chroniqueur du Wall Street Journal, a testé l’application en avant-première et assure qu’elle fonctionne exactement comme une version normale d’Office, sans temps de latence. Mais il souligne cependant qu’il vaut mieux disposer d’une connexion Internet d’au moins 1,5 Mbps. Il y a tout de même quelques restrictions, à commencer par le fait que l’application ne propose pas de mode hors connexion. Par ailleurs, Mossberg précise qu’en cas d’affluence sur les serveurs, il faudra attendre son tour pour accéder au service. C’est là sans doute la contrepartie de la gratuité. OnLive a prévu de proposer une version Pro payante à $10 / mois qui assurera un accès prioritaire aux serveurs, 50 Go d’espace de stockage, la possibilité d’installer des programmes additionnels et un mode collaboratif. Enfin, OnLive Desktop sera aussi proposé sur les terminaux Android, l’iPhone, les PC et les Mac. GPU mobile PowerVR 6 jusqu’à 1 téraflops : mais que reste-t-il aux offres desktop ? http://www.silicon.fr/gpu-mobile-powervr-6-jusqua-1-teraflops-mais-que-reste-t-il-aux-offres-desktop-70643.html Imagination Technologies vient de présenter ses nouveaux GPU mobiles, qui seront jusqu’à vingt fois plus rapides que précédemment. Une aubaine pour les smartphones et tablettes. Jusqu’où iront les solutions graphiques présentes dans nos terminaux mobiles ? Fin 2011, ARM levait le voile sur le Mali-T658. Du haut de ses huit unités de traitement, ce GPU propose une puissance de calcul dix fois supérieure à celle de l’actuel Mali-400 MP. C’est aujourd’hui au tour d’Imagination Technologies de se jeter dans la bataille. Dans le cadre du CES 2012 de Las Vegas, la société a présenté sur ses PowerVR G6200 et G6400, deux GPU mobiles surpuissants. Ils se montrent jusqu’à vingt fois plus rapides que les actuels PowerVR. De quoi booster sérieusement les performances graphiques des smartphones et tablettes, chose d’autant plus vraie que les PowerVR de la série 5 sont d’ores et déjà parmi les offres les plus rapides du marché. Des monstres de calcul Ces nouveaux GPU proposeront également un support de l’OpenCL, ce qui permettra de les exploiter dans le cadre de calculs massivement parallèles. Imagination Technologies reste toutefois assez vague en termes de performances, en évoquant une puissance de calcul comprise entre 100 gigaflops et 1 téraflops. Pour information, le Mali-T658 affichera une puissance de calcul maximale de 272 gigaflops en simple précision. Quant au GPU mobile GeForce intégré au dernier Tegra 3 de NVIDIA, s’il propose des performances en net progrès, il ne supporte pas Cuda. Il faudra pour cela attendre son successeur. Ericsson invente le transfert de données par le corps humain http://www.01net.com/editorial/553064/ericsson-invente-le-transfert-de-donnees-par-le-corps-humain/ Le PDG d’Ericsson, Hans Vestberg, a fait une étonnante démonstration lors de sa conférence de presse au CES de Las Vegas le 11 janvier 2012. Tenant un smartphone dans une main et touchant un téléviseur de l’autre, son corps a servi de conducteur pour transférer une photo de l’un à l’autre, sans câble ni signal radio d’aucune sorte. Baptisée Capacitive Coupling, cette technologie consiste à utiliser le corps humain pour faire transiter des données. Elle utilise pour cela le faible courant électrique existant à la surface de la peau de chaque individu. « Au final, nous sommes le réseau », a conclu le PDG d’Ericsson en décrivant son projet de recherche. Cette démonstration ouvre de nombreuses perspectives comme de pouvoir échanger un contact, un numéro de téléphone ou une photo par une simple poignée de main. Pour le moment, cette technologie reste encore dans les laboratoires. On espère qu’elle en sortira vite. Connections 4.0 : IBM annonce une nouvelle version de son réseau social http://pro.clubic.com/entreprises/ibm/actualite-470208-ibm-facebook-entreprise.html#ixzz1jnsCuVHE Lors de sa conférence américaine, IBM a dévoilé la 4ème version de son outil collaboratif : Connections. L'objectif de cette nouvelle mouture est l'intégration des contenus issus des blogs et autres wiki tout conservant les e-mails, l'agenda et les divers flux d'activités. IBM vient de dévoiler lors de sa conférence Lotusphere les principales améliorations de sa plateforme sociale. Big Blue promet d'ajouter une dose d'analyse dans son réseau afin de le rendre plus pertinent. L'objectif est clairement affiché de proposer à l'utilisateur un ensemble de contenus personnalisés. La firme propose d'analyser en temps réel l'ensemble des flux et de les analyser en fonction du comportement du collaborateur. Grâce à cette analyse fine, ce dernier se verra proposer un tableau de bord optimisé selon ses habitudes. Pour ce faire, Connections 4.0 promet de mieux prendre en compte non seulement les blogs mais également les wiki. L'outil utilise la fonction « Activity Stream » qui autorise la gestion et le partage des tâches à l'ensemble des communautés de la sphère professionnelle. La solution fait donc le pont entre l'activité sociale et le partage de documents entre collaborateurs. Selon le New York Times, Connections 4.0 conservera la partie e-mails, l'agenda et les divers flux d'activités tout en permettant d'accéder aux messageries Lotus Notes et Microsoft Exchange. Elle passera même dans le Cloud afin d'être utilisée depuis les mobiles via la solution SmartCloud d'IBM. Connections 4.0 devrait prendre en compte l'ensemble des terminaux Apple, BlackBerry mais également sous Android. Par contre, aucune date de commercialisation n'a été annoncée. Les futurs smartphones Apple et Samsung étanches ? http://www.businessmobile.fr/actualites/les-futurs-smartphones-apple-et-samsung-etanches-39767562.htm#xtor=EPR-10010 Les deux constructeurs seraient intéressés par le procédé d’étanchéité présenté au CES par la société HzO. Une technologie capable de rendre étanche à l’eau les composants électroniques pourrait bientôt être adoptée par Apple et Samsung dans leurs futurs smartphones. Film de protection C’est ce qu’affirme la société HzO à l’origine de cette innovation qui a été présentée lors du dernier Consumer Electronic Show. Il s’agit d’un film de protection à l’échelle nanométrique qui est appliqué sur les composants au moment de l’assemblage d’un appareil électronique. Pour démontrer la fiabilité de sa technique, HzO a trempé dans l’eau de manière prolongée différents smartphones dont un iPhone et des modèles Samsung et Motorola. D’après le site Pocket-lint, HzO serait en discussions avec Apple et Samsung ainsi qu’un fabricant de casques audio et des contrats pourraient être officialisés prochainement. R&D : des microcapsules de métal liquide au secours des circuits en panne http://www.zdnet.fr/actualites/r-d-des-microcapsules-de-metal-liquide-au-secours-des-circuits-en-panne-39767567.htm#xtor=EPR-100 Des chercheurs américains ont mis au point un système qui permet aux produits électroniques de restaurer instantanément la conductivité électrique lorsqu’un circuit tombe en panne C'est une invention qui pourrait contribuer à régler le vaste problème mondial des déchets électroniques. Aujourd’hui, les produits électroniques grand public sont jetables: si votre ordinateur portable tombe en panne, un composant est remplacé, et non réparé. Or une trouvaille des chercheurs de l’université de l’Illinois permet aux produits électroniques de restaurer instantanément la conductivité électrique lorsqu’un circuit tombe en panne. Scott White, professeur en aérospatiale, et Nancy Sottos, professeur en génie et science des matériaux, ont développé un système qui élimine la nécessité de circuits redondants ou de systèmes de surveillance en utilisant des polymères spéciaux. Dans leur laboratoire, les chercheurs ont réparti des microcapsules (d’un diamètre de seulement 10 µ) contenant du métal liquide sur une ligne électrique en or qui fonctionne comme un circuit. L’ITU veut standardiser le M2M dans le secteur de la e-santé http://www.lemagit.fr/article/standards-telecoms-m2m/10265/1/l-itu-veut-standardiser-m2m-dans-secteur-sante/ La très sérieuse Union internationale des télécommunications (ITU - International Telecommunication Union) a décidé de prendre à bras le corps la standardisation des solutions de M2M (machine to machine). L’organisation, dont l’une des missions est de travailler à l’élaboration de standards, a annoncé la création d’un groupe de travail (Focus Group) censé étudier le paysage mondial du M2M et analyser les différentes initiatives liées à sa standardisation dans chaque région du globe. Objectif : définir les besoins et les exigences techniques afin d’en dégager un cahier des charges précis pour chaque secteur. Si la vocation de ce groupe de travail est, à terme, d’étudier l’utilisation du M2M sur certains marchés cibles verticaux, comme le paiement, la gestion de flotte, les systèmes de transport intelligents ou encore la sécurité et la surveillance, il adressera en premier lieu celui de l’e-santé. Un secteur de plus en plus consommateur d’objets connectés, à l’image des nombreux gadgets que l’on connecte à son smartphone (on parle de M-Santé). Mais surtout un segment qui devrait prendre son envol avec l’arrivée en masse des solutions de télémédecine. En France, par exemple, le décret d’application de la télémédecine est en place depuis un an. Reste donc à garantir l’intéropérabilité de chaque objet d’e-santé connecté. L’ITU a ainsi défini une feuille de route précise des chantiers à entreprendre via ce groupe de travail. Dans un communiqué, il indique que 3 sous-groupes prendront forme : l’un en charge d’identifier et de définir les cas d’usages et de services M2M, un second autour des besoins et un troisième axé sur les API et les protocoles. Les géants du net ouvriront des accès IPv6 permanents le 6 juin 2012 http://pro.01net.com/editorial/553262/les-geants-du-net-ouvriront-des-acces-ipv6-permanents-le-6-juin-2012/ Des FAI comme AT&T ou Free, des géants du contenu comme Facebook ou Google activeront des accès IPV6 permanents. Les accès IPv4 actuels continueront de fonctionner. La migration progressive de l'ensemble du net mondial vers le nouveau système d'adressage IPv6 devrait connaître une étape majeure le 6 juin 2012. Ce jour-là, en effet, de grands noms de l'internet ouvriront des accès permanents sous protocole IPv6, qui fonctionneront simultanément avec l'actuel système d'adressage IPv4, en bout de course, faute de nouvelles adresses IP disponibles. Cet événement, préparé par l'organisation américaine Internet Society, qui fête ses 20 ans en 2012, regroupera des FAI (fournisseurs d'accès) comme l'Américain AT&T, le Japonais KDDI ou le Français Free (pionnier en matière de migration vers IPv6) et des géants américains du contenu web comme Facebook, Google, Bing (Microsoft) et Yahoo. Tous ces acteurs s'engagent à mettre en service de manière permanente les accès IPv6 auprès de leurs abonnés (pour le FAI) ou les internautes (disposant via leur FAI d'un accès IPv6). Coexistence d'IPv6 et d'IPv4 Selon l'Internet Society, les FAI participant à cette journée s'engagent à déployer le nouvel adressage dans leur infrastructure pour qu'au moins 1% de leurs abonnés fixes surfant sur les sites web participant à l'événement (Google, Yahoo...) puisse le faire en IPv6. Deux équipementiers réseaux, Cisco et D-Link, participent aussi à cet événement. Les accès internet actuels en IPv4 continueront de fonctionner, le but de cette opération étant d'offrir aussi parallèlement la possibilité permanente d'une communication IPv6 d'un bout à l'autre de la chaîne. La technique dite de la double pile protocolaire IPv4 et IPv6 permet une telle coexistence au sein d'une infrastructure publique IP. La journée du 6 juin 2012 succédera à un autre événement de même nature qui eut lieu le 8 juin 2011. Cette journée mondiale d'expérimentation servit de test grandeur nature aux acteurs du net pour révéler l'état de migration vers IPv6 des différents composants de la connectivité internet (clients, réseaux, serveurs hôtes). Amazon Web Services launches NoSQL effort: Here comes some disruption http://www.zdnet.com/blog/btl/amazon-web-services-launches-nosql-effort-here-comes-some-disruption/67296?tag=nl.e539 Amazon’s DynamoDB is a big data enabler that will give enterprises an avenue to try non-traditional databases. Amazon Web Services has launched DynamoDB, a NoSQL database that the e-commerce giant uses to crunch its big data, in a move that’s likely to entice enterprises to try out alternatives to relational databases. According to Werner Vogels, CTO of Amazon, the company has been refining its DynamoDB for the last 15 years. Amazon used AWS’s NoSQL as a service effort during the recent peak holiday season. In other words, the service is battle tested. “The DynamoDB is designed for seamless scalability with no database administration,” said Vogels in an interview. The specifics of the Amazon DynamoDB service break down like this: • Amazon manages the NoSQL database and scales it up and down without downtime or performance degradation. • Admin responsibilities are handled by Amazon. • Hardware provisioning, replication, setup, patching and scaling are also handled by Amazon. • The service automatically partitions and re-partitions data based on applications. • Pricing starts with a free tier with 100MB of storage, five writes and 10 reads per second (40 million requests per month). Further pricing is based on the number of requests and provision and 10,000 reads per second will run you $1 an hour. Other pricing depends on how much data is used per month. • The service integrates Amazon Elastic MapReduce, which allows for the analysis for large datasets on a Hadoop framework. The service is also integrated with Amazon’s S3 storage service. • Amazon’s Cloud Drive, advertising platform and Kindle are powered by the NoSQL service. How’s this disruptive? Amazon’s DynamoDB effort is going to allow many companies to take big data for a spin. One key hurdle for companies interested in NoSQL databases was the administration and hardware requirements. With Amazon’s NoSQL service it’s more likely that enterprises will try out big data. As a result, relational databases could take a hit. Comparatif Antivirus 2012 : quel est le meilleur antivirus ? http://www.clubic.com/article-77079-4-guide-comparatif-meilleur-antivirus.html#ixzz1jtv9A26h Que dire au terme de ce comparatif, si ce n'est « on prend les mêmes et on recommence » ? Nos préférences ne changent pas fondamentalement par rapport à 2011, et on continuera à distinguer 4 valeurs sûres : BitDefender, F-Secure, NOD32 et Kaspersky, avec tout de même un bémol pour ce dernier, car la version 2012 nous a paru particulièrement gourmande. La bonne surprise de cette année réside dans G Data : l'antivirus allemand nous a semblé avoir gommé les problèmes d'impact sur les performances constatés les années précédentes, et nous pensons aujourd'hui qu'il s'agit d'un très bon choix pour un utilisateur recherchant une protection ciblée sur l'essentiel (fichiers, web et mail/IM) et des fonctionnalités et une interface minimalistes. Du côté des gratuits, pas de chamboulement à l'horizon non plus : les logiciels se maintiennent avec leurs qualités et leurs défauts. Nos préférés demeurent Avast et Microsoft Security Essentials, le premier pour ses fonctionnalités assez étendues pour un gratuit, le second pour son efficacité et sa discrétion. Avira et AVG ne déméritent pas pour autant. Ce sont de bons antivirus que l'on recommandera tout de même essentiellement à des utilisateurs avertis : leur protection n'est pas forcément aussi complète que d'autres concurrents, et s'ils suffiront à un utilisateur sachant à peu près ce qu'il fait et où il va, ils seront peut être un peu justes pour un néophyte peu prudent. Pour ce dernier public, justement, Norton Antivirus ou McAfee Antivirus Plus demeurent des choix à considérer : leurs fonctionnalités pourront sembler un peu « usine à gaz » pour la plupart des utilisateurs, mais ce défaut se transformera en avantage chez des utilisateurs ayant justement besoin d'être pris en charge par une solution intégrée. De manière générale, on peut se féliciter de ne pas voir finalement, parmi ces antivirus, de mauvais produit. De manière générale, tous offrent au moins un degré de protection correct, et une interface suffisamment simple à appréhender pour ne pas nécessiter de connaissances avancées, même si certains visent, via leurs fonctionnalités avancées, un public plus « power user », comme NOD32 ou Kaspersky. Notre seule déception concerne PC Tools Spyware Doctor avec Antivirus, qui nous a posé quelques problèmes de stabilité sur certaines configurations, sans qu'il soit réellement possible de savoir si cela vient de l'antivirus ou de notre configuration de test : nous avons réussi à reproduire le plantage sur un autre PC… Mais faire fonctionner l'antivirus sans souci sur un 3e ! Nous leur laisserons donc le bénéfice du doute, sachant que par ailleurs, l'antivirus de la division de Symantec se défend assez bien. Terminons sur les bons conseils d'usage : si un antivirus vous offrira une sécurité supplémentaire, le meilleur réflexe pour rester à l'abri des menaces est également de faire attention où on met les pieds sur la toile, et de se méfier des fichiers transférés sur des clés USB ou autres périphériques externes. Un PC mis fréquemment à jour vous tiendra également davantage à l'abri, de nombreuses menaces exploitant encore des failles patchées depuis bien longtemps, misant justement sur l'absence de vigilance des utilisateurs à ce sujet. La NSA dévoile une version sécurisée d'Android http://www.lemondeinformatique.fr/actualites/lire-la-nsa-devoile-une-version-securisee-d-android-47450.html National Security Agency (NSA) a publié une version plus sécurisée d'Android baptisée SE. Elle propose le renforcement des politiques de sécurité sur le contrôle d'accès des applications. Le projet Android SE est basé sur des recherches antérieures de la NSA sur les contrôles d'accès obligatoires, qui a donné naissance au programme Linux SE (Security Enhanced) en 2000. Ce dernier est une collection de modules de sécurité destinés au noyau Linux et d'autres outils qui restreignent l'accès aux ressources par l'utilisateur ou les applications. Au fil des ans, la plupart des modifications de faible niveau sur Linux SE ont été intégrées dans le kernel classique de Linux. Elles ont également été portées sur Solaris et FreeBSD. La NSA a révélé l'année dernière à la conférence sur la sécurité de Linux, son plan pour le portage de Linux SE sur l'OS mobile de Google dans le cadre du projet Android SE. La première version a été publiée le 6 janvier. Android SE améliore le modèle de sécurisation des applications sur Android classique, qui est basé par défaut sous Linux par un contrôle d'accès discrétionnaire (DAC). Sous DAC, une application lancée par un utilisateur a accès à tous les fichiers et les ressources disponibles. Ce qui change avec Android SE est que les ressources accessibles pour une application pourront être limitées par une politique définie. L'objectif est de limiter les dégâts d'une attaque exploitant certaines vulnérabilités. Eviter le piratage via des outils exploitant les failles Beaucoup d'outils de piratage pour Android comme GingerBreak, Exploid ou RageAgainstTheCage, ciblent des failles dans les services de l'OS mobile. Par exemple, GingerBreak profite d'une vulnérabilité dans vold, le volume daemon d'Android (programme d'amorçage), qui fonctionne comme un root (donnant toutes les permissions sur le système). La version SE de l'OS mobile peut bloquer cette méthode à différentes étapes de son exécution, en fonction du niveau des politiques de sécurité appliquées. Malheureusement, l'installation d'Android SE sur des terminaux n'est pas aussi simple que d'autres versions personnalisées de l'OS mobile de Google. Le projet ne fournit pas de programmes pré-compilés. Les utilisateurs intéressés par le déploiement d'Android SE doivent d'abord télécharger et travailler le code source d'AOSP (Android Open Source Project).Ils doivent ensuite le synchroniser avec Android SE pour lui appliquer des modifications et des correctifs. Le site du projet contient les indications pour procéder. Il rappelle notamment que ce projet s'adresse aux entreprises et organismes qui ont besoin de mettre en œuvre des politiques strictes de contrôle d'accès similaires à celles certifiées par le ministère américain de la Défense. Reste à savoir si en Europe on peut vraiment faire confiance à une distribution Linux ou à une mouture d'Android sécurisée par la NSA... Les nanotechnologies au service du diagnostique des maladies avec une sonde en silicum http://www.silicon.fr/les-nanotechnologies-au-service-du-diagnostique-des-maladies-avec-une-sonde-en-silicum-70831.html Le laboratoire d’IBM Labs à Zurich vient de dévoiler une sonde en silicium. Elle permettra aux médecins de diagnostiquer plus aisément des maladies comme le cancer et aidera à la recherche pour la mise au point de médicaments. Ce sont les décennies d’expérience d’IBM avec le silicium qui ont été exploitées par le laboratoire de la firme basé à Zurich. Appliquées aux nanotechnologies, elles ont permis aux chercheurs de mettre au point une sonde en Silicium qui sera utilisée dans l’immunohistochimie (IHC). Encore en phase d’essai et de validation, une telle sonde devrait bientôt pouvoir permettre aux laboratoires de pathologie de faire des diagnostics plus précis avec des échantillons beaucoup plus petits. Le silicium au service de la médecine L’IHC consiste à localiser des protéines dans des cellules d’un tissu humain prélevé par biopsie. Les antigènes sont alors diagnostiqués grâce à l’utilisation d’anticorps. La sonde souple et sans contact en forme de diamant de huit millimètres de largeur est dite microfluidique (science mettant en œuvre des systèmes manipulant des fluides à l’échelle du micromètre). Elle fonctionne à la manière d’un injecteur d’encre de cartouche d’imprimante. Elle dispose de deux canaux : l’un injecte un picolitre de liquide contenant des anticorps tandis que l’autre aspire continuellement pour éviter qu’il y ait trop de liquide au même endroit. La coloration qui s’en suit permet de détecter des traces des maladies dans l’échantillon de tissu prélevé sur un patient. L’intensité de la couleur renseigne sur la maladie et son stade de développement. Vers des diagnostics plus précis La biopsie qui permet de prélever un échantillon de tissu humain est un procédé invasif et les échantillons sont aussi petits que possible. Or, les erreurs d’analyse sont relativement fréquentes lorsque trop ou bien trop peu de liquide est versé sur l’échantillon. La sonde en Silicium mise au point est capable de colorer les tissus avec une précision de l’ordre du micromètre. Elle permettra de ne soumettre à l’analyse qu’une partie de l’échantillon. « Nous avons développé une technologie de validation de concept qui, je l’espère, met la détection de pathologies sur une feuille de route moderne bénéficiant des tout derniers développements dans le domaine de la microfluidique basée sur le silicium », indique Govind Kaigala, scientifique au laboratoire de recherche d’IBM à Zurich. Il ajoute : « Cette nouvelle approche permettra aux pathologistes de colorer les échantillons de tissus avec la précision du micromètre et de réaliser facilement de multiples colorations sur un nombre limité d’échantillons. » Le prix de SSD descend à $1 par Go selon IDC http://www.lemondeinformatique.fr/actualites/lire-le-prix-de-ssd-descend-a-1-dollar-par-go-selon-idc-47325.html Le prix des SSD (Solid State Drive) devraient tomber en dessous de 1 dollar par gigaoctet aux Etats-Unis dans la seconde moitié de 2012 selon IDC. La tarification reste un paramètre clé pour l'adoption du SSD auprès des particuliers et des entreprises, selon le cabinet d'études. En 2011, le prix par gigaoctet était d'environ $1,56 a déclaré Jeff Janukowicz, directeur de recherche sur le stockage SSD et disque dur chez IDC. Il indique que l'utilisation croissante du stockage flash par les entreprises, le développement des terminaux mobiles et la baisse des prix va populariser cette technologie de stockage dans les prochaines années. A court terme, il indique que la pénurie des disques durs traditionnels suite aux inondations en Thaïlande poussera les SSD comme solution de repli pour les constructeurs. Les SSD sont fabriqués en Corée et au Japon et n'ont donc pas été affectés. Les revenus attendus sur ce marché en 2011 sont de $5 Bn, une hausse de 105% par rapport à 2010 ($2,4 Bn). La production de SSD va progresser de 51,5% par an de 2010 à 2015 selon IDC. 1.45 millions de tablettes vendues en France en 2011 http://www.zone-numerique.com/news-12302-1-45-million-de-tablettes-vendues-en-france-en-2011.html Selon les estimations du cabinet d'études Gfk, il s'est vendu 1.45 millions de tablettes en France en 2011, dont 450 000 sur le seul mois de décembre. La tablette, produit phare de Noël dernier ? D'après les résultats d'une étude Gfk, cités par les Echos, la tablette tactile s'est vendue à 450 000 exemplaires en décembre 2011. C'est un peu plus que ce que prévoyait ce même institut (environ 400 000), en novembre dernier, et c'est surtout 15 000 tablettes écoulées de plus que sur l'ensemble de l'année 2010 (435 000 exemplaires). Au total, 1.45 millions de tablettes ont trouvé preneur en 2011 en France. Ces estimations montrent que les Français se tournent davantage vers des appareils portables, puisque dans le même temps il s'est écoulé seulement 1.24 million d'ordinateurs de bureau en 2011, contre 1.46 million en 2010. Les ordinateurs portables restent largement en tête des ventes. Deux tablettes PlayBook au calendrier 2012 de RIM ? http://www.itespresso.fr/deux-tablettes-playbook-au-calendrier-2012-de-rim-50309.html L’année 2012 s’annonce chargée pour RIM, qui prévoirait d’introniser, outre le premier smartphone sous BlackBerry 10, deux modèles de tablettes PlayBook à 7 et 10 pouces. Deux tablettes PlayBook de 7 et 10 pouces dont l’une compatible 3G+ et l’autre 4G LTE, des smartphones BlackBerry 10… La feuille de route de RIM pour cette année semble bien exhaustive au regard de résultats financiers en berne sur l’exercice 2011. Or, même si ce programme chargé qu’évoque N4BB se base sur « une compilation de divers témoignages émanant de sources proches du dossier », la vraisemblance prime et pousse à anticiper l’intronisation de 2 ardoises pour le prix d’une annonce en grande pompe. Même si Qualcomm menace de s’immiscer en amont de la chaîne… A la racine de cette scission, des retards dans la production des modules LTE dont RIM envisagerait d’équiper la future PlayBook de 10’’, qui n’investirait alors les rayons qu’à l’aube des fêtes de fin d’année. S’ensuivrait un considérable décalage temporel avec un modèle de 7’’ dont la prétendue sortie au printemps prochain reste néanmoins le fruit de hasardeuses hypothèses. Pour autant, l’abnégation de RIM à perpétuer l’héritage de ses terminaux mobiles fait sens à l’heure où se profile la plate-forme unifiée BlackBerry 10, entrevue comme la seule issue salvatrice pour un écosystème au ralenti depuis l’échec de la première PlayBook. En parallèle aux deux tablettes sus-évoquées, le constructeur canadien préparerait pour l’automne un smartphone haut de gamme. Wikipedia : l'application officielle débarque sur Android http://www.clubic.com/application-mobile/actualite-470548-application-wikipedia-android.html#ixzz1jzPgW5RN La fondation Wikimedia a publié une application officielle pour son encyclopédie libre Wikipedia dans l'Android Market. L'encyclopédie libre Wikipedia s'est immiscée au sein de l'App Store d'Apple en août 2009, deux ans et demi plus tard la voici qui débarque dans le kiosque de Google. Plus précisément, il existe déjà une multitude d'applications officieuses récupérant les données de Wikipédia mais la fondation n'avait jamais développé la sienne. Disponible gratuitement au téléchargement, Wikipedia pour Android donne accès à 20 millions d'articles dans 280 langues. Le mobinaute sera en mesure de sauvegarder un article dans la mémoire de son téléphone pour y accéder en mode déconnecté. En exploitant la puce GPS du smartphone Wikipedia se transforme également en guide touristique. Il est possible d'afficher sur une carte tous les éléments disposant d'une fiche au sein de l'encyclopédie. Pour ce faire, l'application tire parti des interfaces de programmation de Google Maps. Chaque page peut être consultée dans toutes les langues disponibles pour celle-ci. Notons également la possibilité de retrouver son historique de recherche. Davantage d'informations sont disponibles ici. Téléchargez Wikipedia Mobile pour Android sur votre logithèque Clubic! ou retrouvez la version iPhone. Un boîtier pour iPhone qui se répare tout seul http://www.01net.com/editorial/553360/un-boitier-pour-iphone-qui-se-repare-tout-seul/ Non sans fierté, Nissan, fabricant de voitures nippon, a annoncé il y a quelques jours avoir inventé la première coque pour iPhone qui s'autorépare. Elle répond au doux nom, fort explicite, de Nissan Scratch Shield iPhone. Le fabricant a utilisé la technologie développée en collaboration avec la fameuse université de Tokyo et la société Advanced Softmaterials et jusqu'alors utilisée pour la peinture de certaines de ses voitures, comme la Nissan Murano. Cette nanotechnologie permet de « réparer » les petites rayures qu'une vie passée à côté de petite monnaie ou d'un trousseau de clé ne manque pas d'offrir. La matière plastique, ABS, utilisée pour former la coque provient également du monde de l'automobile et est censée être plus résistante que les plastiques habituels tout en enserrant au plus près l'iPhone. A l'heure actuelle, des exemplaires de cette coque magique pour iPhone 4 et 4S ont été confiés à quelques personnes triées sur le volet, mais si le grand public montre un engouement pour ce produit, Nissan n'exclut pas de lancer une production de masse de son Scratch Shield.