La Lettre Innovation, Nouveautés, Evènements, et Pratiques des TI

Transcription

La Lettre Innovation, Nouveautés, Evènements, et Pratiques des TI
La Lettre Innovation, Nouveautés, Evènements, et Pratiques des TI
N° 12/04 23 Janvier 2012
La pensée de la semaine
« Le chemin est long du projet à la chose.
chose. »
Molière
Définition de la semaine : Les raccourcis clavier indispensables sur PC ?
http://www.darty-et-vous.com/faqarticle/quels-sont-les-raccourcis-clavier-indispensables-sur-pc.html#ectrans=1
Pour gagner du temps sur un PC, on a inventé les raccourcis clavier. Que de secondes sauvées en préférant systématiquement à la souris
ces combinaisons magiques de touches ! Le truc à garder en tête pour en tirer profit, c'est que les raccourcis sont valables quel que soit
le logiciel utilisé. N'hésitez donc pas à expérimenter ! Ne reste ensuite qu'à les mémoriser... Vous allez voir, vous allez être plus efficace.
Il existe en outre des raccourcis spécifiques pour chaque logiciel : traitement de texte, navigateur internet, tableur, lecteur vidéo... Mais
voici les principaux.
Niveau basique
Rappel pour les non-initiés : si vous rencontrez des difficultés, décomposez !
Exemple : appuyer sur la première touche du raccourci [Ctrl], la maintenir enfoncée avant d'appuyer sur la seconde [C]. C'est copié !
Ctrl + C
Copier
Ctrl + X
Couper
Ctrl + V
Coller
Ctrl + Z
Annuler
Ctrl + A Sélectionner tout
Ctrl + F Chercher un mot dans une page
Niveau medium
Ctrl + B Mettre en gras
Ctrl + H Chercher et remplacer un terme
Ctrl + S Enregistrer un fichier
Ctrl + O Ouvrir un fichier
Ctrl + N Créer un nouveau document
Ctrl + P Imprimer
Niveau initiés
Alt + F4 Ferme le programme/la fenêtre en cours
F5
Actualiser
F11
Plein écran
Alt + tab
Permute les fenêtres ouvertes
windows + tab Passer d'une fenêtre à une autre avec flip 3D (Vista et Widows 7)
Alt + Maj
Basculer en clavier AZERTY en clavier QWERTY
Windows + flèche du bas Réduit la fenêtre active
windows + M (ou D)
Réduit toutes les fenêtres pour arriver sur le bureau
Ctrl + + Augmenter la taille du texte
Ctrl + - Diminuer la taille du texte
En utilisant ces raccourcis systématiquement, vous allez gagner temps et efficacité !
Wi-Fi : la cinquième génération approche
http://www.lemagit.fr/article/wi-fi/10239/1/wi-cinquieme-generation-approche/
La cinquième génération Wi-Fi a fait ses premiers pas lors du CES, grand messe américaine de l’électronique grand public qui se déroule
à Las Vegas. L’événement a en effet été l’occasion pour D-Link et Netgear, notamment, de présenter leurs premiers produits à la norme
802.11ac [encore une fois poussée par les industriels en amont de la finalisation des travaux de la Wi-Fi Alliance, NDLR]. Ils sont
attendus sur le marché pour le courant de l’année 2012. Le fondeur Broadcom a de son côté présenté quatre chipsets compatibles.
802.11ac utilise la bande de fréquence des 5 GHz, plus dégagée que la désormais bien encombrée bande des 2,4 GHz utilisée par
802.11b/g et n. La nouvelle norme doit être rétrocompatible avec 802.11a et 802.11n en 5 GHz. Elle promet d’offrir initialement des
débits maximum de 1,3 Gbps à l’interface air, contre de 300 à 600 Mbps pour 802.11n. Le streaming vidéo en haute définition fait partie
des applications mises en avant par les promoteurs de 802.11ac. Et pour améliorer la fiabilité des liaisons, la norme prévoit la possibilité
d’établir des liens directionnels, même avec des antennes classiques. Mais, pour connaître l’impact réel de 802.11ac sur les déploiements
réseau, il faudra éprouver son fonctionnement sur le terrain et, notamment, les débits utiles dans différentes configurations.
IBM reste le moteur de la propriété intellectuelle avec 6180 brevets déposés en 2011 aux US
http://www.silicon.fr/ibm-reste-le-moteur-de-la-propriete-intellectuelle-avec-6180-brevets-deposes-en-2011-aux-etats-unis-70655.html
Le groupe informatique IBM a déposé pour la dix-neuvième année consécutive le plus grand nombre de brevets outreAtlantique, 6180 au total en 2011, d’après la société américaine IFI CLAIMS Patent Services.
Sans surprise, IBM, multinationale centenaire, a déposé le plus grand nombre de brevets aux États-Unis sur une année, 6180 en 2011
contre 3651 en 2006, selon la société d’études IFI CLAIMS Patent Services (Fairview Research).
IBM distance Microsoft et HP Big Blue devance ainsi les poids lourds asiatiques de l’industrie électronique, dont le Sud-Coréen
Samsung (4894 brevets) et le Japonais Canon (2821). Suivent au classement : Panasonic (2559), Toshiba (2483), Microsoft (2311),
Sony (2286), Seiko Epson (1533), Hon Hai (1514) et Hitachi (1465). À l’exception de Microsoft, les poids lourds américains des solutions
et services informatiques professionnels ne font pas partie des dix entreprises ayant déposé le plus de brevets outre-Atlantique en 2011.
Ainsi HP, un des plus sérieux concurrents d’IBM, se positionne « uniquement » à la quatorzième place, avec 1308 brevets déposés.
Des millions de dollars générés IBM estime à 8000 le nombre de ses collaborateurs installés aux États-Unis et à l’international, ayant
contribué à ces dépôts de brevets dans des domaines tels que le commerce, la banque, la santé et les transports. Le groupe a également
élargi le champ des technologies informatiques qu’il protège par un brevet. Parmi ces solutions brevetées figurent : une méthode d’octroi
de privilèges utilisateur adaptée au commerce électronique ; des systèmes dédiés à l’interprétation automatisée des procédures
analytiques dans le domaine du langage ; une méthode pour développer un système informatisé de simulation du cerveau ; une solution
dédiée à la conception d’analyses en continu de sources de données volumineuses et hétérogènes.
Étude Cigref : Maturité et gouvernance de l’Open Source
http://blog.admin-linux.org/logiciels-libres/etude-cigref-maturite-et-gouvernance-de-l%E2%80%99open-source
http://www.cigref.fr/cigref_publications/2011/03/maturite-gouvernance-open-source-vision-grandes-entreprises.html
Je voulais vous présenter ici une étude qui a été réalisée par le CIGREF,
réseau de Grandes Entreprises. Cette étude a pour but de montrer la vision
concernant la maturité et la gouvernance de l’open source et des logiciels
libres dans les grandes entreprises Françaises.
L’approche de cette étude est basée sur trois axes :
la gouvernance de l’Open Source,
la migration des entreprises vers Open Office,
la perception de la maturité de l’Open Source dans les grandes entreprises.
Beaucoup d’entreprises ont mis en place une gouvernance de l’open source,
ou en utilisent simplement, l’étude va essayer de montrer de quelle manière
est géré ou non l’intégration de briques libres dans le système d’information.
L’étude de la migration vers OpenOffice va illustrer cette gouvernance.
Et enfin le Cigref s’est intéressé à la perception de la maturité des solutions libres et open source dans les grandes entreprises.
Il a été identifié trois types de maturité :
La maturité technologique, qui est le ressenti qu’ont les entreprises au niveau technologique, la confiance accordée aux solutions
libres et open source (Performance, fiabilité, sécurité…)
La maturité d’usage, qui correspond à la perception d’utilisabilité des solutions open source et libres selon les besoins de l’entreprise.
La maturité de moyens, qui correspond à la capacité des entreprises à investir dans ces solutions libres.
Voici un graphique issu de cette étude qui représente la maturité technologique par catégories d’application.
Voici le même graphique issu de cette étude, mais pour la maturité d’usage.
Et enfin, le même graphique issu de cette étude mais pour la maturité de moyens.
J’ai vraiment apprécié cette étude, il y a un vrai regard critique et un vrai recul.
C’est pourquoi j’ai décidé de vous la faire découvrir.
L’approche est intéressante et permet d’avoir la vision des grands D.S.I. Français.
Google Body devient Zygote Body et passe en open source
http://www.veilleur-strategique.eu/2454-google-body-zygote-open-source
Il y a déjà quelque temps que l’on savait que Zygote Body prenait la relève, maintenant c’est
certain, mais un élément important arrive et va plaire à beaucoup de programmeurs et
webmasters.
Le passage de Google Body à Zygote Body n’est pas qu’un simple passage et changement de
nom pour cet outil qui est utilisé par beaucoup d’utilisateurs curieux dans le domaine médical.
On apprend que le code source de base de l’application est « Open 3D Viewer » et Open
Source, de quoi intéresser certains programmeurs et faire des petites merveilles en 3D.
Pour utiliser Zygote Body ou la technologie « Open 3D Viewer », il faudra utiliser un navigateur
qui prend en charge le WebGL, par exemple Google Chrome ou FireFox comme l’explique la
page de l’article d’information en anglais du blog de Google : Open Source at Google. On
apprend ainsi que le seul besoin pour cette application n’est que le WebGL.
Pour aider l’équipe de Zygote Body, l’équipe de Google Body a en fait mis en place un projet « Open Source » qui est donc le « Open 3D
Vierwer » sur lequel Zygote Body se base. Ce code source étant disponible au grand public, vous pouvez si vous le souhaitez utiliser donc
cette technologie pour faire vous aussi votre application 3D utilisable avec les navigateurs de dernière génération.
Chose amusante avec l’article en anglais de Google, c’est le souvenir du précédent 1er avril avec l’utilisation de cette technologie pour
explorer le corps d’une vache, comme vous pouvez le découvrir en vidéo. « Open 3D Viewer » est disponible: Code Google.
L'iPhone 5 sera-t-il vingt fois plus puissant que son prédécesseur ?
http://www.01net.com/editorial/553060/l-and-039-iphone-5-sera-t-il-vingt-plus-puissant-que-son-predecesseur/
La machine à rumeurs n'a pas à nouveau parlé. C'est Imagination, responsable de la création des puces graphiques qui motorisent
l'iPhone et l'iPad, qui a annoncé une nouvelle génération de puces beaucoup plus puissantes.
Imagination n'est pas forcément très connue du grand public. Pourtant, cette société britannique est au cœur des performances de
l'iPhone et de bon nombre de smartphones et tablettes. Ainsi, l'iPhone 4S embarque une puce Imaginaton double cœur Power Series 5XT
(SGX543MP2, pour être précis). Ne pas être connu ne veut pas dire qu'on ne fait rien pour mériter des lauriers. Ainsi, lors du CES de Las
Vegas, Imagination a annoncé sa nouvelle génération de puces graphiques pour plates-formes mobiles, la Series 6, nom de code Rogue.
Ces puces seraient jusqu'à vingt fois plus performantes que celles de la génération actuelle en termes de puissance brute. Elles sont par
ailleurs compatibles avec les technologies OpenGL ES, Open CL et DirectX 10 (comme les puces actuelles). Quelques nouveaux modèles
étant même compatibles avec certaines fonctions DirectX 11.
Un monstre de puissance ? On se prend alors à rêver à la présence de ces nouveaux monstres de puissance dans l'iPhone 5. Pourtant
les Series 6 n'étant présentées que maintenant, il paraît difficile d'imaginer qu'Apple va changer sa configuration de test, surtout si l'iPad
3 est, selon les dernières rumeurs, destinée à la mise sur le marché en mars ou avril. Or, l'iPhone 5, attendu à l'automne, devrait offrir
une configuration très proche. Ce sera tout au moins le cas, si Apple continue à respecter le même schéma de construction de sa gamme.
De fait, même si ces nouvelles puces d'Imagination sont compatibles avec les puces Series 5, il serait trop tard pour l'iPhone 5 et l'iPad
3... Ce serait donc pour la prochaine génération ? Pour l'iPhone 6 ?
Prudence et patience, même s'il est vrai que ce serait un bon moyen pour Apple de relancer son iPhone et de conforter l'hégémonie de
son App Store face à une concurrence de plus en plus collante.
Le compteur électrique communicant qui étale votre vie privée
http://www.01net.com/editorial/553084/le-compteur-electrique-communicant-qui-etale-votre-vie-privee/
Le nouveau compteur électrique Linky d'ERDF a été piraté par un petit groupe de hackers allemands. Ce qu'ils y ont
découvert fait un peu froid dans le dos.
Le compteur électrique intelligent d'ERDF baptisé Linky en France, ou Smart Meter à l'étranger, a dès sa sortie été l'objet de nombreuses
critiques. D'une part, son prix exorbitant (entre 120 et €240) pourrait, malgré l'engagement pris d'ERDF pour une gratuité, être pris en
charge par le consommateur. Par ailleurs, en décembre 2010, l'Agence de l’environnement et de la maîtrise de l’énergie (ADEME)
déclarait que « si le compteur Linky, tel qu’il est actuellement conçu, apporte des bénéfices en termes de comptage et de gestion du
réseau électrique, voire de diminution du contenu CO2 du kWh électrique, ses bénéfices pour le consommateur en termes de maîtrise de
la demande restent encore théoriques ». Ce qui a poussé les élus Europe Ecologie/Les Verts de la ville de Paris à rejeter la décision
ministérielle d'installation de l'appareil. Enfin, ce sont surtout ses aptitudes à communiquer des données bien plus personnelles que de
simples relevés de consommations électriques qui ont fait le plus de remous.
Et c'est précisément sur ce point délicat que nos « pirates technophiles » allemands entrent en scène. En « hackant » le petit boîtier, ils
se rendent compte qu'il est capable d'identifier exactement le type et le nombre d'appareils connectés dans votre foyer. Pratique pour
automatiser le paiement de la redevance audiovisuelle ! Pire, il peut même savoir précisément la chaîne de télé que vous êtes en train de
regarder ! Sur le modèle testé fourni par une société allemande, ils s'aperçoivent que toutes les données transitaient entre le compteur et
les serveurs de manière non cryptées.Enfin, poursuivant leurs investigations, ils falsifient les données envoyées à l'aide d'un programme
d'émulation, faisant croire que le foyer raccordé au Smart Meter n'avait pas consommé d'électricité pendant deux mois ! Et d'après eux,
le piratage de l'appareil est à la portée de tous ou presque, à l'aide de simples outils Windows.
Dell a toujours des ambitions dans les tablettes
http://www.lemondeinformatique.fr/actualites/lmi/lire-dell-a-toujours-des-ambitions-dans-les-tablettes-47377.html
Malgré ses déboires sur le marché des tablettes, Dell ne renonce pas à ce marché et devrait revenir en fin d'année avec
un produit peut être basé sur Windows 8.
Malgré l'échec de ses tablettes professionnels Streak 5 et 7, que Dell a cessé de commercialiser entre août et décembre derniers, le
Texan semble toujours vouloir percer sur ce marché. Interrogé par l'agence Reuter, Steve Felice, le directeur commercial de du fabricant,
a indiqué que ce dernier devrait en effet lancer un modèle, grand public cette fois-ci, vers la fin de l'année 2012. « Dell prend son temps
», a indiqué le représentant de Dell. Une façon de dire que le fabricant souhaite éviter les échecs qu'ont connu HP et RIM, avec des
tablettes moins bien conçues que celles des deux leaders du marché, Apple et Samsung.
Soigner l'écosystème autour de la tablette Dell reconnaît que le succès d'une tablette ne repose pas uniquement sur sa
configuration matérielle. De fait, il consacre beaucoup de temps à développer l'écosystème qui devra accompagner son nouveau produit.
« Quand on parle de PC, les gens se focalisent sur l'aspect matériel. Lorsqu'il s'agit de tablette ou de smartphone, ils s'intéressent à tout
ce qui entoure le dispositif pour assurer son fonctionnement. »
Hormis le fait d'annoncer la date approximative de livraison de sa future tablette, Dell se garde bien de fournir plus de détail. Le
constructeur ne souhaite notamment pas indiquer si le produit fonctionnera sous Windows 8 ou Android. Fruit du hasard ou non, sa sortie
est en tous cas programmée à la même période que celle de Windows 8, la version de l'OS de Microsoft optimisée pour les tablettes.
Un jeu Google Maps sur Chrome
http://www.memoclic.com/624-google-maps/15678-jeu-google-maps-chrome.html
Google va lancer un nouveau jeu utilisant la cartographie de Google Maps et disponible sous le navigateur Google Chrome.
Le géant de la recherche vient d’annoncer le lancement prochain d’un jeu basé sur la cartographie de Google Maps et disponible sur le
navigateur Google Chrome.
Google Maps Game, c’est le nom de ce nouveau jeu à venir signé Google et qui sera notamment disponible sur le navigateur Google
Chrome. Le principe n’a rien de bien compliqué puisqu’il s’agit de diriger une petite boule bleue. Celle-ci se baladera ainsi sur un plan de
ville de votre choix du service de cartographie Google Maps.
Le géant de la recherche ne cache pas ses intentions dans le domaine du jeu en ligne, et notamment via son fureteur Google Chrome. Ce
dernier propose d’ailleurs déjà bon nombre de jeux sur son magasin d’applications, le Chrome Web Store. Et parce que Google peut
difficilement se passer de la dimension sociale, les joueurs pourront également comparer leurs résultats via le réseau social Google +.
Les allergiques à Flash peuvent d’ores et déjà se rassurer, il ne sera pas nécessaire d’installer un tel plug-un pour jouer à Google Maps
Game. Ce dernier s’appuiera sur la technologie WebGL et Chrome fera donc amplement l’affaire.
CES 2012 : Le smartphone Android le plus fin du monde est chinois
http://www.silicon.fr/ces-2012-le-smartphone-android-le-plus-fin-du-monde-est-chinois-70705.html
Huawei a présenté l’Ascend, un smartphone de moins de 7 mm d’épaisseur. Un modèle avec lequel le fabricant chinois
compte bien imposer sa marque propre.
Plus connu pour ses solutions de réseau de télécommunications et d’entreprise, Huawei produit également des
téléphones, essentiellement en marque blanche, pour ses clients opérateurs. Mais le constructeur chinois a bien
l’intention d’imposer son emprunte et sa marque sur le marché des smartphone. Une stratégie déjà initiée (et
similaire à celle de son compatriote ZTE) qui se renforcera à coup d’innovations.
Huawei a donc profité du CES 2012 de Las Vegas pour présenter le smartphone le plus fin du monde, rapporte
nos confrères de Gizmodo.fr. L’Accent P1 S étonne effectivement par sa finesse de seulement 6,68 mm
d’épaisseur. Un record jusqu’alors détenu par le Razr de Motorola avec 7,1 mm sur tranche.
Ice Cream Sandwich aux commandes Les spécifications de l’Accent P1 S ne sont pas en reste. Son écran
Super Amoled en verre Corning Gorilla Glass (la seconde version du Gorilla Glass) de 4,3 pouces affiche ainsi
une définition de 960 x 540 pixels. Il embarque la plate-forme OMAP 4460 de Texas Instrument laquelle intègre
deux cœurs Cortex-A9 cadencés à 1,5 GHz. Le tout est alimenté par une batterie de 1800mAh. L’ensemble
tourne sous Android 4 (Ice Cream Sandwich).
« Le Ascend P1 S est une preuve de plus de notre engagement permanent à innover avec des appareils de haute qualité équipés des
toutes dernières technologies matérielles et logicielles », s’est félicité Richard Yu, président de Huawei Device.
Annoncé pour juin en France En parallèle, Huawei en a profité pour dévoiler un autre smartphone, l’Ascend P1 qui partage nombre de
caractéristique du P1 S mais s’en trouve légèrement plus épais (7,69 mm) avec une batterie de 1670mAh. Les deux terminaux disposent
de deux capteurs (8 Mpx en face arrière et un 1, 3 Mpx en façade).
Les deux Ascend ont donc le profil pour attirer l’intérêt des consommateurs et renforcer la présence de Huawei en tant qu’acteur
dynamique sur le marché des smartphones en France où ses terminaux sont proposés chez Bouygues Telecom. Les smartphones Ascend
seront distribués à partir d’avril prochain dans la plupart des régions du monde. En France, l’Ascend devrait débarquer courant juin.
Samsung : Bada fusionne avec Tizen
http://www.igeneration.fr/0-apple/samsung-bada-fusionne-avec-tizen-74742
Samsung et Intel collaborent sur la fusion Bada et Tizen. Tizen est le nom choisi en
septembre pour rebaptiser Meego. Lui-même le fruit du rapprochement de Maemo (Nokia,
avant qu'il ne s'en aille vers Microsoft) et Moblin (Intel). Un jeu de poupées russes qui voit
Samsung diriger son OS maison dans une nouvelle direction. Le coréen avait un temps
parlé d'une possible orientation vers l'open source pour Bada, et ce à compter de 2012.
Tizen est depuis l'automne dernier un projet open source hébergé par la fondation Linux et
dirigé par Intel, la fondation LiMo (Access, NEC Casio, NTT DoCoMo, Samsung, SK Telecom,
Telefonica, Vodafone et Panasonic) ainsi que Samsung. L'évolution annoncée à l'époque
pour Tizen le portait vers l'HTML5.
Tae-Jin Kang, un VP de Samsung, a expliqué à Forbes que le projet de fusionner les deux
plateformes était en cours, sans date pour son achèvement. La rétrocompatibilité du futur
OS avec les applications Bada est prévue et les développeurs Bada devraient retrouver un SDK et des API identiques.
Bada est ce système que l'on trouve sur les smartphones d'entrée de gamme de Samsung, les Wave, des modèles particulièrement
populaires en France, Allemagne, Italie et Russie. D'ailleurs fin novembre c'est d'abord dans l'hexagone que Samsung a lancé son Wave
III équipé de Bada 2 (lire aussi France : Samsung devance nettement Apple).
Samsung utilise aujourd'hui pas moins de quatre OS mobiles : Bada, Android, Windows Phone et Tizen qui devrait figurer dans « au
moins un ou deux téléphones » ces prochains mois avant de fusionner. Forbes rappelle que la part de marché de Bada dans le monde,
estimée à 2%, est supérieure à celle de Windows Phone.
Office sur iPad grâce à une application cloud gratuite
http://www.zdnet.fr/actualites/office-sur-ipad-grace-a-une-application-cloud-gratuite-39767447.htm#xtor=EPR-100
OnLive Desktop va lancer une application iPad gratuite qui permet d’utiliser les versions originales de Word, Excel et
PowerPoint hébergées dans le nuage.
Alors que Microsoft travaille encore au portage d’Office sur iPad, les suites bureautiques alternatives n’ont pas manqué d’occuper le
terrain (iWorks, Quickoffice, Documents To Go). Mais voici qu’une application va très bientôt permettre d’utiliser les « vrais » logiciels
Word, Excel et PowerPoint sur latablette Apple. Et qui plus est, elle est gratuite !
Il s’agit de OnLive Desktop qui sera disponible dans quelques jours sur l’App Store. OnLive s’est déjà fait connaître avec son service
cloud de jeux vidéo qualité console accessibles en streaming. OnLive Desktop reprend le même principe. Une fois l’application installée et
un compte OnLive créé, les utilisateurs d’iPad se connectent à un environnement sous Windows 7 depuis lequel ils pourront lancer Word,
Excel ou PowerPoint. Tout se passe depuis les serveurs OnLive et les fichiers sont stockés sur un espace en ligne de 2 Go.
Connexion Internet d’au moins 1,5 Mo indispensable Walt Mossberg, le chroniqueur du Wall Street Journal, a testé l’application
en avant-première et assure qu’elle fonctionne exactement comme une version normale d’Office, sans temps de latence. Mais il souligne
cependant qu’il vaut mieux disposer d’une connexion Internet d’au moins 1,5 Mbps. Il y a tout de même quelques restrictions, à
commencer par le fait que l’application ne propose pas de mode hors connexion. Par ailleurs, Mossberg précise qu’en cas d’affluence sur
les serveurs, il faudra attendre son tour pour accéder au service. C’est là sans doute la contrepartie de la gratuité. OnLive a prévu de
proposer une version Pro payante à $10 / mois qui assurera un accès prioritaire aux serveurs, 50 Go d’espace de stockage, la possibilité
d’installer des programmes additionnels et un mode collaboratif.
Enfin, OnLive Desktop sera aussi proposé sur les terminaux Android, l’iPhone, les PC et les Mac.
GPU mobile PowerVR 6 jusqu’à 1 téraflops : mais que reste-t-il aux offres desktop ?
http://www.silicon.fr/gpu-mobile-powervr-6-jusqua-1-teraflops-mais-que-reste-t-il-aux-offres-desktop-70643.html
Imagination Technologies vient de présenter ses nouveaux GPU mobiles, qui seront jusqu’à vingt fois plus rapides que
précédemment. Une aubaine pour les smartphones et tablettes.
Jusqu’où iront les solutions graphiques présentes dans nos terminaux mobiles ? Fin 2011, ARM levait le voile sur le Mali-T658. Du haut
de ses huit unités de traitement, ce GPU propose une puissance de calcul dix fois supérieure à celle de l’actuel Mali-400 MP.
C’est aujourd’hui au tour d’Imagination Technologies de se jeter dans la bataille. Dans le cadre du CES 2012 de Las Vegas, la société a
présenté sur ses PowerVR G6200 et G6400, deux GPU mobiles surpuissants. Ils se montrent jusqu’à vingt fois plus rapides que les actuels
PowerVR. De quoi booster sérieusement les performances graphiques des smartphones et tablettes, chose d’autant plus vraie que les
PowerVR de la série 5 sont d’ores et déjà parmi les offres les plus rapides du marché.
Des monstres de calcul Ces nouveaux GPU proposeront également un support de l’OpenCL, ce qui permettra de les exploiter dans le
cadre de calculs massivement parallèles. Imagination Technologies reste toutefois assez vague en termes de performances, en évoquant
une puissance de calcul comprise entre 100 gigaflops et 1 téraflops. Pour information, le Mali-T658 affichera une puissance de calcul
maximale de 272 gigaflops en simple précision. Quant au GPU mobile GeForce intégré au dernier Tegra 3 de NVIDIA, s’il propose des
performances en net progrès, il ne supporte pas Cuda. Il faudra pour cela attendre son successeur.
Ericsson invente le transfert de données par le corps humain
http://www.01net.com/editorial/553064/ericsson-invente-le-transfert-de-donnees-par-le-corps-humain/
Le PDG d’Ericsson, Hans Vestberg, a fait une étonnante démonstration lors de sa conférence de presse au CES de Las Vegas le 11 janvier
2012. Tenant un smartphone dans une main et touchant un téléviseur de l’autre, son corps a servi de conducteur pour transférer une
photo de l’un à l’autre, sans câble ni signal radio d’aucune sorte. Baptisée Capacitive Coupling, cette technologie consiste à utiliser le
corps humain pour faire transiter des données. Elle utilise pour cela le faible courant électrique existant à la surface de la peau de chaque
individu. « Au final, nous sommes le réseau », a conclu le PDG d’Ericsson en décrivant son projet de recherche.
Cette démonstration ouvre de nombreuses perspectives comme de pouvoir échanger un contact, un numéro de téléphone ou une photo
par une simple poignée de main. Pour le moment, cette technologie reste encore dans les laboratoires. On espère qu’elle en sortira vite.
Connections 4.0 : IBM annonce une nouvelle version de son réseau social
http://pro.clubic.com/entreprises/ibm/actualite-470208-ibm-facebook-entreprise.html#ixzz1jnsCuVHE
Lors de sa conférence américaine, IBM a dévoilé la 4ème version de son outil collaboratif : Connections. L'objectif de
cette nouvelle mouture est l'intégration des contenus issus des blogs et autres wiki tout conservant les e-mails, l'agenda
et les divers flux d'activités.
IBM vient de dévoiler lors de sa conférence Lotusphere les principales améliorations de sa plateforme sociale. Big Blue promet d'ajouter
une dose d'analyse dans son réseau afin de le rendre plus pertinent. L'objectif est clairement affiché de proposer à l'utilisateur un
ensemble de contenus personnalisés. La firme propose d'analyser en temps réel l'ensemble des flux et de les analyser en fonction du
comportement du collaborateur. Grâce à cette analyse fine, ce dernier se verra proposer un tableau de bord optimisé selon ses habitudes.
Pour ce faire, Connections 4.0 promet de mieux prendre en compte non seulement les blogs mais également les wiki.
L'outil utilise la fonction « Activity Stream » qui autorise la gestion et le partage des tâches à l'ensemble des communautés de la sphère
professionnelle. La solution fait donc le pont entre l'activité sociale et le partage de documents entre collaborateurs.
Selon le New York Times, Connections 4.0 conservera la partie e-mails, l'agenda et les divers flux d'activités tout en permettant d'accéder
aux messageries Lotus Notes et Microsoft Exchange. Elle passera même dans le Cloud afin d'être utilisée depuis les mobiles via la solution
SmartCloud d'IBM. Connections 4.0 devrait prendre en compte l'ensemble des terminaux Apple, BlackBerry mais également sous Android.
Par contre, aucune date de commercialisation n'a été annoncée.
Les futurs smartphones Apple et Samsung étanches ?
http://www.businessmobile.fr/actualites/les-futurs-smartphones-apple-et-samsung-etanches-39767562.htm#xtor=EPR-10010
Les deux constructeurs seraient intéressés par le procédé d’étanchéité présenté au CES par la société HzO.
Une technologie capable de rendre étanche à l’eau les composants électroniques pourrait bientôt être adoptée par Apple et Samsung
dans leurs futurs smartphones.
Film de protection C’est ce qu’affirme la société HzO à l’origine de cette innovation qui a été présentée lors du dernier Consumer
Electronic Show. Il s’agit d’un film de protection à l’échelle nanométrique qui est appliqué sur les composants au moment de l’assemblage
d’un appareil électronique. Pour démontrer la fiabilité de sa technique, HzO a trempé dans l’eau de manière prolongée différents
smartphones dont un iPhone et des modèles Samsung et Motorola. D’après le site Pocket-lint, HzO serait en discussions avec Apple et
Samsung ainsi qu’un fabricant de casques audio et des contrats pourraient être officialisés prochainement.
R&D : des microcapsules de métal liquide au secours des circuits en panne
http://www.zdnet.fr/actualites/r-d-des-microcapsules-de-metal-liquide-au-secours-des-circuits-en-panne-39767567.htm#xtor=EPR-100
Des chercheurs américains ont mis au point un système qui permet aux produits électroniques de restaurer
instantanément la conductivité électrique lorsqu’un circuit tombe en panne
C'est une invention qui pourrait contribuer à régler le vaste problème mondial des déchets électroniques. Aujourd’hui, les produits
électroniques grand public sont jetables: si votre ordinateur portable tombe en panne, un composant est remplacé, et non réparé.
Or une trouvaille des chercheurs de l’université de l’Illinois permet aux produits électroniques de restaurer instantanément la conductivité
électrique lorsqu’un circuit tombe en panne. Scott White, professeur en aérospatiale, et Nancy Sottos, professeur en génie et science des
matériaux, ont développé un système qui élimine la nécessité de circuits redondants ou de systèmes de surveillance en utilisant des
polymères spéciaux. Dans leur laboratoire, les chercheurs ont réparti des microcapsules (d’un diamètre de seulement 10 µ) contenant du
métal liquide sur une ligne électrique en or qui fonctionne comme un circuit.
L’ITU veut standardiser le M2M dans le secteur de la e-santé
http://www.lemagit.fr/article/standards-telecoms-m2m/10265/1/l-itu-veut-standardiser-m2m-dans-secteur-sante/
La très sérieuse Union internationale des télécommunications (ITU - International Telecommunication Union) a décidé de prendre à bras
le corps la standardisation des solutions de M2M (machine to machine). L’organisation, dont l’une des missions est de travailler à
l’élaboration de standards, a annoncé la création d’un groupe de travail (Focus Group) censé étudier le paysage mondial du M2M et
analyser les différentes initiatives liées à sa standardisation dans chaque région du globe. Objectif : définir les besoins et les exigences
techniques afin d’en dégager un cahier des charges précis pour chaque secteur.
Si la vocation de ce groupe de travail est, à terme, d’étudier l’utilisation du M2M sur certains marchés cibles verticaux, comme le
paiement, la gestion de flotte, les systèmes de transport intelligents ou encore la sécurité et la surveillance, il adressera en premier lieu
celui de l’e-santé. Un secteur de plus en plus consommateur d’objets connectés, à l’image des nombreux gadgets que l’on connecte à son
smartphone (on parle de M-Santé). Mais surtout un segment qui devrait prendre son envol avec l’arrivée en masse des solutions de
télémédecine. En France, par exemple, le décret d’application de la télémédecine est en place depuis un an.
Reste donc à garantir l’intéropérabilité de chaque objet d’e-santé connecté. L’ITU a ainsi défini une feuille de route précise des chantiers
à entreprendre via ce groupe de travail. Dans un communiqué, il indique que 3 sous-groupes prendront forme : l’un en charge d’identifier
et de définir les cas d’usages et de services M2M, un second autour des besoins et un troisième axé sur les API et les protocoles.
Les géants du net ouvriront des accès IPv6 permanents le 6 juin 2012
http://pro.01net.com/editorial/553262/les-geants-du-net-ouvriront-des-acces-ipv6-permanents-le-6-juin-2012/
Des FAI comme AT&T ou Free, des géants du contenu comme Facebook ou Google activeront des accès IPV6
permanents. Les accès IPv4 actuels continueront de fonctionner.
La migration progressive de l'ensemble du net mondial vers le nouveau système d'adressage IPv6 devrait connaître une étape majeure le
6 juin 2012. Ce jour-là, en effet, de grands noms de l'internet ouvriront des accès permanents sous protocole IPv6, qui fonctionneront
simultanément avec l'actuel système d'adressage IPv4, en bout de course, faute de nouvelles adresses IP disponibles. Cet événement,
préparé par l'organisation américaine Internet Society, qui fête ses 20 ans en 2012, regroupera des FAI (fournisseurs d'accès) comme
l'Américain AT&T, le Japonais KDDI ou le Français Free (pionnier en matière de migration vers IPv6) et des géants américains du contenu
web comme Facebook, Google, Bing (Microsoft) et Yahoo. Tous ces acteurs s'engagent à mettre en service de manière permanente les
accès IPv6 auprès de leurs abonnés (pour le FAI) ou les internautes (disposant via leur FAI d'un accès IPv6).
Coexistence d'IPv6 et d'IPv4 Selon l'Internet Society, les FAI participant à cette journée s'engagent à déployer le nouvel adressage
dans leur infrastructure pour qu'au moins 1% de leurs abonnés fixes surfant sur les sites web participant à l'événement (Google,
Yahoo...) puisse le faire en IPv6. Deux équipementiers réseaux, Cisco et D-Link, participent aussi à cet événement.
Les accès internet actuels en IPv4 continueront de fonctionner, le but de cette opération étant d'offrir aussi parallèlement la possibilité
permanente d'une communication IPv6 d'un bout à l'autre de la chaîne. La technique dite de la double pile protocolaire IPv4 et IPv6
permet une telle coexistence au sein d'une infrastructure publique IP. La journée du 6 juin 2012 succédera à un autre événement de
même nature qui eut lieu le 8 juin 2011. Cette journée mondiale d'expérimentation servit de test grandeur nature aux acteurs du net
pour révéler l'état de migration vers IPv6 des différents composants de la connectivité internet (clients, réseaux, serveurs hôtes).
Amazon Web Services launches NoSQL effort: Here comes some disruption
http://www.zdnet.com/blog/btl/amazon-web-services-launches-nosql-effort-here-comes-some-disruption/67296?tag=nl.e539
Amazon’s DynamoDB is a big data enabler that will give enterprises an avenue to try non-traditional databases.
Amazon Web Services has launched DynamoDB, a NoSQL database that the e-commerce giant uses to crunch its big data, in a move
that’s likely to entice enterprises to try out alternatives to relational databases.
According to Werner Vogels, CTO of Amazon, the company has been refining its DynamoDB for the last 15 years. Amazon used AWS’s
NoSQL as a service effort during the recent peak holiday season. In other words, the service is battle tested.
“The DynamoDB is designed for seamless scalability with no database administration,” said Vogels in an interview.
The specifics of the Amazon DynamoDB service break down like this:
•
Amazon manages the NoSQL database and scales it up and down without downtime or performance degradation.
•
Admin responsibilities are handled by Amazon.
•
Hardware provisioning, replication, setup, patching and scaling are also handled by Amazon.
•
The service automatically partitions and re-partitions data based on applications.
•
Pricing starts with a free tier with 100MB of storage, five writes and 10 reads per second (40 million requests per month). Further
pricing is based on the number of requests and provision and 10,000 reads per second will run you $1 an hour. Other pricing
depends on how much data is used per month.
•
The service integrates Amazon Elastic MapReduce, which allows for the analysis for large datasets on a Hadoop framework. The
service is also integrated with Amazon’s S3 storage service.
•
Amazon’s Cloud Drive, advertising platform and Kindle are powered by the NoSQL service.
How’s this disruptive? Amazon’s DynamoDB effort is going to allow many companies to take big data for a spin. One key hurdle for
companies interested in NoSQL databases was the administration and hardware requirements. With Amazon’s NoSQL service it’s more
likely that enterprises will try out big data. As a result, relational databases could take a hit.
Comparatif Antivirus 2012 : quel est le meilleur antivirus ?
http://www.clubic.com/article-77079-4-guide-comparatif-meilleur-antivirus.html#ixzz1jtv9A26h
Que dire au terme de ce comparatif, si ce n'est « on prend les mêmes et on recommence » ? Nos préférences ne changent pas
fondamentalement par rapport à 2011, et on continuera à distinguer 4 valeurs sûres : BitDefender, F-Secure, NOD32 et Kaspersky, avec
tout de même un bémol pour ce dernier, car la version 2012 nous a paru particulièrement gourmande. La bonne surprise de cette année
réside dans G Data : l'antivirus allemand nous a semblé avoir gommé les problèmes d'impact sur les performances constatés les années
précédentes, et nous pensons aujourd'hui qu'il s'agit d'un très bon choix pour un utilisateur recherchant une protection ciblée sur
l'essentiel (fichiers, web et mail/IM) et des fonctionnalités et une interface minimalistes.
Du côté des gratuits, pas de chamboulement à l'horizon non plus : les logiciels se maintiennent avec leurs qualités et leurs défauts. Nos
préférés demeurent Avast et Microsoft Security Essentials, le premier pour ses fonctionnalités assez étendues pour un gratuit, le second
pour son efficacité et sa discrétion. Avira et AVG ne déméritent pas pour autant. Ce sont de bons antivirus que l'on recommandera tout
de même essentiellement à des utilisateurs avertis : leur protection n'est pas forcément aussi complète que d'autres concurrents, et s'ils
suffiront à un utilisateur sachant à peu près ce qu'il fait et où il va, ils seront peut être un peu justes pour un néophyte peu prudent.
Pour ce dernier public, justement, Norton Antivirus ou McAfee Antivirus Plus demeurent des choix à considérer : leurs fonctionnalités
pourront sembler un peu « usine à gaz » pour la plupart des utilisateurs, mais ce défaut se transformera en avantage chez des
utilisateurs ayant justement besoin d'être pris en charge par une solution intégrée.
De manière générale, on peut se féliciter de ne pas voir finalement, parmi ces antivirus, de mauvais produit. De manière générale, tous
offrent au moins un degré de protection correct, et une interface suffisamment simple à appréhender pour ne pas nécessiter de
connaissances avancées, même si certains visent, via leurs fonctionnalités avancées, un public plus « power user », comme NOD32 ou
Kaspersky. Notre seule déception concerne PC Tools Spyware Doctor avec Antivirus, qui nous a posé quelques problèmes de stabilité sur
certaines configurations, sans qu'il soit réellement possible de savoir si cela vient de l'antivirus ou de notre configuration de test : nous
avons réussi à reproduire le plantage sur un autre PC… Mais faire fonctionner l'antivirus sans souci sur un 3e ! Nous leur laisserons donc
le bénéfice du doute, sachant que par ailleurs, l'antivirus de la division de Symantec se défend assez bien.
Terminons sur les bons conseils d'usage : si un antivirus vous offrira une sécurité supplémentaire, le meilleur réflexe pour rester à l'abri
des menaces est également de faire attention où on met les pieds sur la toile, et de se méfier des fichiers transférés sur des clés USB ou
autres périphériques externes. Un PC mis fréquemment à jour vous tiendra également davantage à l'abri, de nombreuses menaces
exploitant encore des failles patchées depuis bien longtemps, misant justement sur l'absence de vigilance des utilisateurs à ce sujet.
La NSA dévoile une version sécurisée d'Android
http://www.lemondeinformatique.fr/actualites/lire-la-nsa-devoile-une-version-securisee-d-android-47450.html
National Security Agency (NSA) a publié une version plus sécurisée d'Android baptisée SE. Elle
propose le renforcement des politiques de sécurité sur le contrôle d'accès des applications.
Le projet Android SE est basé sur des recherches antérieures de la NSA sur les contrôles d'accès obligatoires,
qui a donné naissance au programme Linux SE (Security Enhanced) en 2000. Ce dernier est une collection de
modules de sécurité destinés au noyau Linux et d'autres outils qui restreignent l'accès aux ressources par
l'utilisateur ou les applications. Au fil des ans, la plupart des modifications de faible niveau sur Linux SE ont été
intégrées dans le kernel classique de Linux. Elles ont également été portées sur Solaris et FreeBSD.
La NSA a révélé l'année dernière à la conférence sur la sécurité de Linux, son plan pour le portage de Linux SE
sur l'OS mobile de Google dans le cadre du projet Android SE. La première version a été publiée le 6 janvier.
Android SE améliore le modèle de sécurisation des applications sur Android classique, qui est basé par défaut sous Linux par un contrôle
d'accès discrétionnaire (DAC). Sous DAC, une application lancée par un utilisateur a accès à tous les fichiers et les ressources disponibles.
Ce qui change avec Android SE est que les ressources accessibles pour une application pourront être limitées par une politique définie.
L'objectif est de limiter les dégâts d'une attaque exploitant certaines vulnérabilités.
Eviter le piratage via des outils exploitant les failles Beaucoup d'outils de piratage pour Android comme GingerBreak, Exploid ou
RageAgainstTheCage, ciblent des failles dans les services de l'OS mobile. Par exemple, GingerBreak profite d'une vulnérabilité dans vold,
le volume daemon d'Android (programme d'amorçage), qui fonctionne comme un root (donnant toutes les permissions sur le système).
La version SE de l'OS mobile peut bloquer cette méthode à différentes étapes de son exécution, en fonction du niveau des politiques de
sécurité appliquées. Malheureusement, l'installation d'Android SE sur des terminaux n'est pas aussi simple que d'autres versions
personnalisées de l'OS mobile de Google. Le projet ne fournit pas de programmes pré-compilés.
Les utilisateurs intéressés par le déploiement d'Android SE doivent d'abord télécharger et travailler le code source d'AOSP (Android Open
Source Project).Ils doivent ensuite le synchroniser avec Android SE pour lui appliquer des modifications et des correctifs. Le site du
projet contient les indications pour procéder. Il rappelle notamment que ce projet s'adresse aux entreprises et organismes qui ont besoin
de mettre en œuvre des politiques strictes de contrôle d'accès similaires à celles certifiées par le ministère américain de la Défense. Reste
à savoir si en Europe on peut vraiment faire confiance à une distribution Linux ou à une mouture d'Android sécurisée par la NSA...
Les nanotechnologies au service du diagnostique des maladies avec une sonde en silicum
http://www.silicon.fr/les-nanotechnologies-au-service-du-diagnostique-des-maladies-avec-une-sonde-en-silicum-70831.html
Le laboratoire d’IBM Labs à Zurich vient de dévoiler une sonde en silicium. Elle permettra aux médecins de diagnostiquer
plus aisément des maladies comme le cancer et aidera à la recherche pour la mise au point de médicaments.
Ce sont les décennies d’expérience d’IBM avec le silicium qui ont été exploitées par le laboratoire de la firme basé à Zurich. Appliquées
aux nanotechnologies, elles ont permis aux chercheurs de mettre au point une sonde en Silicium qui sera utilisée dans
l’immunohistochimie (IHC). Encore en phase d’essai et de validation, une telle sonde devrait bientôt pouvoir permettre aux laboratoires
de pathologie de faire des diagnostics plus précis avec des échantillons beaucoup plus petits.
Le silicium au service de la médecine L’IHC consiste à localiser des protéines dans des cellules d’un tissu humain prélevé par biopsie.
Les antigènes sont alors diagnostiqués grâce à l’utilisation d’anticorps. La sonde souple et sans contact en forme de diamant de huit
millimètres de largeur est dite microfluidique (science mettant en œuvre des systèmes manipulant des fluides à l’échelle du micromètre).
Elle fonctionne à la manière d’un injecteur d’encre de cartouche d’imprimante. Elle dispose de deux canaux : l’un injecte un picolitre de
liquide contenant des anticorps tandis que l’autre aspire continuellement pour éviter qu’il y ait trop de liquide au même endroit.
La coloration qui s’en suit permet de détecter des traces des maladies dans l’échantillon de tissu prélevé sur un patient. L’intensité de la
couleur renseigne sur la maladie et son stade de développement.
Vers des diagnostics plus précis La biopsie qui permet de prélever un échantillon de tissu humain est un procédé invasif et les
échantillons sont aussi petits que possible. Or, les erreurs d’analyse sont relativement fréquentes lorsque trop ou bien trop peu de liquide
est versé sur l’échantillon. La sonde en Silicium mise au point est capable de colorer les tissus avec une précision de l’ordre du
micromètre. Elle permettra de ne soumettre à l’analyse qu’une partie de l’échantillon. « Nous avons développé une technologie de
validation de concept qui, je l’espère, met la détection de pathologies sur une feuille de route moderne bénéficiant des tout derniers
développements dans le domaine de la microfluidique basée sur le silicium », indique Govind Kaigala, scientifique au laboratoire de
recherche d’IBM à Zurich. Il ajoute : « Cette nouvelle approche permettra aux pathologistes de colorer les échantillons de tissus avec la
précision du micromètre et de réaliser facilement de multiples colorations sur un nombre limité d’échantillons. »
Le prix de SSD descend à $1 par Go selon IDC
http://www.lemondeinformatique.fr/actualites/lire-le-prix-de-ssd-descend-a-1-dollar-par-go-selon-idc-47325.html
Le prix des SSD (Solid State Drive) devraient tomber en dessous de 1 dollar par gigaoctet aux Etats-Unis dans la seconde moitié de 2012
selon IDC. La tarification reste un paramètre clé pour l'adoption du SSD auprès des particuliers et des entreprises, selon le cabinet
d'études. En 2011, le prix par gigaoctet était d'environ $1,56 a déclaré Jeff Janukowicz, directeur de recherche sur le stockage SSD et
disque dur chez IDC. Il indique que l'utilisation croissante du stockage flash par les entreprises, le développement des terminaux mobiles
et la baisse des prix va populariser cette technologie de stockage dans les prochaines années. A court terme, il indique que la pénurie des
disques durs traditionnels suite aux inondations en Thaïlande poussera les SSD comme solution de repli pour les constructeurs. Les SSD
sont fabriqués en Corée et au Japon et n'ont donc pas été affectés. Les revenus attendus sur ce marché en 2011 sont de $5 Bn, une
hausse de 105% par rapport à 2010 ($2,4 Bn). La production de SSD va progresser de 51,5% par an de 2010 à 2015 selon IDC.
1.45 millions de tablettes vendues en France en 2011
http://www.zone-numerique.com/news-12302-1-45-million-de-tablettes-vendues-en-france-en-2011.html
Selon les estimations du cabinet d'études Gfk, il s'est vendu 1.45 millions de tablettes en France en 2011, dont 450 000
sur le seul mois de décembre.
La tablette, produit phare de Noël dernier ? D'après les résultats d'une étude Gfk, cités par les Echos, la tablette tactile s'est vendue à
450 000 exemplaires en décembre 2011. C'est un peu plus que ce que prévoyait ce même institut (environ 400 000), en novembre
dernier, et c'est surtout 15 000 tablettes écoulées de plus que sur l'ensemble de l'année 2010 (435 000 exemplaires).
Au total, 1.45 millions de tablettes ont trouvé preneur en 2011 en France. Ces estimations montrent que les Français se tournent
davantage vers des appareils portables, puisque dans le même temps il s'est écoulé seulement 1.24 million d'ordinateurs de bureau en
2011, contre 1.46 million en 2010. Les ordinateurs portables restent largement en tête des ventes.
Deux tablettes PlayBook au calendrier 2012 de RIM ?
http://www.itespresso.fr/deux-tablettes-playbook-au-calendrier-2012-de-rim-50309.html
L’année 2012 s’annonce chargée pour RIM, qui prévoirait d’introniser, outre le premier smartphone sous BlackBerry 10,
deux modèles de tablettes PlayBook à 7 et 10 pouces.
Deux tablettes PlayBook de 7 et 10 pouces dont l’une compatible 3G+ et l’autre 4G LTE, des smartphones BlackBerry 10… La
feuille de route de RIM pour cette année semble bien exhaustive au regard de résultats financiers en berne sur l’exercice 2011.
Or, même si ce programme chargé qu’évoque N4BB se base sur « une compilation de divers témoignages émanant de sources proches
du dossier », la vraisemblance prime et pousse à anticiper l’intronisation de 2 ardoises pour le prix d’une annonce en grande pompe.
Même si Qualcomm menace de s’immiscer en amont de la chaîne…
A la racine de cette scission, des retards dans la production des modules LTE dont RIM envisagerait d’équiper la future PlayBook de 10’’,
qui n’investirait alors les rayons qu’à l’aube des fêtes de fin d’année. S’ensuivrait un considérable décalage temporel avec un modèle de
7’’ dont la prétendue sortie au printemps prochain reste néanmoins le fruit de hasardeuses hypothèses.
Pour autant, l’abnégation de RIM à perpétuer l’héritage de ses terminaux mobiles fait sens à l’heure où se profile la plate-forme unifiée
BlackBerry 10, entrevue comme la seule issue salvatrice pour un écosystème au ralenti depuis l’échec de la première PlayBook.
En parallèle aux deux tablettes sus-évoquées, le constructeur canadien préparerait pour l’automne un smartphone haut de gamme.
Wikipedia : l'application officielle débarque sur Android
http://www.clubic.com/application-mobile/actualite-470548-application-wikipedia-android.html#ixzz1jzPgW5RN
La fondation Wikimedia a publié une application officielle pour son encyclopédie libre Wikipedia dans l'Android Market.
L'encyclopédie libre Wikipedia s'est immiscée au sein de l'App Store d'Apple en août 2009, deux ans et demi plus tard la voici qui
débarque dans le kiosque de Google. Plus précisément, il existe déjà une multitude d'applications officieuses récupérant les données de
Wikipédia mais la fondation n'avait jamais développé la sienne.
Disponible gratuitement au téléchargement, Wikipedia pour Android donne accès à 20 millions d'articles dans 280 langues. Le mobinaute
sera en mesure de sauvegarder un article dans la mémoire de son téléphone pour y accéder en mode déconnecté. En exploitant la puce
GPS du smartphone Wikipedia se transforme également en guide touristique. Il est possible d'afficher sur une carte tous les éléments
disposant d'une fiche au sein de l'encyclopédie. Pour ce faire, l'application tire parti des interfaces de programmation de Google Maps.
Chaque page peut être consultée dans toutes les langues disponibles pour celle-ci. Notons également la possibilité de retrouver son
historique de recherche. Davantage d'informations sont disponibles ici.
Téléchargez Wikipedia Mobile pour Android sur votre logithèque Clubic! ou retrouvez la version iPhone.
Un boîtier pour iPhone qui se répare tout seul
http://www.01net.com/editorial/553360/un-boitier-pour-iphone-qui-se-repare-tout-seul/
Non sans fierté, Nissan, fabricant de voitures nippon, a annoncé il y a quelques jours avoir inventé la première
coque pour iPhone qui s'autorépare. Elle répond au doux nom, fort explicite, de Nissan Scratch Shield iPhone.
Le fabricant a utilisé la technologie développée en collaboration avec la fameuse université de Tokyo et la
société Advanced Softmaterials et jusqu'alors utilisée pour la peinture de certaines de ses voitures, comme la
Nissan Murano. Cette nanotechnologie permet de « réparer » les petites rayures qu'une vie passée à côté de
petite monnaie ou d'un trousseau de clé ne manque pas d'offrir.
La matière plastique, ABS, utilisée pour former la coque provient également du monde de l'automobile et est
censée être plus résistante que les plastiques habituels tout en enserrant au plus près l'iPhone.
A l'heure actuelle, des exemplaires de cette coque magique pour iPhone 4 et 4S ont été confiés à quelques
personnes triées sur le volet, mais si le grand public montre un engouement pour ce produit, Nissan n'exclut pas
de lancer une production de masse de son Scratch Shield.