lundi 31 décembre 2012

Ma rétrospective de 2012

Bon, et bien après avoir survécu à  la fin du monde hors de Burgarach, on peu dire que cette année 2012 a été riche. Voici ce que j'en ai retenu :

L'hiver a été rigoureux  comme en témoigne l'état de la Loire. Quelques uns de ces clichés illustreront d'ailleurs l'émission chroniques de Loire sur France 3.

J'ai adoré ma visite au musée du Quai Branly

Cette année sur Orléans a aussi été celle de CLEO avec le premier essai sur la ligne, puis de la zone APS, l'intégration du Centre de Maintenance. Les orléanais auront pu l'admirer par eux-mêmes. J'aurai eu l’occasion d'y piloter le déménagement  du PCC de régulation des transports urbain orléanais en vue de l'inauguration de la ligne de tramway CLEO elle-même. Il me sera confié par la suite une mission d'aide pour le projet METTIS à Metz. 2012, ce sera aussi l'occasion de retrouver d'anciens collègues lors du meeting des anciens d'ISTA.

Les loisirs n'auront pas été en reste avec l'arrivée de l'extraordinaire et tant attendu Nikon D800 qui remplacera avantageusement  mon D300s pour réaliser des photos en basse lumière et surtout des macros.



Il y aura aussi les inoubliables visites chez Rémy Demantes, l'un des rares à être autoriser à faire de l'imprégnation de fauves.

Ce n'est pas ma fille qui dira le contraire ...

Que dire de la Japan Expo 2012 d'Orléans ou du concours international de montgolfière  : que du bonheur !
2012, aura été aussi celle de la renaissance d'Alien avec le film Prometheus que j'ai adoré.

Et puis enfin l'évènement qui pour moi aura été majeur car il nous a tous fait replonger dans l'époque de l'étoffe des héros : l’incroyable saut de Félix Baumgartner  à plus de 39 km d'altitude qui lui permettra de franchir le mur du son à 1342,8 km:h sans autre protection que sa combinaison pressurisée.



Je vous souhaite une bonne Saint Sylvestre.

dimanche 30 décembre 2012

L'histogramme ou l'art de doser l'ombre et la lumière

Si vous possédez un appareil photo numérique récent, vous utilisez souvent l'écran LCD pour visualiser de manière empirique le résultat du cliché que vous venez d'immortaliser. Mais cet écran est tout de même imprécis voir carrément illisible par jour de grand soleil. Heureusement, il existe une fonction fort  intéressante pour évaluer instantanément l’exposition de votre cliché, autrement dit la distribution et le volume d'ombre et de lumière que vous avez capturé. Cette fonction s'appelle l'histogramme. On y trouve à gauche le taux de noir, au centre celui de gris et à droite celui de blanc. Avec l'habitude, cela vous évitera de faire systématiquement appel à un logiciel de traitement d'image pour corriger vos photos.

Mieux qu'un long discours, voici un exemple :

Une image sous exposée
= un histogramme orienté vers la gauche, en fait à dominante noir

Dans l'histogramme, le noir semble beaucoup trop important par rapport à la luminosité apparente. Pour corriger, il faudra ouvrir l'objectif et/ou utiliser une vitesse d'obturation plus lente : même joueur joue encore


Une image sur exposée 
= un histogramme plutôt à droite avec un maximum de blanc

Là, au contraire on pourra fermer le diaphragme de l'objectif et/ou faire usage d'une vitesse d'obturation plus rapide : shoot again

Une image qui semble correcte
= un histogramme en forme de pyramide signe d'un cliché qui semble optimal.

Pour accéder à l'histogramme chez Nikon, il suffit généralement d'appuyer vers le bas sur le sélecteur multidirectionnel. Il a été longtemps recommandé aux utilisateurs d'appareil  photo numérique d'exposer à droite car le capteur avait une certaine tendance à ajouter du bruit numérique sur les zones foncées. Pour autant, si vous disposez d'un appareil de dernière génération, ce type de phénomène n'est plus trop à l'ordre du jour du fait de la qualité des capteurs actuels comme par exemple chez Nikon sur les D3200, D7000, D600, D800 ou D4. C'est vraisemblablement la même chose avec les Canon récents tels que les EOS 5DmkIII,  EOS D6 ou encore EOS 1Dx. N'hésitez pas à utiliser la fonction D-Lighting chez Nikon qui permet d'éclaircir dynamiquement les zones sombres et de gagner en dynamique.

Pour conclure, l'exemple le plus terrible à traiter pour un photographe : le contre-jour


Le truc, c'est d'utiliser le flash pour déboucher les ombres du premier plan comme on dit dans le jargon, avec l'avantage de rétablir un histogramme correct. Une autre astuce moins efficace si sans flash, serait de faire du HDR.

A vous de jouer et bonne année !

vendredi 28 décembre 2012

Vision du stockage selon Jay Kidd le CTO de NetAPP


NdB : Après avoir mis près de 10 ans à intégrer Spinnaker, Ontap est enfin sorti de sa boite pour supporter le mode cluster à plus de deux noeuds. Pour autant, de là à se comparer à un EMC VMAX, il ne faut quand même pas abuser. Content de voir que finalement NetAPP commence finalement à considérer le stockage flash comme un alternative viable. Pour les piles convergées mono-fournisseur, je pense la solution viable et pas uniquement l'apanage des startups : quid des Exa-machines chez Oracle qui se vendent comme des petits pains ?

Vu sur le MagIT : : Le CTO de NetApp, Jay Kidd voit le cloud et la flash comme les grandes tendances pour le stockage  - Le 27 décembre 2012 (01:24) - par Christophe Bardy

En tant que directeur technique de NetApp, Jay Kidd est responsable des grandes technologiques du constructeur. Nous avons discuté avec lui sur ce qu’il considère comme les principales tendances pour le stockage de données pour 2013, en particulier autour du stockage en cluster, la virtualisation, de la flash et du cloud.
Quelles sont les grandes tendances de stockage de données que vous voyez à l’horizon 2013 ?

Jay Kidd : Je pense que le monde de l’informatique ne peut en général soutenir qu’une révolution à la fois. Et au cours des dernières années, cette révolution a été la virtualisation. Maintenant , la flash et le cloud viennent s’ajouter à la virtualisation pour créer les conditions d’une parfaite tempête de révolutions.

La virtualisation n’est plus le perturbateur qu’elle a été il y a trois ou quatre ans et elle fait toujours son chemin au sein des systèmes informatiques établis, chacun cherchant à l’exploiter de façon plus agressive. La mémoire Flash est un perturbateur à beaucoup de niveaux, et elle a un impact transformateur sur les architectures des serveurs et du stockage.

On voit aussi l’IT à l’échelle du cloud et l’«IT as a Service » apparaître comme une alternative viable pour les DSI. Cela est à l’origine d’un changement de mentalité pour les professionnels de l’IT, même au sein des entreprises. Ils doivent désormais penser comme des fournisseurs de services afin de rivaliser efficacement avec les fournisseurs de services externes. Cela perturbe aussi les organisations ainsi que la façon dont on exploite l’informatique.

Le stockage en cluster est un autre perturbateur. La virtualisation permet de consolider 10 applications sur un seul serveur. Vous propagez ensuite ce modèle à l’échelle de centaines de serveurs attachés à un environnement de stockage consolidé. Nous avons des clients stockant deux pétaoctets dans un environnement en cluster avec 10 000 machines virtuelles, et, clairement, ils ont besoin de commencer à petite échelle, avant de passer à une échelle bien plus grande en délivrant un niveau de disponibilité et de disponibilité qui jusqu’alors était considéré comme l’apanage des baies de stockages haut de gamme monolithiques de classe mainframe. Maintenant, les utilisateurs demandent des fonctions similaires de baies plus modulaires.

Notre OnTap cluster est l’un des [les] principaux moteurs de cette tendance alors que nous poussons à l’adoption du stockage en cluster pour les applications d’entreprise. Nous assistons à une bonne adoption de cette technologie.

Il a fallu un certain temps pour que vous parveniez à intégrer la technologie cluster acquise auprès de Spinnaker en 2003 dans OnTap. Considérez-vous OnTap comme un OS pleinement en mode cluster maintenant ?

Kidd: Je ne pense pas que nous en verrons jamais la fin, parce que nous avons trop d’idées à intégrer mais c’est une technologie que les utilisateurs comment à mettre en œuvre en production aujourd’hui.

Il y a toujours des choses que nous voulons ajouter et des améliorations que nous voulons faire. Nous considérons [OnTap Cluster] comme une plate-forme qui en est aux premiers stades de sa vie. Nous avons un programme d’innovations riche prévu pour le mode cluster. Mais cet OS emporte aussi avec lui beaucoup de choses que les gens aiment dans OnTap.

OnTap est présent depuis environ 20 ans, et nous avons bâti un grand nombre d’innovations [dans cet OS]. Les fonctions portant sur l’efficacité en matière de stockage et tout ce que nous avons fait avec les instantanés et la protection de données ou avec l’intégration avec des d’applications comme Oracle, SAP et Microsoft sont disponibles sur les systèmes OnTap cluster.

Est-ce que EMC Isilon est le principal concurrent de OnTap cluster ?

Kidd: Je suis heureux que vous posiez la question parce que c’est une perception erronée qu’OnTap cluster est seulement en concurrence avec d’autres systèmes de stockage en cluster. Notre principal concurrent pour OnTap cluster est le VMAX d’EMC, et aussi un peu le haut de gamme VNX, et certains autres systèmes de stockage d’IBM et HP. Nous affrontons les systèmes traditionnels de stockage d’entreprise qui ne sont pas en cluster. OnTap en cluster joue la carte du «commencer petit et prendre de l’ampleur progressivement » et permet une exploitation sans interruption que d’autres systèmes de stockage d’entreprise ne peuvent pas égaler. Nous sommes également en concurrence avec Isilon pour certaines applications scientifiques ou certaines applications verticales dans le monde des médias, mais l’objectif principal pour OnTap cluster est le monde de l’entreprise.


Jusqu’à quel point pensez-vous que la Flash va devenir prévalante dans l’entreprise ?

Kidd: Vous pensez à la Flash comme la Ferrari dans votre garage. Il y a certains cas d’utilisation ou vous souhaitez la sortir, et certaines applications où elle est l’outil idéal, comme une balade matinale le dimanche matin sur une route de montagne. Mais on ne va pas à l’épicerie avec elle, et on ne va pas à la décharge avec. De même, vous ne conduisez pas vos enfants à l’école avec, ce n’est pas une technologie pour toutes les applications. Pas encore. La performance est phénoménale, mais le coût est encore trop élevé pour que les entreprises envisagent de mettre toutes leurs données sur la Flash pour le moment. Un jour, peut-être, mais nous sommes très loin de cela.

Mais je ne pense que quiconque a déployé du stockage dans un environnement sensible à la latence et requérant un haut niveau d’IOPS intégrera de la Flash côté serveur ou utilisera une baie 100 % flash dans un tel contexte.

Il y a des start-up, qui, au cours des dernières années, ont eu une approche différente du stockage pour les environnements virtuels, que ce soit via des piles intégrées ou des baies conçues spécifiquement pour prendre en compte les environnements de VM. Pensez-vous que la virtualisation nécessite nouvelle architecture de stockage ?


Kidd: La virtualisation fonctionne assez bien, même sur des architectures traditionnelles où le « compute » et le stockage sont confiés à des dispositifs séparés. Si vous êtes une petite entreprise et que vous disposez de 8 à 10 applications en cours d’exécution dans votre entreprise, Il est tout à fait faisable de faire tourner l’ensemble sur un seul serveur multicœur ou une paire d’entre eux avec du stockage interne ou une petite baie SAN. Dès que vous arrivez à une taille, où vous avez des applications virtualisées et non virtualisées dans plus d’un seul lieu, l’utilisation d’un stockage externe a tendance à faire plus de sens, surtout parce que la consommation de ressources de calcul est devenue relativement économique. Vous pouvez faire tourner un très grand nombre d’applications.

Cela dit, il y a un appétit des clients pour une architecture unifiée de centre de données combinant des capacités de calcul de réseau et de stockage. Ce que nous avons constaté avec notre architecture de référence Flexpod est que les gens aiment l’idée d’une infrastructure convergente, mais ils aiment surtout son côté flexible – «J’aime cela, mais je veux un peu plus de puissance de calcul pour aller avec ce stockage ou plus de stockage pour aller avec cette puissance de calcul. Je pense que les piles convergées sont importantes d’un point de vue confort d’utilisation et de déploiement, mais les gens veulent ajuster la taille de la mémoire ou la puissance de calcul à l’intérieur de ces piles.

Je pense que les piles convergées mono-fournisseurs finiront par faillir sur l’un des paramètres de la solution. Les startups qui construisent des piles convergentes sont essentiellement des intégrateurs: Elles prennent des composants sur étagère Intel, VMware et du stockage et assemblent le tout dans ce qui ressemble à un package intéressant. Mais elles n’auront jamais de «best of breed» pour le calcul et le stockage ; elles auront toujours une génération de retard. Je pense que c’est vrai même pour les grands fournisseurs ; ils ont tendance à ne pas être leaders sur le stockage ou le réseau.

Quelles sont les autres nouvelles technologies voyez-vous s’imposer dans l’entreprise ?

Kidd: Cette notion de Dropbox d’entreprise est intéressante. Elle répond à un besoin de praticité. En particulier avec l’essor des tablettes, les gens veulent synchroniser leurs données entre leurs équipements.

Mais les DSI sont préoccupés par les questions de sécurité. Lorsque vous déposez des données dans un de ces services, il y a de grandes inquiétudes au sujet de qui peut les voir, les pirater, et sur les risques qu’il y a à exposer ces données. Il y a des histoires qui circulent sur des données qui ont été exposées. Les DSI sont toutefois à la recherche d’un moyen pour donner aux utilisateurs un service, leur permettant de synchroniser entre leurs appareils tout en protégeant les données.

Je pense que, en 2013, vous verrez la montée des alternatives à Dropbox en entreprise, car les utilisateurs se moquent en général du service qu’ils utilisent. Ils veulent que ce soit facile, et ils veulent être en mesure de relier leur téléphone, leur tablette, leur ordinateur à la maison et leur machine de travail au sein d’un répertoire partagé afin de pouvoir déplacer des données dans tous les sens. Si les entreprises fournissent ce type de service à leurs utilisateurs, les utilisateurs finaux se contenteront d’utiliser celui que leur entreprise fournit. Cela devrait simplifier le travail des entreprises pour le partage des répertoires de base des utilisateurs avec appareils mobiles, sans que les utilisateurs aient à faire tout ce boulot.

Alors, NetApp va-t-il suivre l’exemple d’EMC avec Syncplicity et offrir son propre service de partage de fichiers ?

Kidd: Vous verrez une combinaison de choses. Nous n’avons pas l’intention d’être un fournisseur de service public pour ce type de service. La stratégie de NetApp est de fournir du matériel pour ce type d’infrastructure, mais nous voyons ce type de capacité et une intégration étroite [avec nos équipements] comme une bonne chose.

Nous avons annoncé un partenariat avec [le] programme Citrix Sharefile. Nous voulons dire aux clients qu’utiliser des systèmes de stockage NetApp leur donne une solution simple pour fournir des capacités de Dropbox d’entreprise à leurs utilisateurs. Nous allons résoudre ce problème.

Quel rôle voyez-vous pour le stockage objet ? NetApp a acquis Bycast en 2010. Pensez-vous que StorageGrid poursuivra sa vie comme un système autonome, ou est-ce que des capacités objet seront intégrées dans OnTap ?

Kidd: Ce sera une combinaison des deux. Nous vendons StorageGrid en tant que solution autonome, et nous l’avons jumelé avec nos baies Série E. Nous sommes également en train d’intégrer des fonctions objet dans OnTap, basé sur la technologie Bycast.

Je pense que vous verrez beaucoup de systèmes objets hybrides apparaître sur le marché. Au final, je pense que l’objet deviendra le modèle pour le stockage à grande échelle. Je pense que vous verrez une évolution progressive vers plus de stockage objet. Beaucoup de gens sont à la recherche de ce type de système de stockage, en particulier en combinaison avec des appareils mobiles

lundi 24 décembre 2012

Un homme et des tigres

Petite visite hier chez Rémy Demantes pour prendre quelques nouvelles de ses tigres et réaliser quelques clichés inoubliables comme toujours. Rémy et l'un des rares en France à avoir une capacité lui permettant de détenir des fauves.. Il participe ainsi activement à la sauvegarde de l'espèce en voie de disparition. Vous pouvez, vous aussi, lui rendre visite à Ouzouer-sur-Loire à 30 minutes d'Orléans, pour voir des adultes mais aussi quatre bébés.Vous pourrez par ailleurs faire un détour par le musée du cirque et de l'illusion dont il est  l'heureux propriétaire.

Musée du cirque et de l'illusion D952 La croix St Jacques 45570 Dampierre en Burly tel : 02.38.35.67.50- remydemantes@aol.com ou la page facebook de Rémy.


Un bébé d'à peine 15 jours
Narla et Zamis ont bien grandis depuis notre dernière visite

Mahawak le patriarche âgé de 17 ans, un vrai bavard

samedi 22 décembre 2012

Quelques photos HDR avec le Nikon D800

Il existe une bien intéressante fonction créative au sein des riches menus du Nikon D800, c'est la fonction HDR. Certes, les logiciels de traitement externes permettent un meilleur rendu, pour autant je trouve que le boitier ne démérite pas, voyez plutôt ... Vous pouvez agrandir les photos en cliquant dessus.

 L'inexplosible sur le quai du Châtelet à Orléans
 Le pont de l'Europe 
La rue Jeanne d'Arc
Le Campo Santo
La cathédrale Sainte Croix

Le fishing de la semaine sauce EDF

Update : la page du  lien foireux probablement dénoncé a été désactivée.

Reçu sur mon mail :




Qui vous redirige vers http://bbormis.com/, adresse bien connue chez EDF bien sûr :)  Donc, poubelle directe.

Microsoft approuve Oracle dans sa stratégie du software in the box


NdB ; Oracle annonce un CA de 11 Milliards de $, moins de matériel vendu mais avec (beaucoup) plus de marge que ses concurrents et surtout qu'on se le dise,  Exadata, Exalogic ... comptent dans les résultats de la partie software et pas hardware. Mieux, Oracle trouve un soutien inattendu chez Microsoft ! 

Vu sur Forbes.com : Steve Ballmer Joins Larry Ellison as Software-Hardware Evangelist

Microsoft, for decades an iconic software company, now sees hardware as an idispensable part of its future.

At Microsoft’s recent shareholders’ meeting, Ballmer made several comments indicating he now believes that breakthrough innovation leading to superior products and performance can be achieved by tightly coupling hardware and software development from the ground up—a concept Oracle refers to as “engineered systems.”

From an informationweek.com article by Paul McDougall headlined Ballmer: Hardware Key to Microsoft’s Future:

“And, not that we don’t have good hardware partners, but sometimes getting the innovation right across the seam of hardware and software is difficult unless you do both of them,” Ballmer said at the meeting, held Wednesday in Bellevue, Wash.
Referring to the company’s new strategy of building its own Windows 8 tablets under the Surface brand, Ballmer said “maybe we should have done that earlier, maybe [Gates'] tablet would have shipped sooner.”
Ballmer then left little doubt that Microsoft is no longer content to be solely reliant on third-party PC manufacturers for its success. “What we’ve said to ourselves now is that there is no boundary between hardware and software that we will let build up as a kind of innovation barrier.” Pretty powerful stuff from Ballmer, whose company has ridden its software-only strategy for almost 40 years to become one of the most successful corporations in the history of American business. His perspectives are worth another look—and remember, this is Microsoft we’re talking about.Because if Microsoft is willing to bridge the gap from software into hardware, then what company on the planet can claim to be beyond such an approach? Again, here are the two points that capture the heart of Ballmer’s commitment to a radically different strategy for Microsoft:

“…there is no boundary between hardware and software that we will let build up as a kind of innovation barrier…”
“…sometimes getting the innovation right across the seam of hardware and software is difficult unless you do both of them…”

In his most straightforward comment to date on the power that comes from optimizing hardware and software from the ground up, Ballmer sounds a lot like Oracle CEO Larry Ellison, who launched the the engineered-system concept about four years ago with the first version of the Oracle Exadata Database Machine.



At that time, Exadata version one used hardware made by Hewlett-Packard and the concept probably outstripped the execution. But shortly thereafter, when Oracle acquired Sun Microsystems and began to engineer new generations of extreme-performance systems that were truly built from the ground up to optimize hardware and software interactions, the engineered-system approach became a centerpiece of Oracle’s strategy.

(For more on the new Exadata X3 and the power of optimized software and hardware, please check out our recent column, Oracle’s Secret Sauce: Why Exadata Is Rocking the Tech Industry.)

And while it’s entirely true that industrial-strength Exadata machines and the Microsoft Surface tablet represent opposite ends of the enterprise-systems spectrum, there is zero debate over the engineering principle that lies at the heart of these devices that might perform very different functions but share a common heritage: both were designed to deliver new levels of power and performance to meet the rapidly escalating requirements of today’s users.

In the InformationWeek article about Ballmer’s comments, reporter McDougall also cites a recent Tweet from @MicrosoftCareers that underscores the company’s commitment to moving into hardware as a complement to its software expertise: “At @Microsoft, we’re more than just software. Come show us your Hardware Engineering talents.”

With Ballmer’s unconditional endorsement, Microsoft joins not just Oracle but also Apple in endorsing the engineered-systems approach, which Steve Jobs discussed eloquently during his final year as CEO of Apple, citing it as an indispensable element behind not only Apple’s success but also its core philosophy. You can read all about that vision of Jobs’ in my recent piece, Steve Jobs, The $60 Light Bulb, And The Future Of Technology.

Since Exadata become the fastest-growing new product in Oracle’s history over the past few years, every major IT company, whether primarily a hardware supplier or a software vendor, has fiddled around with the engineered-system concept, calling them appliances or optimized systems or something similar. But I think that Steve Ballmer’s very public and very passionate embrace of the concept—in which he didn’t just describe it as something fairly interesting but indeed said it was a key factor in driving deep-seated innovation—is going to inspire other IT companies to stop noodling around and commit fully to the engineered-systems approach.

Because they have already realized that the problems of today and tomorrow cannot be handled by the approaches of yesterday—a dramatically new approach is needed.

And at Microsoft, Steve Ballmer has decided that the new approach must ensure that “there is no boundary between hardware and software that we will let build up as a kind of innovation barrier.”

vendredi 21 décembre 2012

HADOPI clôt ses labos


Vu sur ZDNet.fr | Vendredi 21 Décembre 2012 : La Hadopi ferme ses Labs

Réglementation : C'est un "expert associé" des Labs d'Hadopi qui en annonce la fin à PC Inpact. Selon lui, c'est à cause du budget que ces cinq laboratoires d'étude sont abandonnés. L'information a été confirmée par la Haute Autorité.

Mise à jour : la Hadopi a confirmé officiellement la fermeture de ses Labs à travers une délibération publiée ce vendredi.

 Ils étaient cinq et devaient permettre à des experts issus de la société civile de participer à l'ébullition cérébrale de la Haute autorité pour la diffusion des oeuvres et la protection des droits sur Internet (Hadopi). Ces "labs" Hadopi accueillaient ainsi des personnalités qui n'étaient pas forcément en accord avec la ligne de la Hadopi, riposte graduée en tête. Force est de constater qu'entre les interrogations sur leur légitimité, leur succès relatif auprès des communautés d'experts ou la maigreur des travaux rendus, ces cinq pôles de réflexion ne pouvaient qu'être limités dans le temps, au moins sous leur forme actuelle.
Appareil de la Hadopi

La décision est cependant assez radicale, puisque la Hadopi aurait décidé de fermer ces labs en 2013. Exit ces pôles de réflexion baptisés Economie numérique de la création, Internet et sociétés, Propriété intellectuelle et Internet, Réseaux et techniques et Usages en ligne. L'information est partie de Numerama ce matin, qui ne cite pas ses sources, mais a été confirmée un peu plus tard par PC Inpact. Ce dernier a pu discuter avec Bruno Spiquel, l'un des "experts associés" rémunérés 2000 euros par mois (les "experts pilotes" uniquement, au nombre de 1 par pôle) pour gamberger au sein des labs.
Comme le rappellent les deux sites, cette extinction n'est pas étonnante : d'une part, juridiquement, les labs n'avaient aucun statut. Il ne s'agit que de groupes de travail créés par la seule volonté de la Hadopi, qu'elle peut donc fermer comme elle le souhaite. La décision aurait d'ailleurs été prise dès le collège du début du mois. Pour les personnes encore sous contrat en 2013, on n'en sait pas plus, souligne PC Inpact. Les labs Hadopi auront finalement tenu deux ans, bravant un temps seulement les contraintes nouvelles apportées par les élections présidentielle et législatives de mai et juin dernier.
Car selon l'email reçu par Bruno Spiquel, qu'il dévoile à PC Inpact, "cette décision s'inscrit, à l'issue d'un bilan de l'activité des labs, dans un contexte institutionnel et budgétaire global contraint." L'interprétation n'est pas très difficile à faire.

Coût en 2011 : 500 000 euros 

Plus de sous : le budget de la Hadopi a été revu à la baisse pour 2013, et les labs coûtaient cher. Si l'on n'a pas les chiffres de 2012, Numerama relève que 500 000 euros auraient été dépensés l'année précédente. Une part non négligeable dans le budget global de la haute autorité, qui compte pour 2013 sur 9 millions d'euros. Plus de crédit institutionnel : le gouvernement, notamment par la voix de sa ministre de la Culture et de la Communication, n'a jamais voilé ses critiques face à la haute autorité créée par le gouvernement Fillon du précédent quinquennat. Et la mission Lescure, qui planche justement sur l'adaptation de l'exception culturelle à l'heure numérique, n'a certainement pas envie de labs incontrôlables qui pourraient apporter d'autres voix que celle issue de ses réflexions et auditions.
Personne ne se plaindra sans doute de ce qui apparaît comme un coup dur pour la Hadopi... A moins que ce ne soit une mauvaise nouvelle pour les usagers. Comme le souligne Numerama, le recadrage en cours, qui devrait être affiné par la mission Lescure, fait la part belle à la seule riposte graduée. 

jeudi 20 décembre 2012

Les ISO, une question de sensibilité



Il n'y a pas si longtemps, une quinzaine d'années, quand les pellicules argentiques avaient cours, on se référait à leur sensibilité grâce à une indication appelée American Standards Asssociation ou ASA. Plus la valeur était élevée, plus la pellicule était sensible à la lumière, autrement dit plus on pouvait prendre une photo correcte dans un lieu sombre ou bien figer une scène très rapide en diminuant considérablement le temps d'exposition. Les valeurs courantes s'échelonnaient de 100 à 400 ASA, un film 200 ASA étant deux fois plus sensible qu'un film 100 et les pellicules affichant les valeurs les plus hautes étaient qualifiés de film "rapides".  Par exemple, on pouvait avoir un rendu de photo équivalent à 1/60e avec une 100 ASA qu'au 1/120e avec une 200 ASA mais avec l'avantage de pouvoir éviter les flous et les bougés du fait d'une vitesse d'obturation plus rapide. L'inconvénient était l'apparition d'un grain plus prononcé sur les photos, ce qui pouvait aussi donner un certain charme.

A l'instar des capteurs numériques qui remplacent aujourd'hui dans nos appareils photos nos chères (au sens propre comme au figuré) bonnes vieilles pellicules argentiques, ISO s'est substitué à ASA. Pour la correspondance c'est facile : 1 ISO = 1 ASA et il n'est pas rare de disposer d'un reflex numérique offrant une fourchette de sensibilité allant de 100 à 3200 ISO voir 6400. Si le grain n'existe plus, c'est le bruit numérique qui survient dans les hautes sensibilité, le bruit étant une analogie avec le son et l'apparition de crachotements lorsqu'il subit une interférence électrique. Il ne faut pas hésiter à activer la fonction de réduction du bruit numérique dans les menus de configuration de  votre boitier s'il en dispose pour obtenir un résultat présentable. A l'inverse, si les conditions de prise de vue sont très changeantes, par exemple une alternance de nuages et de soleil, vous pouvez abuser de la fonction ISO AUTO si votre appareil en dispose. Dans ce cas, votre capteur adoptera la meilleure sensibilité en fonction de la quantité de lumière disponible, de la vitesse d'obturation et de l'ouverture utilisée. 

Une scène sombre prise à  100 ISO avec un Nikon D80

La même scène prise à 1600 ISO sur un Nikon D80

Pour conclure, sachez que la qualité du rendu dépendra aussi de la qualité du capteur utilisé. Ici, le "vieux" Nikon D80 est carrément dépassé mais qu'avec un appareil équivalent d'aujourd'hui tels que le Nikon D7000 ou le Canon EOS 7D, le résultat serait plus que correct jusqu'à 3200 ISO. Avec un Nikon D800 ou un Canon 5D mkIII, le bruit serait quasiment inexistant, mais le prix est en conséquence ...

A présent, à vous de jouer !

mercredi 19 décembre 2012

Instagram se prend un avertissement de ses utilisateurs

Vu sur l'informaticien.com - Instagram : marche arrière toute par Emilien Ercolani

Critiqué par les utilisateurs dont beaucoup ont déjà clôturé leurs comptes hier, Instagram a fait marche arrière et assure finalement qu’il n’a aucune intention de vendre les photos de ses utilisateurs. 

Hier, Instagram a déclenché un véritable tollé sur le Web en présentant ses nouvelles conditions d’utilisation et sa politique de la vie privée, qui seront appliquées mi-janvier prochain. Un véritable déchaînement donc puisque la rumeur selon laquelle Instagram s’octroyait le droit de vendre les photos de ses membres sans leurs consentement ni même une compensation a circulé à la vitesse du web. 

Sur Twitter, nombreux étaient ceux qui affichaient des images de leurs comptes Instagram clôturés. D’autres indiquaient comment récupérer leurs photos et le service qui le permet, Instaport, était même inaccessible, croulant sous les demandes. 

Il faut dire que les règles présentées par Instagram étaient très susceptibles d’être mal interprétées : « Vous acceptez qu'une entreprise ou toute autre entité puisse nous payer pour afficher votre nom et profil d'utilisateur, vos photos [...] en lien avec des contenus payants ou sponsorisés, sans que cela ne vous donne droit à une compensation ». Dans un billet de blogpublié aujourd’hui, le site racheté par Facebook jure ses grands dieux que justement, les internautes ont mal interprété ce texte : « Beaucoup ont cru que nous allions vendre leurs photos sans compensation. C’est faux et c’est de notre faute si le message était confus. Pour être bien clair : nous n’avons aucune intention de vendre vos photos ». 

Voilà qui est rattrapé de justesse par Instagram, et donc par Facebook, qui annonçait aussi qu'il allait croiser les données recueillies auprès de ses propres membres. Mais il n’en est rien. Instagram se défend et explique qu’il a souhaité pouvoir tester des formes de publicités innovantes : une des clauses précisait aussi que les publicités ne seraient pas toujours affichées comme telles. 

lundi 17 décembre 2012

Telex : Cisco envisagerait de céder Linksys

La rumeur du jour fait état de Cisco qui céderait la filiale grand public acquise en 2003. A lire sur CNET.

mercredi 12 décembre 2012

Ballade messine nocturne

Entre une configuration de switchs Cisco et une installation de baies NetAPP, j'ai profité de ma présence sur Metz pour faire hier une ballade nocturne. La ville est vraiment magnifique, brille de milles feux et le marché de noël est l'un des plus grands de France juste derrière celui de Strasbourg. Mon Nikon D800 a été un précieux allié pour capter toute la subtilité des lumières dans la nuit, jugez par vous-même.

dimanche 9 décembre 2012

Bord de Loire automnal

Résultat d'une petite  ballade du côté de Combleux et Chécy  site classé au patrimoine mondial de l'UNESCO. Je n'ai pu résister à la tentation du noir et blanc. Vous pouvez cliquer sur les images pour les agrandir.