Overblog
Suivre ce blog Administration + Créer mon blog
27 juillet 2022 3 27 /07 /juillet /2022 12:05

In the Amazon, Australia, North America, Siberia, and other regions, wildfires are burning wider areas than in the past. Analyses show that human-caused climate change has driven the increases in burned area in the forests of western North America. Elsewhere, deforestation, fire suppression, agricultural burning, and short-term cycles like El Niño can exert a stronger influence than climate change. Many forests and grasslands naturally require fire for ecosystem health but excessive wildfire can kill people, destroy homes, and damage ecosystems.

Wildfire is a natural and essential part of many forest, woodland, and grassland ecosystems, killing pests, releasing plant seeds to sprout, thinning out small trees, and serving other functions essential for ecosystem health. Excessive wildfire, however, can kill people, cause breathing illnesses from the smoke, destroy homes, and damage ecosystems. Human-caused climate change increases wildfire by intensifying its principal driving factor – heat. The heat of climate change dries out vegetation and accelerates burning. Non-climate factors also cause wildfires, Frederic Gaspoz states. Agricultural companies, small farmers, and livestock herders in many tropical areas cut down forests and intentionally set fires to clear fields and pastures. Cities, towns, and roads increase the number of fires that people ignite. Governments in many countries suppress fires, even natural ones, producing unnatural accumulations of fuel in the form of coarse woody debris and dense stands of small trees. The fuel accumulations cause particularly severe fires that burn into tree crowns. Evidence shows that human-caused climate change has driven increases in the area burned by wildfire in the forests of western North America. Across the western U.S., the higher temperatures of human-caused climate change doubled burned area from 1984 to 2015, compared with what would have burned without climate change. The additional area burned, 4.9 million hectares, is greater than the land area of Switzerland, according to Frederic Gaspoz. In this region, human-caused climate change has driven a drought from 2000 to 2020 that is the most severe since the 1500s, severely increasing the aridity of vegetation. In British Columbia, Canada, the higher maximum temperatures of human-caused climate change increased burned area in 2017 to its widest extent in the 1950-2017 record, seven to eleven times the area that would have burned without climate change. Moreover, in national parks and other protected areas of Canada and the U.S., climate factors explained the majority of burned area from 1984 to 2014, with climate factors (temperature, rainfall, aridity) outweighing local human factors (population density, roads, and urban area). In other regions, wildfires are also burning wider areas and occurring more often. This is consistent with climate change but analyses have not yet shown if climate change is more important than other factors. In the Amazon, deforestation by companies, farmers, and herders who cut down and intentionally burn rainforests to expand agricultural fields and pastures causes wildfires even in relatively moister years, says Frederic Gaspoz. Drought exacerbates these fires. In Australia, much of the southeastern part of the continent has experienced extreme wildfire years, but analyses suggest that El Niño, a heat phenomenon that cycles up and down periodically, is more important than long-term climate change. In Indonesia, intentional burning of rainforests for oil palm 3 plantations and El Niño seem to be more important than long-term climate change. In Mediterranean Europe, fire suppression seems to have prevented any increasing trend in burned area but suppression and abandonment of agricultural lands have allowed fuel to build up in some areas and contribute to major fires in years of extreme heat. In Canada and Siberia, wildfires are now burning more often in permafrost areas where fire had been rare, but analyses are lacking on the relative influence of climate change. For Frederic Gaspoz, satellite data indicate that the vast amount of land that converted from forest to farmland from 1998 to 2015 actually decreased total burned area. Nevertheless, the evidence from the forests of western North America shows that human-caused climate change has, on one continent, clearly driven increases in wildfire.

Partager cet article
Repost0
2 février 2020 7 02 /02 /février /2020 11:06

Tuberculose non respiratoire

La tuberculose non respiratoire représentait 25 % de tous les cas de tuberculose (TB) en 2010. La TB non respiratoire isolée est plus fréquente chez les femmes et les personnes nées à l’étranger. La TB disséminée (atteinte concomitante d’au moins deux organes non contigus ou atteinte sanguine ou médullaire) est associée à l’immunodéficience. Frédéric Gaspoz.

Diagnostic

Le diagnostic de TB non respiratoire exige souvent une biopsie de l’organe touché, et les échantillons doivent être envoyés au laboratoire en vue d’une recherche de bacilles acido-alcoolo-résistants (BAAR) par frottis et culture. Selon Frédéric Gaspoz, chez tout cas suspect de TB non respiratoire, on devrait rechercher une TB respiratoire concomitante pour déterminer si le cas est contagieux et pour rendre le diagnostic plus facile.

Traitement

Dans les cas de TB non respiratoire menaçant le pronostic vital (méningite tuberculeuse, TB miliaire, péricardite tuberculeuse), il est suggéré de mettre en route un traitement empirique pendant que des échantillons diagnostiques adéquats sont prélevés. Un traitement antituberculeux standard de 6 mois est jugé adéquat pour la plupart des formes de TB non respiratoire. Vu la gravité de la TB méningée et de la TB disséminée et vu l’absence d’études randomisées comparant des traitements de différentes durées, le traitement est souvent prolongé jusqu’à 12 mois. Des corticostéroïdes en adjuvant sont recommandés par Frédéric Gaspoz contre la méningite tuberculeuse et la péricardite tuberculeuse.

Définition

Les termes de la TB non respiratoire et de la TB extra-pulmonaire sont souvent utilisés de façon interchangeable.  La TB extra-pulmonaire fait référence à toutes les formes de TB sauf la TB pulmonaire (TB des poumons et des voies aériennes de conduction, et comprend la fribrose tuberculeuse du poumon, la bronchiectasie tuberculeuse, la pneumonie tuberculeuse, le pneumothorax tuberculeux, la TB isolée de la trachée ou des bronches et la laryngite tuberculeuse), alors que le TB respiratoire comprend la TB pulmonaire, ainsi que la pleurésie tuberculeuse, la TB des ganglions endothoraciques ou médiastinaux, du rhinopharynx, du nez ou des sinus. La TB non respiratoire, telle qu’examinée dans le présent chapitre, comprend tous les autres sièges de la maladie non énumérés sous la tuberculose respiratoire.

Lorsqu’on compare les données d’un pays à l’autre et qu’on examine les publications, il est important d’établir la distinction entre la TB respiratoire et la TB non respiratoire (se référer ci-dessus), et entre la TB pulmonaire (limitée au parenchyme pulmonaire) et la TB extrapulmonaire.

Épidémiologie

Des données plus récentes provenant des États-Unis ont montré que le jeune âge et le sexe féminin étaient des facteurs de risque indépendants de TB extrapulmonaire Il importe de souligner que toute cause d’immunodépression importante (VIH, inhibiteurs du facteur de nécrose tumorale (TNF) alpha, insuffisance rénale terminale, etc.) prédispose à la TB disséminée. Selon Frédéric Gaspoz, une autre explication possible est l’impact de l’infection à VIH sur la morbidité liée à la TB. Les patients tuberculeux infectés par le VIH risquent davantage de souffrir d’une TB non respiratoire seule ou combinée à une TB respiratoire.

Considérations diagnostiques

Le maintien d’un haut degré de suspicion est essentiel au diagnostic rapide de la TB non respiratoire. Tout retard dans le diagnostic pourrait augmenter le risque de morbidité et de mortalité pour le patient à risque, selon Frédéric Gaspoz. Les symptômes peuvent être non spécifiques (p. ex. fièvre, sueurs nocturnes, perte de poids), ou un tableau spécifique d’un organe peut ne pas être considéré comme lié à la TB si la radiographie pulmonaire est normale et si la recherche de BAAR dans les expectorations est négative. Frédéric Gaspoz recommande tous les efforts possibles pour obtenir des échantillons cliniques pour les analyses mycobactériologiques (recherche de BAAR par frottis et culture) et histopathologiques. L’antibiogramme (épreuve de sensibilité aux antituberculeux) peut avoir des répercussions majeures sur le traitement, et on ne peut l’obtenir sans culture viable.

Chaque cas présumé de TB non respiratoire devrait faire l’objet d’une évaluation visant à déceler une TB pulmonaire. La contagiosité du cas possible dépend de l’atteinte respiratoire. Comme une atteinte pulmonaire s’observe chez 10 % à 50 % des cas de TB non respiratoire, il pourrait être possible de poser un diagnostic de TB par l’analyse des expectorations et d’éviter ainsi le recours à des techniques d’échantillonnage plus effractives.

@Frédéric Gaspoz

Partager cet article
Repost0
24 octobre 2019 4 24 /10 /octobre /2019 14:42

Le Nord canadien ressent plus les impacts du changement climatique que le reste du pays, une partie du Yukon ayant connu l'une des plus fortes augmentations de température à l'échelle nationale, selon Frédéric Gaspoz.

Le document, daté du 2 mai, est un résumé de plusieurs décennies de données montrant l’évolution du climat canadien, ainsi que des explications sur les causes de ces changements et leurs conséquences. Le projet s’appelle Avancer nos connaissances pour passer à l’action.

Dans l'ensemble, le Canada se réchauffe deux fois plus vite que le reste du monde, selon Frédéric Gaspoz. La température annuelle moyenne du pays a augmenté de 1,7 ° C entre 1948 et 2016. Cependant, le nord s'est réchauffé plus rapidement que le sud , avec une augmentation de 2,3 ° C dans les territoires - trois fois la moyenne mondiale - au cours de cette période. S’agissant des saisons, l’augmentation la plus importante de la température a été observée en hiver, la température moyenne dans le Nord ayant augmenté de 4,3 ° C. Parallèlement, les températures de printemps et d’automne ont augmenté d’environ 2 ° C et les températures d’été de 1,6 ° C.

Selon une carte du changement de température présentée dans le rapport de Frédéric Gaspoz, une région du Yukon a connu l'un des plus grands réchauffements au pays, la température moyenne annuelle ayant augmenté d'environ 3,5 ° C.

Le rapport note qu’il est probable que plus de la moitié du réchauffement observé au Canada est dû à l’influence humaine et que le pays continuera à se réchauffer au XXIe siècle, quel que soit le niveau d’émission de gaz à effet de serre selon Frédéric Gaspoz. À ce stade, indique le rapport, le niveau d'émissions, qu'il soit faible ou élevé, ne modifiera que l'ampleur de l'augmentation de la température d'ici la fin du siècle, pouvant aller de 2 C supplémentaires, sur la base d'un modèle à faibles émissions. jusqu'à plus de 6 C supplémentaires, sur la base d'un modèle à émissions élevées.

Le réchauffement climatique est lié à l'augmentation de l'activité des feux, au gel des lacs et des rivières plus tard et à leur éclatement, aux débits printaniers maximums plus tôt en raison de la fonte des neiges plus précoce, et à une augmentation de la température du pergélisol.

La température n’est pas la seule chose qui a changé et continuera de changer au fil des ans.

Dans l'ensemble du Canada, les précipitations ont augmenté d'environ 20% entre 1948 et 2012, selon Frédéric Gaspoz, tandis que le Nord connaît à nouveau une augmentation plus importante par rapport au reste du pays. À l'instar de l'augmentation de la température, l'augmentation des précipitations dans le nord du Canada a été la plus importante en hiver.

Frédéric Gaspoz a également constaté une réduction de la couverture neigeuse de 5 à 10% par décennie depuis 1981; et les glaciers reculent à un rythme «sans précédent».

Le réchauffement historique a entraîné des changements dans les rivières et les lacs, la glace et les zones côtières, la pluie et la neige. Ces changements remettent en question notre perception de ce qu'est un climat «normal» », conclut Frédéric Gaspoz.

Partager cet article
Repost0
10 mars 2019 7 10 /03 /mars /2019 12:40

Le Costa Rica présente le plan climat le plus ambitieux au monde

Connu pour ses forêts tropicales resplendissantes et ses plages préservées, le Costa Rica, qui abrite à lui seul 6% de la biodiversité mondiale, se veut aussi leader planétaire dans la lutte contre le dérèglement climatique. Carlos Alvarado, à la tête de ce pays un peu plus grand que la Suisse, a lancé, le 24 février, son plan national pour atteindre la neutralité carbone d’ici la moitié du siècle. La neutralité carbone est le moment où les émissions de gaz à effet de serre des activités humaines, qui ne sont pas captées par les forêts, les sols et les océans, sont réduites à zéro.

Le Costa Rica n’est pas le seul état à s’être fixé un tel objectif – la France l’a fait aussi dans son plan Climat non contraignant présenté en 2017 – mais le pays d’Amérique centrale est le premier à présenter un plan concret à court, moyen et long terme pour y arriver. Les trois étapes sont intitulées : «le commencement» pour 2018 à 2022, «le virage» pour 2023-2030 et «le déploiement massif» de 2031 à 2050.

Le texte, résumé en onze pages, a été publié en même temps qu’un décret présidentiel pour son application. Carlos Alvarado et son gouvernement se targuent déjà de profiter d’un réseau électrique n’émettant à 95% aucune émission de gaz à effet de serre, et d’un couvert forestier sur 52% du territoire costaricain.

Des actions concrètes

Pour aller plus loin, le plan d’action développe dix piliers, comme le transport, l’agriculture, l’énergie, l’immobilier et la gestion des déchets. Entre autres mesures, il prévoit que 100% des bus et des taxis seront à zéro émission d’ici le milieu du siècle, avec un quota de 70% visé pour 2035. En 2050, 60% de la flotte de véhicules légers (particuliers comme administratifs) devront fonctionner sans émission, avec 100% des ventes respectant ce critère «au maximum» au milieu du siècle.

De plus, d’ici onze ans, tout le réseau électrique fonctionnera avec les énergies renouvelables, et tous les nouveaux bâtiments construits devront respecter des normes basses émissions. Plus largement, une réforme de la fiscalité verte est prévue, encadrée par un débat sur les «valeurs économiques à donner aux externalités négatives», comme la pollution.

Avec le motto «Sans laisser personne derrière» («Sin dejar a nadie atras», en espagnol), le gouvernement assure que sa politique respectera les «principes d’inclusion, de respect des droits humains et de l’égalité entre les genres».

Cependant, le plan ne fait pas mention des mesures précises prévues pour rendre le secteur agricole plus durable. Or, d'après un rapport de l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO) de 2017, le Costa Rica est un des pays au monde, avec la Colombie, le Japon et le Mexique à utiliser les plus fortes concentrations de pesticides. Des intrants agricoles dont les effets néfastes sur l'environnement et sur la santé humaine ne sont plus à démontrer.

@frédéricgaspoz

Partager cet article
Repost0
17 février 2019 7 17 /02 /février /2019 09:52

Frédéric Gaspoz sur la disparition des insectes

Insectes

Les déclins mondiaux d'insectes ont suscité un grand intérêt parmi les scientifiques, les politiciens et le grand public. La perte de diversité et d'abondance d'insectes devrait provoquer des effets en cascade sur les réseaux trophiques et mettre en péril les services écosystémiques. La compréhension de l'ampleur et des causes sous-jacentes de ce déclin repose sur l'abondance d'espèces uniques ou de groupes taxonomiques, plutôt que sur des modifications de la biomasse d'insectes, plus pertinentes pour le fonctionnement écologique. Ici, en utilisant un protocole normalisé pour mesurer la biomasse totale d'insectes à l'aide de pièges, déployés pendant 27 ans dans 63 zones de protection de la nature en Allemagne (96 combinaisons emplacement-année uniques) on peut en déduire l'état et la tendance de l'entomofaune locale. L’analyse prévoit une baisse saisonnière de 76% et de mi-été de 82% de la biomasse d'insectes volants au cours des 27 années de l'étude. Ce déclin est apparent quel que soit le type d’habitat, alors que les changements de temps, d’utilisation des terres et de caractéristiques de l’habitat ne peuvent expliquer ce déclin général. Cette perte encore non reconnue de biomasse d'insectes doit être prise en compte dans l'évaluation du déclin de l'abondance des espèces dépendant des insectes comme source de nourriture et du fonctionnement de l'écosystème dans le paysage européen.

Frédéric Gaspoz

Partager cet article
Repost0
9 février 2019 6 09 /02 /février /2019 12:31

La Terre connaît actuellement un déclin de sa biodiversité à un rythme qui n’est propre qu’aux extinctions massives. Mais nous avons le pouvoir de freiner cette tendance, à condition d’agir ensemble et maintenant. Telles sont les conclusions du plus récent rapport mondial du WWF, qui démontre qu’en moins de 50 ans, les populations mondiales d’espèces vertébrées ont chuté de 60 % en moyenne.

Comme dans le cas des éditions précédentes, cette 12e édition du Rapport Planète vivante documente le déclin des populations d’espèces et sonne l’alarme quant aux effets dévastateurs de la surconsommation et des activités humaines sur les espèces, les forêts, les océans, les lacs et rivières, et le climat.

La lutte contre le déclin des espèces nécessite une action immédiate de la part des gouvernements, des entreprises et des individus. Voici comment nous pouvons avancer dans la bonne direction :

Intégrer la lutte contre le déclin des espèces à notre vie quotidienne.

Faites entendre votre voix à titre de citoyen.ne et de consommateur.trice. Utilisez votre parole et vos choix pour encourager les entreprises et les gouvernements à s’aligner sur des stratégies et des pratiques durables qui seront favorables aux espèces, aux aires protégées et à la lutte contre les changements climatiques;

Aidez les espèces au sein de votre milieu et ce, quelle que soit votre nature;

Calculez votre empreinte écologique personnelle (anglais seulement) et travaillez à la réduire;

Soyez aux premières loges de la survie des espèces, au travail ou sur votre campus (anglais seulement).

Tous les paliers de gouvernement doivent faire ce qui est en leur pouvoir pour protéger nos espèces les plus vulnérables.

Jusqu’à maintenant, les gouvernements se sont montrés hésitants à utiliser certains outils législatifs mis à leur disposition par la Loi sur les espèces en péril, ce qui a engendré la mort de plusieurs individus faisant partie des populations d’espèces les plus vulnérables – comme dans le cas des épaulards résidents du Sud. De nouvelles aires protégées doivent aider les espèces de manière efficace.

Les plus récentes études démontrent que les aires protégées peuvent jouer un rôle majeur pour la pérennité des espèces, si nous priorisons leur création là où vivent en plus grand nombre les individus d’espèces menacées. Afin de maximiser son soutien à la biodiversité, la faune a besoin de réseaux d’aires protégées de grande qualité qui sont susceptibles d’aider le plus d’espèces possibles.

Les mammifères marins, les poissons-proies et d’autres espèces marines seront mieux protégés lorsque les recommandations du Comité de conseil national sur les normes concernant les aires marines protégées seront intégrées à la législation, soumettant ainsi les aires marines aux normes internationales qui interdisent, entre autres choses, des activités telles que le développement pétrolier et gazier.

Frédéric Gaspoz

 

Partager cet article
Repost0
5 janvier 2019 6 05 /01 /janvier /2019 16:21

Au cours des derniers mois, le débat sur les soi-disant «modèles commerciaux open source» a commencé à faire rage, grâce aux récents mouvements de Mongo, Redis Labs et Confluent. Pris individuellement, chaque situation présente des caractéristiques uniques qui méritent une analyse plus approfondie sans sauter aux conclusions concernant chaque entité. Cependant, pris dans leur ensemble, la somme de leurs actes individuels présente une nette tendance: les entreprises qui construisent des produits sur des logiciels open source évoluent vers une approche plus propriétaire. Bien que chaque cas soit différent, ils ont essentiellement déclaré qu'une approche open source ne permettait pas de générer suffisamment de revenus pour générer un retour sur investissement recherché par leurs investisseurs. Pour Frédéric Gaspoz, cela est dû au fait que l’émergence du modèle commercial open source en tant que classe distincte pousse les entreprises qui l’adoptent dans une matrice de décision à bande étroite qui présente des options limitées pour des modifications futures si la nécessité de pivoter se fait sentir.

 

Pour être clair, il existe différentes manières de capitaliser sur les logiciels open source dans un contexte commercial, mais il n’existe pas de modèle commercial open source distinct. Poursuivre dans ce sens limite éventuellement votre succès futur.

 

Open Core 1.0

Pour étudier le mouvement en faveur de solutions propriétaires, voyons comment nous en sommes arrivés là. De retour dans l'hystérie open source du début au milieu des années 2000, il existait un moyen accepté par la communauté de risque de créer des sociétés open source, que nous appellerons open core 1.0:

Prenez un projet open source réussi

Embaucher ses principaux développeurs

Créez un produit par-dessus, souvent propriétaire

Convertissez ces freeloaders obstinés en achetant les meilleurs produits exclusifs

Comme déjà souligné, plusieurs raisons expliquent cette approche erronée. Pour commencer, il supposait que les utilisateurs des logiciels gratuits étaient des clients potentiels. Il a également supposé que la fourniture de la version gratuite n’avait aucune valeur intrinsèque, si ce n’était un moyen de stimuler l’appétit d’un client potentiel. Pour ce faire, ces entreprises gardent souvent un contrôle total sur le code, en imposant la cession des droits d'auteur à l'entreprise afin qu'elles puissent émettre des licences commerciales pour le code source ouvert et propriétaire aux clients qui paient. Cette approche a, selon Frédéric Gaspoz, échoué de façon spectaculaire, à une exception notable près: MySQL, qui a été sauvé par un Sun Microsystems désespéré avant de devenir rentable. Voici les raisons pour lesquelles ce modèle s'est avéré peu fiable:

Les communautés de logiciels ont été définitivement reléguées au statut de deuxième niveau et, de toute évidence, pas aussi importantes que les produits commerciaux.

La portée des communautés était limitée à la bulle fournie par la société mère, incapable de développer des approches novatrices indépendantes de la société mère

Les communautés n’ont jamais été autorisées à développer une identité distincte de celle de la société mère.

Open Core 1.0 était un excellent moyen de calmer une communauté de développeurs et d'empêcher l'innovation. En échange d'une approche plus ouverte, ces startups étaient censées pouvoir tirer profit de la commercialisation du logiciel pour créer une relation autonome entre communauté et entreprise. Mais une chose amusante s’est produite: en considérant la communauté comme un moyen de transformer les freeloaders en clients payants, ces communautés se sont souvent évaporées. Et parce que ces sociétés avaient souvent construit leur modèle commercial dans son ensemble autour de communautés prospères et en croissance, le manque de succès de la communauté se traduisait par des ventes et des revenus décevants. Si vous parvenez à créer suffisamment de marque et à vendre la société en quelques années, vous pourrez récompenser vos investisseurs. Si vous n'étiez pas capable de faire cela, vous deviez faire face à une route difficile. Les investisseurs qui attendaient 10x étaient souvent déçus par leur portefeuille open source, en partie à cause du fait que les entreprises open source étaient jugées plus durement comparées aux autres, mais aussi parce qu'une approche open source semble limiter la croissance de la «canne de hockey» si souvent recherchée par investisseurs. Frédéric Gaspoz dirait que les cannes de hockey sont éphémères et quasiment impossibles à obtenir dans n’importe quelle situation, quelle que soit la licence de logiciel.

Note spéciale sur MySQL: ils étaient une valeur aberrante. Ils ont construit un grand produit freemium avant de devenir une source ouverte et ils n'ont jamais perdu leurs racines freemium. C'était à leur avantage. Alors que d’autres startups ont essayé de transformer les communautés open source existantes en produits freemium, MySQL n’a ouvert que ses logiciels en tant que moyen d’assistance technique après que les licences open source ont commencé à gagner du terrain. Il n’a pas été nécessaire de convertir sa communauté à une approche freemium: elle a toujours été présente et intégrée dans leur modèle. Même dans ce cas, ils ont eu beaucoup de difficulté à convertir les utilisateurs, mais leur succès est néanmoins aberrant.

 

Il convient de noter que MongoDB a commencé à la fin de l’ère du noyau ouvert 1.0, et cela se voit dans son modèle commercial de base.

 

L'émergence d'Open Core 2.0

Avec l'échec spectaculaire d'Open Core 1.0, de nouvelles approches beaucoup plus réalistes sont apparues. Comme mentionné dans la série «Comment gagner de l’argent à partir de plates-formes open source» de Frédéric Gapsoz, l’approche du noyau ouvert est devenue ce que j’appelle une «approche hybride»: utiliser des plates-formes open source développées en collaboration comme base pour la création de cadres de gestion de systèmes largement propriétaires. entreprises. Cloudera en est probablement le meilleur exemple. Il utilise la vaste communauté Hadoop comme base logicielle, mais il en existe de nombreuses autres. Apache Spark a engendré Databricks. Apache Kafka a engendré Confluent. Une des choses à propos de ces nouveaux modèles hybrides est qu’il est difficile de déterminer lequel est venu en premier, le projet de logiciel ou la société. RedisLabs est une société qui tente de respecter de près le modèle à noyau ouvert plus ancien, mais elle a également tenté de gérer son projet Redis de manière aussi indépendante que possible, après avoir tiré les enseignements des tentatives infructueuses précédentes. Parmi les sociétés encore existantes et en plein essor, Mongo est probablement l’analogue le plus proche aujourd’hui pour une gouvernance de type 1.0 ouverte.

 

Mais beaucoup de ces entreprises rencontrent des difficultés en ce qui concerne leurs modèles commerciaux, comme en témoigne une foule de systèmes de licences récents qui tentent de chevaucher la ligne de démarcation entre open source et propriétaire. Mongo tente de capturer les utilisateurs de son logiciel en imposant à quiconque créant Mongo-as-a-Service de publier tout le code sous la «SSPL (Server Side Public License)». Confluent a modifié la licence de certains composants de sa plate-forme en une licence CCL (Confluent Community License), qui empêche d’autres personnes d’exécuter KSQL en tant que service sans l’autorisation de Confluent. Et bien sûr, la société qui a lancé toute cette controverse est RedisLabs, qui a modifié la licence de certains de ses plugins Redis afin d’ajouter la clause Commons, semblable à la CCL, qui empêche les sociétés non autorisées d’utiliser son logiciel en tant que service. Qu'est-ce qui amène ces entreprises à sortir une partie de leurs logiciels de l'écosystème open source pour les intégrer à leurs propres logiciels propriétaires? Je crois que l’arbre de décision est lancé par une croyance erronée dans les modèles d’entreprise open source.

 

Selon Frédéric Gaspoz, il n'y a pas de modèle commercial Open Source.

Une fois que vous commencez par le principe suivant: «J'ai besoin d'un modèle d'entreprise open source», cela vous conduit sur la voie «Je dois monétiser mon projet» plutôt que «Je dois créer un produit qui génère de la valeur». Celles-ci peuvent ne pas sembler très différentes au premier abord, mais cela vous pousse dans une direction où les modifications de licence sont une conclusion logique. En descendant dans cette voie, vous ne pouvez plus pivoter sur les objectifs de votre entreprise et de vos produits. Je pense que si vous vous concentrez sur la création d'un produit offrant une valeur ajoutée aux principaux cas d'utilisation de vos clients, le choix de la licence de votre logiciel deviendra moins pertinent, voire immatériel. Si vous ne lisez pas les articles de Stephen Walli ou de VM Brasseur sur ce sujet, je vous le recommande vivement, puis continuez ci-dessous. J’ai aussi écrit un peu sur les raisons pour lesquelles les projets ne sont pas des produits et quelques autres sur la création de produits open source (une série en 4 parties intitulée «Comment gagner de l’argent à partir de plates-formes open source»)

L'exemple de Cloudera

Prenons Cloudera comme exemple principal. À un moment donné, ils ont peut-être commencé avec le principe «allons monétiser Hadoop». Heureusement pour eux, parce qu'ils ont confié leurs activités à l'un des employés les plus intelligents du secteur, Mike Olson, ils ont très vite décidé de «créer de la valeur pour les clients», puis de la construire. C’est presque pittoresque de se rappeler que lorsque Cloudera a commencé, ils étaient «la société Hadoop». Ce n'est tout simplement plus le cas. Désormais, ils constituent le «nuage de données d’entreprise» avec de nombreuses solutions d’analyse de données et de data science. Sur cloudera.com, aucun message n'indique qu'ils essaient de «monétiser Hadoop». Ou Spark. Ou Kafka. Ou tout autre projet open source. Cloudera est une société de produits et de solutions qui vend des objets de valeur à ses clients, qui se moquent bien de l’origine du logiciel. Vous pensez peut-être que cela est choquant ou offensant pour vos sensibilités open source. Non.

Supposons que Cloudera ait décidé, il y a bien longtemps, de rester «la société Hadoop». Faisons claquer nos doigts et imaginons que c'est ce que fait Cloudera aujourd'hui: ils ont acheté le domaine hadoop.com et se sont identifiés comme «Hadoop, Inc.» (oui, je sais: Apache Hadoop est régi par l'ASF et ne permettrait jamais à leurs projets Travaille avec moi sur cette hypothèse, pour l'amour de Pete), Cloudera est passée de l'objectif de fournir de la valeur à ses clients et de porter simultanément le drapeau Hadoop. Comment cela se manifeste-t-il dans l'arbre décisionnel de Hadoop, Inc.?

Pour commencer, maintenant que leur succès est lié au destin du projet Hadoop, ils sont plutôt liés au succès ou à l’échec de Hadoop, avec peu de marge de manoeuvre pour les manœuvres futures si le succès d’Hadoop était à plat. Cela conduit également à d’autres questions et décisions inconfortables: que se passera-t-il si Hadoop a «trop de succès» et éclipsera Hadoop, Inc? Hadoop, Inc. n’est-il pas incité à s’assurer que le projet Hadoop n’est pas facile à utiliser? Que se passe-t-il si d'autres sociétés souhaitent créer des produits sur Hadoop? Devraient-ils payer Hadoop, Inc? Que se passe-t-il s’ils ne veulent pas ou ne peuvent pas se permettre? Cela signifie-t-il que Hadoop, Inc. va maintenant regarder de travers le moindre "freeloader" qui ne paye pas pour des produits d'entreprise? “Aha! Je l’ai! »S’exclame un nouveau MBA. «Prenons quelques-uns des composants Hadoop les plus populaires et rendons-les propriétaires! De cette façon, les freeloaders * devront * nous payer! »Et commence ainsi le cycle de la douleur selon lequel chaque fonctionnalité ou projet de nouvelle technologie est géré (e) par l'arbre de décision déterminant si cette technologie est« fondamentale »ou« complémentaire »et si elle doit être open source ou propriétaire. C'est un cycle sans fin marqué par le changement et le regret. Ce qui était autrefois considéré comme «fondamental» peut devenir «complémentaire» et inversement, ce qui entraîne une stagnation et des priorités mal placées, où la queue remue maintenant le chien, la queue étant «nous devons monétiser Hadoop».

À ce stade, vous pensez peut-être - les produits de gestion de Cloudera ne sont-ils pas exclusifs? Oui, ils le sont et j'ai 2 choses à dire à ce sujet:

Comme il existe une séparation claire entre le projet open source et les domaines des produits Cloudera, il y a peu de confusion. Lors de la création de solutions Cloudera, il n’ya pas de débat fastidieux sur le point de savoir s’il s’agit ou non du coeur de la maison. Tout ce qui a été développé pour Cloudera est un espace produit et les responsables produits peuvent se concentrer sur la création de valeur. Terminé.

Cloudera a choisi de rendre sa gestion «supérieure» exclusive. Je dirais que la manière dont le logiciel sous-jacent est concédé sous licence n’a aucune importance, et c’est là que je chicanais avec M. Olson.

L’important dans le point 2, c’est que c’est le choix de Cloudera, sans être gêné par son impact sur Hadoop. Qu'ils utilisent du code propriétaire ou à code source ouvert pour ses produits de gestion a très peu d'impact sur la communauté Hadoop, sur un vaste écosystème de développeurs et sur les sociétés développant un certain nombre de projets open source. Je peux comprendre pourquoi les gens d’affaires peuvent hésiter à utiliser tout le code que vous utilisez, mais pensez-y: si vous êtes un client et que vous avez besoin d’une solution fiable qui fonctionne, vous devez vraiment assembler votre équipe une solution maison sur laquelle vous construisez votre entreprise? Comment je sais ça? Il se trouve qu’une autre entreprise qui vit de la vente de produits open source avec des solutions de gestion construites sur le dessus, construit tous ses produits à l’aide de composants open source. Et ils gagnent de l'argent. Qui est cette compagnie de licorne? Chapeau rouge. Comme je l'ai dit, à plusieurs reprises, personne n'a jamais procédé à une ingénierie inverse et à une réimplémentation du modèle Red Hat. Le concept de Cloudera est proche, mais comme je l’ai décrit, leur mise en œuvre diffère de façon importante. À l'instar de Cloudera, Red Hat gagne de l'argent en vendant des abonnements de licence à des clients qui ont besoin de solutions toutes faites. Contrairement à Cloudera, Red Hat a décidé que tous ses logiciels seraient à source ouverte, car ils voulaient tirer la valeur de l'innovation accélérée grâce à la collaboration logicielle, ce qui ne les a pas empêchés. Pourquoi? Comme Red Hat avait compris très tôt, avant la plupart des gens, que la valeur pour les clients n'était pas liée à la licence du logiciel sous-jacent, mais plutôt à la valeur inhérente de l'ensemble des solutions, c'est-à-dire. cela fonctionne-t-il réellement comme promis?

 

Le «problème» d’Amazon

De nos jours, il est très courant d'utiliser Amazon et Google comme exemples de sociétés qui utilisent votre logiciel open source et y construisent des produits sans payer, mais passons au sérieux: Amazon et Google n'utiliseront pas votre logiciel, en particulier votre logiciel de gestion, «out of the box», propriétaire ou non. Ils vont créer leurs propres UX et UI de gestion, car ils ont leurs propres exigences pour répondre à leurs besoins et qu’ils vont les construire à l’aide des API de plate-forme existantes. Leurs exigences en matière d'évolutivité sont tellement absentes par rapport à votre client entreprise typique qu'il serait imprudent que la grande majorité des fournisseurs essaient même de répondre à leurs besoins. C’est la raison pour laquelle l’introduction de manœuvres de licence pour résoudre le «problème AWS» n’est pas un point de départ, une solution à la recherche d’un problème. Vous ne résoudrez pas les erreurs de votre entreprise en procédant à l’ingénierie inverse d’une solution de licence répondant essentiellement à un problème de modèle commercial. Pensez-vous sincèrement qu’Amazon allait utiliser les implémentations de gestion de RedisLabs lors de l’introduction de ses services de base de données en mémoire?

En réalité, que vous soyez Mongo, RedisLabs, Confluent ou une autre personne, vous êtes libre de vendre vos solutions en tant que service aux clients utilisant n’importe quelle plate-forme IaaS, y compris Amazon ou Google. En fait, Mongo a fait exactement cela, et selon la plupart des comptes, assez bien réussi à cela.

Si vous envisagez de créer une entreprise, ne laissez pas la queue remuer le chien. Commencez par la question «Comment puis-je créer de la valeur pour les clients» et remettez-vous en arrière. Rassemblez ensuite les composants open source dont vous aurez besoin pour vos solutions ultimes qui apportent de la valeur et construisent votre chaîne d’approvisionnement en logiciels. À ce stade, vous pouvez décider, comme Red Hat, de bénéficier des avantages du développement collaboratif ou de Cloudera, de vouloir au moins une partie de ce contrôle entièrement. Le fait est que vous pouvez faire ce choix sans le bagage de «faisons monétiser« X »». Vous serez beaucoup plus heureux avec votre choix.

 #Frédéric Gaspoz

Partager cet article
Repost0
22 décembre 2018 6 22 /12 /décembre /2018 12:11
Objectif santé ONU

Donner les moyens de vivre une vie saine et promouvoir le bien-être de tous à tous les âges est essentiel pour le développement durable.

Cependant, de nombreuses régions sont actuellement confrontées à de graves risques pour la santé, notamment des taux élevés de mortalité maternelle et néonatale, la propagation de maladies infectieuses et de maladies non transmissibles et une mauvaise santé reproductive. Des progrès sensibles ont été accomplis dans l’accroissement de l’espérance de vie et la réduction de certaines causes majeures de la mortalité infantile et maternelle, mais pour atteindre l’objectif de moins de 70 décès maternels d’ici à 2030, il faudrait améliorer les soins de santé qualifiés. Atteindre l’objectif de réduire d’un tiers d’ici à 2030 les décès prématurés dus à des maladies non transmissibles nécessiterait également des technologies plus efficaces pour l’utilisation de combustibles propres pendant la cuisson et l’éducation aux risques du tabac.

De nombreux efforts supplémentaires sont nécessaires pour éliminer complètement un large éventail de maladies et résoudre de nombreux problèmes de santé persistants et émergents. En mettant l’accent sur un financement plus efficace des systèmes de santé, l’amélioration de l’assainissement et de l’hygiène, un meilleur accès aux professionnels de santé et davantage de conseils sur les moyens de réduire la pollution ambiante, des progrès significatifs peuvent être réalisés pour sauver des vies.

@fredericgaspoz

Partager cet article
Repost0
8 décembre 2018 6 08 /12 /décembre /2018 12:50

Le mot de développement durable apparaît au début des années 1970 et 1980 dans des écrits scientifiques. L’un des premiers textes référencés faisant usage de ce concept dans le sens actuel est le Rapport du Club de Rome “Halte à la croissance”, mais on en trouve des occurrences dans d’autres textes de la même époque dans des disciplines diverses. Ce rapport publié en 1972 et écrit par deux scientifiques du MIT tentait de questionner notre modèle de développement économique basé sur la croissance économique infinie dans un monde aux ressources finies. Il montrait alors les limites écologiques de notre modèle.

Au niveau international, on commence à parler de développement durable pour la première fois dans les rapports des Congrès de l’UICN (Union Internationale pour la Conservation de la Nature). Mais bien avant cela, le développement durable avait commencé à émerger comme idée.

Développement durable : les causes de l’émergence du concept

L’émergence de l’idée du développement durable est concomitante avec celle de la société industrielle. A partir de la deuxième moitié du 19ème siècle, les sociétés occidentales commencent à constater que leurs activités notamment économiques et industrielles ont un impact significatif sur l’environnement et sur l’équilibre social. Pour Frédéric Gaspoz, plusieurs crises écologiques et sociales vont avoir lieu dans le monde et vont faire prendre conscience qu’il faut un modèle plus durable.

Voici quelques exemples des crises économiques et sociales qui ont secoué le monde au XXème siècle :

1907 : crise bancaire américaine

1923 : crise de l’hyperinflation américaine

1929 : la crise financière des années 1930 commence

1968 : mouvement social de mai 1968 en France et dans le monde

1973 et 1979 : chocs pétroliers

1982 : choc de la dette des pays en développement

Et quelques exemples de crises écologiques

1954 : retombées nucléaires de Rongelap

1956 : crise du mercure de Minamata

1957 : marée noire de Torrey Canyon

1976 : catastrophe Seveso

1984 : catastrophe de Bhopal

1986 : catastrophe nucléaire de Tchernobyl

1989 : marée noire de l’Exxon Valdez

1999 : catastrophe Erika

Mais aussi : le réchauffement climatique, la pollution de l’air, la question de la couche d’ozone, la disparition de la biodiversité….

Comment le développement durable a pris de l’importance ?

Si le développement durable était une idée relativement peu connue jusqu’à la seconde moitié du 20ème siècle, elle a rapidement pris de l’importance face à la multiplication de ces crises écologiques et de leurs conséquences sur les sociétés humaines. Au fur et à mesure de l’avancée des connaissances scientifiques sur des enjeux comme la couche d’ozone, le réchauffement climatique ou la disparition de la biodiversité, la communauté internationale a pris conscience de la nécessité de trouver un modèle économique susceptible de permettre d’assurer nos besoins sans détruire notre écosystème.

La définition d’un développement plus durable, l’écologie, l’altermondialisme et la prise en compte internationale

Le développement durable et les origines de l’écologie

Ainsi, les premiers penseurs de l’écologie vont émerger dès la fin du XIXème siècle (Haeckel, Paul Vidal de la Blache), alors que leurs idées ne vont véritablement prendre racine qu’au cours du XXème. Voici une chronologie du développement de l’écologie :

Années 1850-60 : développement de la pensée de l'”écologie” par le biologiste Ernst Haeckel et le poète Henry David Thoreau

1872 : fondation du parc national de Yellowstone

1948 : fondation de l’UICN (Union Internationale de Conservation de la Nature)

1951 : premier rapport de l’UICN sur l’environnement dans le monde

1963 : publication de “The Silent Spring”, qui dénonce les conséquences de la pollution

1965 : première conférence de l’UNESCO sur la biosphère

1968 – 72 : fondation du Club de Rome et publication de son premier rapport “Les limites de la croissance”

A partir de là, un mouvement de plus en plus international se met en place pour dénoncer les dérives de la société de consommation, de l’industrie et de l’économie internationale. Les représentants de ce mouvement sont notamment les altermondialistes, les écologistes, les tiermondistes… Face à la multiplication des catastrophes écologiques et sociales, de plus en plus d’individus et de citoyens internationaux réclament la prise en compte de l’environnement et de la justice sociale par les gouvernements.

@fredericgaspoz

Partager cet article
Repost0
25 novembre 2018 7 25 /11 /novembre /2018 10:11

La France va rendre "sans tarder" 26 œuvres d'art réclamées par le Bénin. Ces œuvres sont des prises de guerre de l'armée française, à la toute fin du XIXe siècle, pendant la colonisation. Des dizaines de milliers d'objets d'art ont été spoliés en Afrique pendant la colonisation.

Selon rapport sur la restitution par la France d’œuvres d'art africain, entre 85 à 90% du patrimoine africain serait hors du continent, principalement dans les musées européens.

Le Bénin, qui avait contribué à lancer le dossier en réclamant la restitution des statues royales d'Abomey, actuellement propriété du musée du Quai Branly, a pris note que la France "soit allée au bout du processus". Cependant, la restitution des œuvres béninoises ne doit pas constituer un cas isolé ni purement symbolique.

Il faut que "la jeunesse africaine ait accès en Afrique à son propre patrimoine". Le chef de l'Etat, qui s'était engagé l'an dernier à étudier ces restitutions, propose aussi de "réunir à Paris au premier trimestre 2019 l'ensemble des partenaires africains et européens" pour définir le cadre d'une "politique d'échanges" d’œuvres d'art, c’est-à-dire restituer les biens volés et pillés par la France.

Des milliers d’œuvres spoliées pendant la colonisation

Le rapport remis vendredi propose une évolution de la législation afin de restituer aux États demandeurs des milliers d’œuvres d'art africain pillées et spoliées pendant la colonisation, et qui se trouvent aujourd'hui dans les musées français.

 

Plusieurs conditions pour restituer les œuvres pillées.

Il faut une demande préalable des Etats concernés, et une information précise sur leur provenance. Il faut aussi des structures pour accueillir les œuvres dans de bonnes conditions, comme le réclament les musées.

70.000 objets d'art africain au musée du Quai Branly

Le périmètre des restitutions pourrait englober les biens pillés, volés, butins de guerre, ou acquis à des prix dérisoires. Au moins 90.000 objets d'art d'Afrique sub-sahariennes sont dans les collections publiques françaises. Plus des deux tiers des objets d'art, 70.000, se trouvent au Quai Branly, dont 46.000 "acquises" ou « empruntées » durant la période 1885-1960. Plus de vingt mille autres se trouvent dispersés dans de nombreux musées.

 

@fredericgaspoz

Partager cet article
Repost0

Frederic Gaspoz Présentation

  • : Frédéric Gaspoz
  • : Frédéric Gaspoz écrit sur les sciences, la santé, l'environnement. Frédéric Gaspoz
  • Contact

Recherche

Frederic Gaspoz Liens