Archives de catégorie : Général

Les avantages du web sémantique

Sémantique, web sémantique, comme web qui comprend le sens des mots, qui a une certaine forme d’intelligence. Depuis 2007 que cette expression d’experts permet de qualifier le Web 3.0. Approfondissons donc l’affaire.

Certains aiment résumer la chaîne du temps en expliquant qu’alors que le Web 1.0 était réservé aux informaticiens qui maîtrisaient l’HTML, le Web 2.0 désigne l’Internet communautaire qui permet à chacun de participer à un site, d’enrichir son contenu ou d’intégrer un réseau social. Et de poursuivre, qu’alors que le Web 2.0 désigne donc un web participatif, déjà intelligent et social, le Web 3.0 désignera un web « libre », « anonyme », jusque « activiste ». Donc activement intelligent!

Le Web 3.0 c’est le web arrivé au web « intelligent ».

Tout un avantage… et une responsabilité!

Web 3.0 : more connected, open, and intelligent, semantic Web technologies, distributed databases, natural language processing, machine learning, machine reasoning, autonomous agents, microformats, natural language search, data-mining, recommendation agents, artificial intelligence technologies, machine-facilitated understanding of information… Welcome to the intelligent Web!

Capable d’offrir une expérience plus productive et intuitive à l’utilisateur, ce niveau du web est mobile, indépendant de toute plateforme ou support, et les pages qui composent le site doivent être gérées par une base de données relationnelle intelligente, ou du moins ayant un minimum de travail d’ontologie en amont.

Ontologie : modèle de données représentatif d’un ensemble de concepts dans un domaine, ainsi que des relations entre ces concepts.

Ce web 3.0 est ainsi appelé « web sémantique » et avec cette fascinante valeur ajoutée, il met le web 2.0 bien proche du placard et le place certes comme une entité dépassée.

web3C

Source: currentmediadebates.wordpress.com/2014/11/26/web-3-0

L’INTELLIGENCE… DE L’INTUITION

Appelé sémantique, ce niveau du web apporte ce que plusieurs aiment désigner comme un web intuitif. Intuitif parce que de fait, une bien réelle « constellation » d’informations, compatible avec tous les systèmes d’exploitation et tous les objets relies, lui donne vie.

Ce web-là, il tient compte de nos visites précédentes sur un site, et aussi de notre navigation, de notre profil. Il nous propose des recherches associées à celles que nous faisons, autant que des retours plus adaptés et plus intelligents aux requêtes. Grâce à la puissance du web sémantique, la demande appelle un résultat cohérent, voire « méticuleusement assemblé », et le système travaille pour nous. Il classe tous les commentaires et trouve, par déduction, une correspondance adéquate, voire proposant d’autres résultats potentiellement acceptables par l’usager.

Des technologies sont donc mises en place pour permettre de comprendre l’information et d’adapter les réponses fournies dans un contexte plus riche et finement proposé.

Le système entier a une meilleure connaissance de l’utilisateur.

______________________

(Article 3 d’un dossier de 5: pour lire les autres articles…)

 

ITIS_couleurcompres

 

Quand l’Internet des objets s’impose!

Le langage du web 3.0 parle souvent de la sémantique, mais aussi de plus en plus de « web des objets ». Mais, c’est quoi ça ce web des choses?

Un concept tout simple en fait! Le concept signifie que le web sera/devient/est accessible sur les objets de tous les jours, non seulement votre ordinateur ou le téléphone portable, également la télévision, le réfrigérateur, plus largement encore des capteurs de circulation placés le long des autoroutes ou dans les tunnels, des senseurs sur des éoliennes, etc.

Avec le téléphone « intelligent » l’ordinateur tient déjà dans une poche de chemise. Objet « tout en un » (souris, téléphone, télécommande, appareil photo et scanner) celui-ci permet d’entrer et d’interagir dans les environnements cliquables. Les mésaventures de gardiennes d’enfants se faisant surveiller à distance et incognito par des parents soupçonneux sont de l’histoire ancienne. L’internet des choses, des murs et des fenêtres, des rues ou du wagon de métro, est-ce ultimement l’internet partout? Est-ce le troublant « Big Brother is watching you » ?

Alors faut-il voir une limite à cette technologie des objets devenant de plus en plus intrusive?

Parce que oui! la technologie impose l’Internet des objets.

LA LOI C’EST LA LOI !

En société démocratique, c’est le principe du respect des lois qui permet de vivre en toute civilité. L’égalité par la justice. Mais la vitesse de développement des technologies du web est telle que la Loi n’arrive pas à suivre. Voila le principal défi, voire problème, à garder en tête devant ce web qui s’impose.

Le policier doit vous regarder faire si vous le filmez avec votre téléphone intelligent en train d’arrêter votre voisin.

Vous utilisez gentiment votre simple profil Facebook, mais avant d’en sortir le système vous offre de partager ça avec Tweeter, Linkedin ou quoi encore… Que devient votre information ? Dans quel labyrinthe de propriété et de droit s’engouffre votre action. Et l’analyse de votre comportement surtout ?

Quand la « loi » du web s’impose de facto sur la Loi… s’il ne faut pas nécessairement craindre, il vaut certes y voir.

ENCORE LE TÉLÉPHONE

Un bel exemple de technologie qui change à toute vitesse est bien celui de la téléphonie mobile. À Québec, mon fournisseur m’a avisé début 2016 que je devais changer mon appareil, car il deviendra désuet et non fonctionnel à partir de janvier 2017 : fini le réseau 3G. On m’impose donc de passer à un appareil utilisant le 4G.

Pour combien de temps ?

Savez-vous que la génération 5G du réseau de téléphonie mobile, c’est pour 2018 ? Lors des Jeux olympiques d’hiver de 2018, la Corée du Sud deviendra le premier pays du monde à déployer le réseau dit de 5e génération. On annonce aussi que dès 2020 le déploiement sera complété à l’échelle de la planète.

Avec le 5G, l’industrie fait déjà la promesse d’accélérer l’introduction du web des objets. Avec des vitesses cent fois plus rapide que le 4G, évidemment que le 5G fait rêver de vraiment tisser un lien planétaire entre tous les objets et appareils mus par l’informatique.

La liste va être longue : toujours vos différents écrans consommant toujours plus de la vidéo, le thermostat de votre maison, mais de plus en plus la voiture, les services bancaires et de protection de vos actifs et réseaux, même la chirurgie robotique à distance.

Autre bonne nouvelle, il semble que les piles – batteries des téléphones – dureront dix fois plus longtemps !

L’Internet des objets permet d’optimiser le fonctionnement des machines et des appareils en tirant parti de leur capacité à glaner des données.

Selon Éricsson : d’ici dix ans, entre 50 et 200 milliards d’objets seront connectés à l’Internet sur la planète.

1973 : premier test réussi d’un téléphone mobile

1983 : commercialisation du Motorola 1G

1993 : premier message texte en Europe 2G

2002 : premier mobile capable de se connecter à l’Internet et capable de prendre des photos 3G

2007 : lancement de l’iPhone

2018 : le 5G débute en Corée du Sud

ET APRÈS ?

Si le web 1.0 fut essentiellement l’internet permettant d’accéder à des sites constitués de pages web liées entre elles par des hyperliens (on peut dire que désormais, tous les sites sont 1.0 avec cette une relation entre un site éditeur qui publie un contenu ou des services, et des internautes qui le visitent, et qui surfent ainsi de site en site).

Si le web 2.0 est l’internet qui relie des personnes entre elles (avec le courrier électronique comme première application pratique, faisant que les internautes utilisent le site non seulement pour y trouver de l’information, mais aussi pour communiquer avec d’autres internautes, afin d’aboutir à des relations réelles ou virtuelles).

Le web 3.0 est ce web considéré comme « l’Internet des objets » ou « des choses », web sémantique, qui se rapproche de l’intelligence humaine.

Ce concept émerge depuis 2007-2008. Un monde avec des objets au service des personnes, qui communiquent avec des serveurs par l’intermédiaire de capteurs au travers de l’internet.

On a donc ici une relation entre l’univers physique et l’univers numérique.

Et lorsque votre réfrigérateur peut savoir qu’il manque de certains aliments, et avec l’autorisation de son propriétaire peut se connecter sur un site marchand, faire « ses » courses, commander, payer et organiser la réception des marchandises… ne voit-on pas que ce web 3.0 ouvre forcément la voie à un web 4.0?

________________________

(Article 2 d’un dossier de 5: pour lire les autres articles… )

 

ITIS_couleurcompres

Le Web 3.0 est-il à nos portes?

Image 1: Ligne de vie de l’évolution du web

web3Aevolve

Source: algebraixdata.com/resource/101-in-web-3-0

L’image qui débute cet article est la plus simple démonstration que nous avons trouvée de ce qui distingue très grossièrement l’évolution du web depuis sa naissance avec l’arrivée commerciale des ordinateurs dans les année 1980 : d’abord un outil permettant la lecture de contenus (Web 1.0) migrant vers une capacité d’y ajouter soit même des contenus en tant qu’utilisateur donc permettant la bidirectionnalité des échanges (Web 2.0), et troisièmement l’ère du troisième temps qui offre un web aux contenus intelligents, un web capable de comprendre les contenus et de réagir conséquemment (Web 3.0).

Résumé de l’image 1

Web 1.0

Web 2.0 Web 3.0
LIRE LIRE  +
ÉCRIRE

LIRE +
ÉCRIRE +
COMPRENDRE

Comme lorsque le moteur de recherche de Google vous priorise de l’information sur un restaurant de Montréal au Québec, lorsque vous y êtes, alors qu’il y a bien d’autres Montréal de par le vaste monde. Il y a maintenant de l’intelligence dans les bases de données et les programmes informatiques qui nourrissent et donnent vie au web.

En ce sens, le Web 3.0 est non seulement à nos portes, il est déjà présent. Le Data web, les applications de web sémantique, le web des données et de l’intelligence entrent déjà graduellement dans nos écrans.

« Le Web 3.0 sera au-delà de la technologie, d’abord le développement des TIC et non seulement des TI, le C pour Communication. Il sera surtout pluridisciplinaire », nous avait annoncé Jean Lanoix, l’auteur d’Internet 2015, lors d’une conférence sur ledit thème organisée à l’Université Laval, en avril 2007.

L’Institut Technologies de l’information et Sociétés (ITIS), en collaboration avec le Laboratoire des nouvelles technologies de l’image, du son et de la scène (LANTISS), se voulait d’abord visionnaire par ce débat-conférence autour du Web 3.0. Trois conférenciers invités s’adressèrent à une foule de plus de 200 personnes avides et très curieuses d’en apprendre: Jean Lanoix, auteur du livre Internet 2025Sehl Mellouli, professeur à la Faculté des sciences de l’administration de l’Université Laval, ainsi que Frédérick Giasson, co-fondateur de l’entreprise Structured Dynomics LLC.

Petit retour sur cet événement de 2007

Présentation de Sehl Mellouli

Présentation de Frédérick Giasson

Présentation de Jean Lanoix

Et effectivement, c’est par l’apport de champs de la science bien éloignés de l’informatique que le web grandit sans cesse. Impossible de créer une carte-santé personnalisée sans s’intégrer de la réalité du monde complexe de la pratique de la médecine, des hôpitaux, des pharmacies et des réseaux de santé publique…

LE WEB 3.0 FAIT-IL DÉJÀ VIVRE DES ENTREPRISES?

Ce débat d’avril 2007 était en contexte universitaire. Que dit le marché en 2016? Aucune ligne du temps n’indiquera de cassure nette en matière d’intégration des nouvelles technologies du web.  La ligne régulière du tableau qui suit montre même que nous serions actuellement au cœur des années 3.0, alors que les innovations s’y rapportant sont identifiées sur la période 2010-2020.

Image 2: Ligne du temps de l’évolution du web

web3Bdate

Source: lifeboat.com/ex/web.3.0

Nous avons demandé à un haut gestionnaire d’une entreprise de service web active autant en Amérique qu’en Europe de nous dire s’il sentait que la préoccupation du Web 3.0 est actuellement présente dans le marché?

« Les acteurs commencent à se poser de nombreuses questions sur l’internet des objets, les effets de la mobilité et tout ce qui va avec en terme de sécurité ou de gestion des applications. Toutefois, ce domaine reste encore insuffisamment réfléchit et anticipé dans de nombreuses entreprises qui s’en remettent à leurs futurs projets plutôt que d’être acteurs impliqués dans la transformation », explique Julien Trassard, directeur général/CEO chez LINKBYNET Amérique du Nord, de son bureau à Montréal.

Et faut-il faire une différence entre l’Amérique du Nord et l’Europe en matière de développement du web et d’adaptation aux marchés du futur?

« Il est difficile d’opposer des modèles de consommation différents. Toutefois la concurrence sur le marché européen a très vite orienté les créatifs du web à rechercher des modèles de vente orientés utilisateurs et s’adaptant à leurs modèles d’utilisation de l’internet. En Amérique du Nord, des solutions clés en main sont souvent livrées pour répondre à des attentes, mais restent quelques fois cloisonnées sur des verticaux métiers. Toutefois, les réussites communautaires des médias sociaux nord-américains montrent une vraie richesse de modèle où des grappes peuvent coexister et s’enrichir les unes aux autres », poursuit Julien Trassard.

S’il est progressivement déjà parmi nous, l’essentiel de son oeuvre se fera dans le futur proche, alors le Web 3.0, ce sera véritablement pour 2020, 2025, 2030, encore plus loin?

« Il se fera à la vitesse d’adoption des utilisateurs; plus vite il répondra aux nouvelles attentes (facilité, interconnexions complexes, mobilité, rapidité, fiabilité plus poussée, etc.) en démontrant une réelle valeur ajoutée, plus vite il sera démocratisé. À la vitesse actuelle d’innovation des technologies, il serait étonnant que ces systèmes ne soient pas des standards d’ici 2025 », prévoit Julien Trassard, directeur général/CEO chez LINKBYNET Amérique du Nord.

Des standards à l’horizon! Alors ne tardez pas trop à mettre du web 3.0 dans votre agenda d’affaires.

____________________

(Article 1 d’un dossier de 5: pour lire les autres articles…)

ITIS_couleurcompres

 

web3 banniere-LINKBYNET900

Eau en réserve : combien y a-t-il de barrages au Québec ?

Avant de vous laisser partir jouer dans votre piscine profiter du mois de juillet et pourquoi pas sur le bord d’un lac ou d’une rivière à saumon, nous vous avons préparé cette petite devinette: Combien pensez-vous y a-t-il de barrages au Québec ?

Le Québec est mondialement reconnu pour ses grands ouvrages hydroélectriques, tels le Barrage Robert-Bourassa à LG2 et le Barrage Daniel-Johnson à Manic 5. La société d’État Hydro-Québec est donc sans surprise un important propriétaire de barrages sur le territoire. Mais vous doutiez-vous que 4 barrages sur 10 au Québec sont privés appartenant à une personne physique ? Et que 174 de ceux-ci sont même de la catégorie « Forte contenance » ?

En fait, cette fameuse catégorie « Forte contenance » n’est dominée par aucun type de propriétaires: si Hydro-Québec en possède bien 652, il en reste 325 sous la Direction générale des barrages de l’État (mandataire) et pas bien moins 520 à de grands propriétaires privés (associations, compagnies, sociétés, etc.); puis rappelons les 174 grands barrages privés appartenant à une personne physique, il reste à ajouter 6 gros barrages à des MRC, 260 à des municipalités et 66 à d’autres autorités publiques. Total: 2 003 grands barrages dits catégorie « Forte contenance ».

2 003 grands ouvrages, soit environ le tiers du grand total… et oui on y arrive, le Québec en compte actuellement (selon un répertoire d’octobre 2015) un total, du petit au grand barrage, de 5 748.

Bon été !

Le tableau suivant illustre la répartition des barrages au Québec selon le type de propriétaire et leur catégorie en vertu de la Loi sur la sécurité des barrages.

Tableau 1 : Type de propriétaires de barrage par catégorie au Québec

Propriétaires

 

Forte contenance Faible contenance Petit barrage Total
Direction générale des barrages de l’État (mandataire) 325 214 238 777
Hydro-Québec 652 5 2 659
Autres autorités publiques 66 37 18 121
Municipalités, villes, paroisses 260 285 77 622
Municipalités régionales de comté (MRC) 6 22 1 29
Privés (personnes physiques) 174 1 576 506 2 256
Autres propriétaires
(associations, compagnies, sociétés, etc.)
520 541 223 1 284
Total 2 003 2 680 1 065 5 748

Source : Répertoire des barrages, octobre 2015. Direction de la sécurité des barrages, MDDELCC.

————————————————————

NOTE: Au Québec, selon la Loi sur la sécurité des barrages sont considérés…

Barrages à forte contenance :

  • Les barrages d’une hauteur de 1 m ou plus dont la capacité de retenue est supérieure à 1 000 000 m3;
  • Les barrages d’une hauteur de 2,5 m ou plus dont la capacité de retenue est supérieure à 30 000 m3;
  • Les barrages d’une hauteur de 7,5 m ou plus, sans égard à la capacité de retenue.

Barrages à faible contenance :

  • Barrage d’une hauteur de 2 m ou plus qui n’est pas à forte contenance.

Nagoya, comme Protocole de Nagoya sur l’accès et le partage des avantages découlant de l’utilisation des ressources génétiques

Tirer profit de la génétique ! Que de rêves ce potentiel a alimenté dans l’histoire… Comme 75% des ressources biologiques de la planète sont situées dans seulement 17 pays, l’affaire devient critique. Mais il faudra attendre le Sommet de Rio de 1992 pour voir apparaître des tentatives de meilleures gestions, puis l’initiative de Nagoya en application depuis seulement 2014. Bilan!

***

Des pays, surtout ceux dits en développement, dénonçaient vivement dans les années 1970 et 1980 le fait que des ressources génétiques présentes sur leur territoire étaient souvent prélevées sans leur consentement et leur étaient revendues, à fort prix, sous forme de médicaments, de semences et de produits chimiques.

La Convention sur la diversité biologique (CDB) est venue créer un cadre juridique global organisant le marché des ressources génétiques, en respectant le fondement de la souveraineté des États. Ainsi, contrairement à une pratique millénaire qui consacrait de facto la loi du libre accès en ce domaine, la CDB implique que l’accès aux ressources doit désormais être négocié.

Comme cette convention ne faisait que prévoir les principes de dispositifs d’accès et de partage des avantages des ressources génétiques, de sorte que seule une minorité de Parties avait adopté des mesures de mise en œuvre, le Protocole de Nagoya a été adopté pour tenter d’améliorer la situation.

Il vise à la fois :

  • à favoriser l’accès aux ressources, de manière à encourager la bio-innovation ;
  • à lutter contre la bio-piraterie, que l’on peut qualifier comme «l’appropriation illicite des ressources génétiques (RG) et des savoirs traditionnels qui y sont attachés par le biais des droits de propriété intellectuelle, notamment le système de brevets, sans partage des bénéfices» ou «l’accès et la collecte non autorisés de ces ressources».

Après plusieurs années de négociations sous la Convention sur la diversité biologique de 1992, le Protocole de Nagoya sur l’accès aux ressources génétiques et le partage juste et équitable des avantages découlant de leur utilisation relatif à la Convention sur la diversité biologique a finalement été adopté le 29 octobre 2010, à la toute fin de la 10e Conférence des Parties à la CDB et est entré en vigueur le 12 octobre 2014.

Objectif : d’une part, sécuriser l’accès des entreprises et centres de recherche qui prospectent des ressources génétiques dans différents pays, de manière à encourager les investissements dans la bio-innovation ; d’autre part, rendre cet accès conditionnel au consentement préalable des pays fournisseurs, et de leurs communautés autochtones et locales.

Selon le Protocole, ce consentement doit dépendre du partage équitable des bénéfices découlant de l’utilisation de ces ressources. La mise en œuvre du Protocole repose sur l’intégration des règles qu’il prévoit, dans l’ordonnancement juridique interne des pays fournisseurs et dans celui des pays qui ont des entreprises et centres de recherche «utilisateurs» sur leurs territoires.

Une application encore toute récente et très complexe

Après d’intenses négociations, compte tenu de désaccords importants sur les questions de la reconnaissance des savoirs traditionnels, de l’adoption des mécanismes de conformité et de financement, l’application du Protocole de Nagoya n’a pas encore deux ans.

Considérant que près de 75% des ressources biologiques de la planète sont situées dans 17 pays qui sont qualifiés de pays «méga divers», et tenant compte du fait que ces derniers sont tous situés dans les tropiques, à l’exception de l’Australie et des États-Unis (PNUE, 2007), la question du partage équitable des retombées monétaires et non monétaires de l’utilisation de ces ressources est complexe.

De plus, les États-Unis ne sont pas Parties à la CDB, et ne sont pas Parties au Protocole de Nagoya (ni le Canada d’ailleurs).

Ceci affectera considérablement l’efficacité du traité concernant le partage des bénéfices résultant de l’utilisation des ressources génétiques et notamment du transfert de biotechnologies vers les pays en développement.

Mais même imparfait, ce Protocole est une avancée pour la mise en œuvre du 3e grand objectif de la CDB: le partage juste et équitable des avantages découlant de l’exploitation des ressources génétiques. Il s’agit toutefois d’une avancée limitée puisque la mise en œuvre du Protocole nécessite que l’État adopte une législation nationale relative aux ressources génétiques et au partage des avantages en découlant.

En liant l’autorisation d’accès aux ressources génétiques au partage des avantages résultant de leur utilisation par l’adoption de législations nationales conséquentes, ce nouvel instrument international ne fait que fournir un cadre à l’élaboration de ces lois. Le Protocole fait donc le pari que les utilisateurs de ressources génétiques n’auront pas le choix de respecter au minimum la législation du pays fournisseur. Précisons que seules sont visées par le régime de la CDB et du Protocole les ressources qui sont fournies par les pays d’origine ou qui ont été acquises dans le cadre de la CDB.

Bref, autant en vertu de la CDB que du Protocole de Nagoya, chaque État fixe souverainement les conditions d’accès à ses ressources génétiques. Sous les grands concepts d’un « accès satisfaisant » aux ressources génétiques ; accès toutefois lié à un «transfert approprié des techniques pertinentes » et « compte tenu de tous les droits sur ces ressources et aux techniques, et grâce à un financement adéquat ».

« Dans un monde idéal, les principes fondamentaux du système d’APA mis en place par le Protocole de Nagoya reposeraient sur le consentement préalable en connaissance de cause non seulement des autorités nationales compétentes du pays fournisseur, mais aussi des communautés locales « gardiennes» de ces ressources, et cette condition devrait obligatoirement se retrouver dans les législations de tous les pays Parties. Or, en adoptant le Protocole de Nagoya, les États ont plutôt convenu que les droits des communautés autochtones seraient, à cet égard, soumis au droit interne de leurs États, droit qui, on en convient, variera considérablement, d’une juridiction à l’autre. »
– professeure Sophie Lavallée, Université Laval

« L’article 15 (1) du Protocole tente de résoudre la quadrature du cercle (…) en soumettant les lois et autres dispositifs nationaux adoptés par l’État de l’utilisateur des ressources, au respect des lois de l’État fournisseur des ressources. Il faudra être très prudents sur cette question afin de s’assurer que les lois et autres dispositifs nationaux qui seront ainsi élaborés puissent assurer pleinement que les accords de bio-prospection et de partage des avantages reposeront sur des conditions « convenues d’un commun accord » et que le consentement donné ne sera pas biaisé et vicié par le déséquilibre des rapports de forces entre les Parties aux échanges en matière d’APA », analyse-t-elle aussi.

Les prochaines années seront donc déterminantes sur un jugement positif ou non du jeune Protocole de Nagoya.

__________________

Cet article est notamment un résumé d’une publication sur le même sujet signée par Sophie Lavallée, professeure de droit international de l’environnement, Faculté de droit, Université Laval. Texte complet : www.ifdd.francophonie.org/media/docs

————————-

NOTE: Le Protocole de Nagoya est le deuxième protocole à la Convention sur la diversité biologique. Il fait suite au Protocole de Carthagena sur la prévention des risques biotechnologiques.

IMAGE : Logo de la Conférence mondiale sur la biodiversité de Nagoya (2010), associé à la phrase “Life in harmony, into the future”, traduite dans la langue du pays. La biodiversité y est d’ailleurs représentée par des origamis qui, au Japon, sont aussi symboles d’espoir en l’avenir, et le moyen de faire se réaliser un vœu.