samedi 25 janvier 2020

Sortie de GhostBSD 20.01



  • GhostBSD est un système d'exploitation de bureau convivial basé sur TrueOS (qui, à son tour, est basé sur la branche de développement de FreeBSD). L'objectif du projet est de créer un espace de travail convivial et familier qui peut être utilisé à la maison ou au bureau et pour le sauvetage de données. GhostBSD prend en charge un certain nombre d'environnements de bureau légers populaires, y compris MATE, Xfce. Il fournit également le système de gestion de paquets de FreeBSD, les environnements de développement LibreOffice, LibreCAD et Eclipse / Anjuta pour C, C ++, Java, JavaScript, Jala et Python.
     
  • Type de système d'exploitation: BSD
  • Basé sur: TrueOS , FreeBSD
  • Origine: Canada
  • Architecture: x86_64
  • Bureau: MATE , Xfce
  • Catégorie: Desktop , Live Medium
  • Statut: Actif
 


Système d'exploitation de bureau convivial basé sur TrueOS (qui, à son tour, est basé sur la branche de développement de FreeBSD). 

La dernière version du projet, GhostBSD 20.01, introduit quelques correctifs pour le programme d'installation et est livrée avec la version 1.22.2 de l'environnement de bureau MATE.

Une édition communautaire avec le bureau Xfce est également disponible.

"Je suis heureux d'annoncer la disponibilité de GhostBSD 20.01 avec quelques améliorations apportées au programme d'installation, principalement des améliorations dans la façon dont l'interface utilisateur du programme d'installation traite les partitions personnalisées impliquant GTP et UEFI. De plus, certains systèmes et logiciels ont été mis à jour. GhostBSD 20.01 ISO a quelques améliorations mineures par rapport à 19.10."


"Il fournit un ISO à jour avec les derniers packages et mises à jour système pour une nouvelle installation avec un processus d'installation simple pour vous permettre de démarrer rapidement."

"Pour l'installation actuelle, pas besoin de réinstaller. Ce qui a changé depuis 19.10 : Le système a été mis à jour vers 12.1-STABLE. MATE est désormais à la version 1.22.2. Ajout d'un avertissement lorsqu'un mot de passe incorrect est utilisé dans Software Station."

"Correction de la limitation du programme d'installation de l'interface utilisateur avec GPT et UEFI."

mardi 21 janvier 2020

L'intelligence artificielle

L'intelligence artificielle est en train de passer rapidement du domaine de la science-fiction à la réalité de notre vie quotidienne. Nos appareils comprennent ce que nous disons, nous parlent et traduisent entre les langues avec une fluidité toujours croissante.

Les algorithmes de reconnaissance visuelle basés sur l'IA surpassent les gens et commencent à trouver des applications dans tout, des voitures autonomes aux systèmes qui diagnostiquent le cancer dans les images médicales.

Les grandes organisations médiatiques s'appuient de plus en plus sur le journalisme automatisé pour transformer les données brutes en reportages cohérents qui sont pratiquement indiscernables de ceux écrits par des journalistes humains.

La liste s'allonge encore et encore, et il devient évident que l'IA est en passe de devenir l'une des forces les plus importantes qui façonnent notre monde. Contrairement aux innovations plus spécialisées, l'intelligence artificielle devient une véritable technologie polyvalente.

En d'autres termes, il est en train de devenir un service public, un peu comme l'électricité, qui finira probablement par s'étendre à toutes les industries, tous les secteurs de notre économie et presque tous les aspects de la science, de la société et de la culture.

Le pouvoir démontré de l'intelligence artificielle a, au cours des dernières années, conduit à une exposition médiatique massive et à des commentaires. D'innombrables articles de presse, livres, films documentaires et programmes télévisés énumèrent à bout de souffle les réalisations de l'IA et annoncent l'aube d'une nouvelle ère.

Le résultat a été un mélange parfois incompréhensible d’analyses minutieuses et fondées sur des preuves, ainsi que de battage médiatique, de spéculation et de ce qui pourrait être qualifié d’alarmisme pur et simple.

On nous dit que des voitures autonomes entièrement autonomes partageront nos routes dans quelques années seulement et que des millions d'emplois pour les chauffeurs de camions, de taxis et d'Uber sont sur le point de s'évaporer.

Des preuves de préjugés raciaux et sexistes ont été détectées dans certains algorithmes d'apprentissage automatique, et les inquiétudes quant à l'impact des technologies basées sur l'IA telles que la reconnaissance faciale semblent fondées.

Des avertissements selon lesquels les robots seront bientôt armés, ou que des machines vraiment intelligentes (ou superintelligentes) pourraient un jour représenter une menace existentielle pour l'humanité, sont régulièrement rapportés dans les médias.

Un certain nombre de personnalités publiques de premier plan - dont aucun n'est un véritable expert de l'IA - ont pesé. Elon Musk a utilisé une rhétorique particulièrement extrême, déclarant que la recherche sur l'IA «invoque le démon» et que «l'IA est plus dangereuse que les armes nucléaires».

Des individus encore moins volatils, dont Henry Kissinger et feu Stephen Hawking, ont émis de terribles avertissements.

Le but de ce livre est d'éclairer le domaine de l'intelligence artificielle - ainsi que les opportunités et les risques qui y sont associés - en ayant une série de conversations approfondies et de grande envergure avec certains des plus éminents chercheurs et entrepreneurs en IA du monde. Beaucoup de ces personnes ont apporté des contributions fondamentales qui sous-tendent directement les transformations que nous voyons tout autour de nous; d'autres ont fondé des entreprises qui repoussent les frontières de l'IA, de la robotique et du machine learning.

La sélection d'une liste des personnes les plus éminentes et les plus influentes travaillant dans un domaine est, bien sûr, un exercice subjectif, et sans aucun doute, de nombreuses autres personnes ont apporté ou apportent des contributions essentielles à l'avancement de l'IA.

Néanmoins, je suis convaincu que si vous demandiez à presque toute personne ayant une connaissance approfondie du domaine de composer une liste des esprits les plus importants qui ont façonné la recherche contemporaine en intelligence artificielle, vous recevriez une liste de noms qui chevauchent sensiblement le les personnes interrogées dans ce livre.

Les hommes et les femmes que j'ai inclus ici sont vraiment les architectes de l'intelligence artificielle - et, par extension, de la révolution qu'elle déclenchera bientôt.

Les conversations enregistrées ici sont généralement ouvertes, mais sont conçues pour répondre à certaines des questions les plus pressantes auxquelles nous sommes confrontés alors que l'intelligence artificielle continue de progresser: quelles approches et technologies d'IA spécifiques sont les plus prometteuses, et quel genre de percées pouvons-nous voir dans les prochaines années? Les véritables machines à penser - ou l'IA au niveau humain - sont-elles une possibilité réelle et dans combien de temps une telle percée pourrait-elle se produire? Quels risques ou menaces associés à l'intelligence artificielle devrions-nous vraiment nous préoccuper? Et comment devons-nous répondre à ces préoccupations? La réglementation gouvernementale a-t-elle un rôle à jouer? L'IA déclenchera-t-elle des perturbations économiques et du marché du travail massives, ou ces préoccupations sont-elles sur-typées? Des machines super intelligentes pourraient-elles un jour se libérer de notre contrôle et constituer une véritable menace? Faut-il s'inquiéter d'une «course aux armements» de l'IA ou que d'autres pays dotés de systèmes politiques autoritaires, en particulier la Chine, puissent éventuellement prendre l'initiative?

Il va sans dire que personne ne connaît vraiment les réponses à ces questions. Personne ne peut prédire l'avenir. Cependant, les experts en IA à qui j'ai parlé ici en savent plus sur l'état actuel de la technologie, ainsi que sur les innovations à l'horizon, que pratiquement n'importe qui d'autre. Ils ont souvent des décennies d'expérience et ont contribué à la création de la révolution qui commence maintenant à se dérouler.

Par conséquent, leurs pensées et opinions méritent un poids important. En plus de mes questions sur le domaine de l'intelligence artificielle et son avenir, j'ai également exploré les antécédents, les trajectoires de carrière et les intérêts de recherche actuels de chacun de ces individus, et je crois que leurs origines diverses et leurs voies variées vers la notoriété rendront fascinant et une lecture inspirante.

L'intelligence artificielle est un vaste domaine d'étude avec un certain nombre de sous-disciplines, et de nombreux chercheurs interrogés ici ont travaillé dans plusieurs domaines. Certains ont également une expérience approfondie dans d'autres domaines, tels que l'étude de la cognition humaine.

Néanmoins, ce qui suit est une brève tentative de créer une feuille de route très approximative montrant comment les personnes interrogées ici sont liées aux innovations récentes les plus importantes dans la recherche sur l'IA et aux défis qui nous attendent. De plus amples informations sur chaque personne sont disponibles dans sa biographie, qui se trouve immédiatement après l'entretien.

La grande majorité des avancées spectaculaires que nous avons vues au cours de la dernière décennie environ - de la reconnaissance d'image et du visage à la traduction de la langue en passant par la conquête d'AlphaGo de l'ancien jeu de Go - sont alimentées par une technologie connue sous le nom d'apprentissage en profondeur, ou réseaux de neurones profonds. Les réseaux de neurones artificiels, dans lesquels les logiciels émulent à peu près la structure et l'interaction des neurones biologiques dans le cerveau, remontent au moins aux années 1950.

Des versions simples de ces réseaux sont capables d'effectuer des tâches de reconnaissance de formes rudimentaires et ont suscité au début un enthousiasme considérable chez les chercheurs. Dans les années 1960, cependant - du moins en partie à la suite de la critique de la technologie par Marvin Minsky, l'un des premiers pionniers de l'IA - les réseaux de neurones sont tombés en disgrâce et ont été presque entièrement rejetés alors que les chercheurs adoptaient d'autres approches.

Sur une période d'environ 20 ans commençant dans les années 1980, un très petit groupe de chercheurs a continué de croire et de faire progresser la technologie des réseaux de neurones. Parmi ceux-ci figuraient en premier lieu Geoffrey Hinton, Yoshua Bengio et Yann LeCun. Ces trois hommes ont non seulement apporté une contribution fondamentale à la théorie mathématique sous-jacente à l'apprentissage en profondeur, mais ils ont également été les premiers évangélistes de la technologie.

Ensemble, ils ont affiné des façons de construire des réseaux beaucoup plus sophistiqués - ou «profonds» avec de nombreuses couches de neurones artificiels. Un peu comme les moines médiévaux qui ont préservé et copié des textes classiques, Hinton, Bengio et LeCun ont inauguré des réseaux de neurones à travers leur propre âge sombre - jusqu'à l'avancée exponentielle de la puissance de calcul de plusieurs décennies, ainsi qu'une augmentation presque incompréhensible de la quantité de données disponibles , a finalement permis une «renaissance de l'apprentissage en profondeur».

Ces progrès sont devenus une véritable révolution en 2012, lorsqu'une équipe d'étudiants diplômés de Hinton de l'Université de Toronto a participé à un grand concours de reconnaissance d'image et décimé la compétition en utilisant l'apprentissage en profondeur.

Dans les années qui ont suivi, le deep learning est devenu omniprésent.

Toutes les grandes entreprises technologiques - Les G.A.F.A.M.


Google, Apple, Facebook, Amazon, Microsoft, ainsi que les BaiTx, les principales entreprises chinoises comme Baidu et Tencent, ont fait d'énormes investissements dans la technologie et l'ont mise à profit dans l'ensemble de leurs entreprises.

Les entreprises qui conçoivent des microprocesseurs et des puces graphiques (ou GPU), telles que NVIDIA et Intel, ont également vu leurs activités se transformer en se précipitant pour construire du matériel optimisé pour les réseaux de neurones.

L'apprentissage en profondeur - du moins jusqu'à présent - est la principale technologie qui a propulsé la révolution de l'IA.

Ce livre comprend des conversations avec les trois pionniers de l'apprentissage en profondeur, Hinton, LeCun et Bengio, ainsi qu'avec plusieurs autres chercheurs très éminents à la pointe de la technologie.

Andrew Ng, Fei-Fei Li, Jeff Dean et Demis Hassabis ont tous des réseaux neuronaux avancés dans des domaines comme la recherche sur le Web, la vision par ordinateur, les voitures autonomes et l'intelligence plus générale.

Ils sont également des chefs de file reconnus dans l'enseignement, la gestion d'organisations de recherche et l'entrepreneuriat axé sur la technologie d'apprentissage en profondeur.

Les conversations restantes dans ce livre sont généralement avec des gens qui pourraient être caractérisés comme des agnostiques du deep learning, ou peut-être même des critiques.

Tous reconnaîtraient les réalisations remarquables des réseaux de neurones profonds au cours de la dernière décennie, mais ils soutiendraient probablement que l'apprentissage en profondeur n'est qu'un «outil dans la boîte à outils» et que des progrès continus nécessiteront d'intégrer des idées d'autres sphères de l'intelligence artificielle.

Certains d'entre eux, dont Barbara Grosz et David Ferrucci, se sont fortement concentrés sur le problème de la compréhension du langage naturel.

Gary Marcus et Josh Tenenbaum ont consacré une grande partie de leur carrière à l'étude de la cognition humaine.

D'autres, dont Oren Etzioni, Stuart Russell et Daphne Koller, sont des généralistes de l'IA ou se sont concentrés sur l'utilisation de techniques probabilistes. Judea Pearl, qui a remporté en 2012 le prix Turing, essentiellement le Prix Nobel d'informatique - en grande partie pour ses travaux sur les approches probabilistes (ou bayésiennes) en IA et en machine learning.

Au-delà de cette division très approximative définie par leur attitude envers l'apprentissage profond, plusieurs des chercheurs à qui j'ai parlé se sont concentrés sur des domaines plus spécifiques.

Rodney Brooks, Daniela Rus et Cynthia Breazeal sont tous des leaders reconnus en robotique. Breazeal et Rana El Kaliouby sont des pionniers dans la construction de systèmes qui comprennent et répondent aux émotions, et ont donc la capacité d'interagir socialement avec les gens.

Bryan Johnson a fondé une start-up, Kernel, qui espère éventuellement utiliser la technologie pour améliorer la cognition humaine.

Il y a trois domaines généraux que j'ai jugés d'un tel intérêt que je les ai approfondis à chaque conversation. Le premier concerne l'impact potentiel de l'IA et de la robotique sur le marché du travail et l'économie.

À mon avis, à mesure que l'intelligence artificielle s'avérera progressivement capable d'automatiser presque toutes les tâches routinières et prévisibles, qu'il s'agisse de cols bleus ou de cols blancs, nous verrons inévitablement une augmentation des inégalités et, éventuellement, un chômage pur et simple, du moins parmi certains groupes de ouvriers.

J'ai exposé cet argument dans mon livre de 2015, Rise of the Robots: Technology and the Threat of a Jobless Future.

Les personnes à qui j'ai parlé ont offert divers points de vue sur cette perturbation économique potentielle et le type de solutions politiques qui pourraient y remédier. Afin d'approfondir ce sujet, je me suis tourné vers James Manyika, le président du McKinsey Global Institute.

Manyika offre une perspective unique en tant que chercheur expérimenté en IA et en robotique qui a récemment concentré ses efforts sur la compréhension de l'impact de ces technologies sur les organisations et les lieux de travail.

Le McKinsey Global Institute est un chef de file dans la conduite de recherches dans ce domaine, et cette conversation comprend de nombreuses informations importantes sur la nature de la perturbation du travail en cours.

La deuxième question que j'ai adressée à tout le monde concerne le chemin vers l'IA au niveau humain, ou ce qu'on appelle généralement l'intelligence générale artificielle (AGI).

Depuis le tout début, AGI a été le Saint Graal du domaine de l'intelligence artificielle. Je voulais savoir ce que chaque personne pensait de la perspective d'une véritable machine à penser, des obstacles qui devraient être surmontés et du délai pour le réaliser.

Tout le monde avait des idées importantes, mais j'ai trouvé trois conversations particulièrement intéressantes: Demis Hassabis a discuté des efforts en cours chez DeepMind, qui est l'initiative la plus importante et la mieux financée spécifiquement conçue pour AGI.

David Ferrucci, qui dirigeait l'équipe qui a créé IBM Watson, est maintenant le PDG d'Elemental Cognition, une startup qui espère atteindre une intelligence plus générale en tirant parti d'une compréhension du langage.

Ray Kurzweil, qui dirige maintenant un projet axé sur le langage naturel chez Google, avait également des idées importantes sur ce sujet (ainsi que de nombreux autres).

Kurzweil est surtout connu pour son livre de 2005, The Singularity is Near. En 2012, il a publié un livre sur l'intelligence artificielle, Comment créer un esprit, qui a attiré l'attention de Larry Page et a conduit à son emploi chez Google.

Dans le cadre de ces discussions, j'ai vu une opportunité de demander à ce groupe de chercheurs en IA extraordinairement accomplis de me donner une estimation du moment où l'AGI pourrait être réalisé. La question que j'ai posée était: «En quelle année pensez-vous que l'IA au niveau humain pourrait être atteinte, avec une probabilité de 50%?»

La plupart des participants ont préféré fournir leurs suppositions de manière anonyme. J'ai résumé les résultats de cette enquête très informelle dans une section à la fin de ce livre.

Deux personnes étaient disposées à deviner sur le dossier, et cela vous donnera un aperçu du large éventail d'opinions. Ray Kurzweil pense, comme il l'a déclaré à maintes reprises, que l'IA au niveau humain sera réalisée vers 2029 - soit tout juste onze ans à compter de la date de rédaction du présent document.

Rodney Brooks, quant à lui, a deviné l'année 2200, soit plus de 180 ans dans le futur. Qu'il suffise de dire que l'un des aspects les plus fascinants des conversations rapportées ici est les points de vue très différents sur un large éventail de sujets importants.

Le troisième domaine de discussion concerne les risques variés qui accompagneront les progrès de l'intelligence artificielle à la fois dans un avenir immédiat et sur des horizons temporels beaucoup plus longs.

Une menace qui devient déjà évidente est la vulnérabilité des systèmes autonomes interconnectés aux cyberattaques ou au piratage.

Alors que l'IA s'intègre de plus en plus dans notre économie et notre société, résoudre ce problème sera l'un des défis les plus critiques auxquels nous devrons faire face.

Une autre préoccupation immédiate est la sensibilité des algorithmes d'apprentissage automatique aux biais, dans certains cas en fonction de la race ou du sexe.

Bon nombre des personnes avec qui j'ai parlé ont souligné l'importance de s'attaquer à ce problème et ont parlé des recherches en cours dans ce domaine.

Plusieurs ont également émis une note optimiste - suggérant que l'IA pourrait un jour s'avérer être une puissance millitaire, une arme efficace pour lutter contre les préjugés ou la discrimination systémiques.

Un danger qui passionne de nombreux chercheurs est le spectre des armes entièrement autonomes.

De nombreux membres de la communauté de l'intelligence artificielle pensent que les robots ou drones dotés de l'IA capables de tuer, sans qu'un humain "dans la boucle" n'autorise une action létale, pourraient éventuellement être aussi dangereux et déstabilisants que les armes biologiques ou chimiques.

En juillet 2018, plus de 160 entreprises d'IA et 2400 chercheurs individuels du monde entier - y compris un certain nombre des personnes interrogées ici - ont signé un engagement ouvert promettant de ne jamais développer de telles armes.

(https://futureoflife.org/lethal-autonomous-weapons-pledge/)

Plusieurs des conversations dans ce livre se penchent sur les dangers présentés par l'IA militarisée.

Un danger beaucoup plus futuriste et spéculatif est le soi-disant «problème d'alignement de l'IA». C'est la crainte qu'une machine vraiment intelligente, ou peut-être superintelligente, puisse échapper à notre contrôle ou prendre des décisions qui pourraient avoir des conséquences néfastes pour l'humanité.

C'est la peur qui suscite des déclarations apparemment démesurées de personnes comme Elon Musk. Presque tous ceux à qui j'ai parlé se sont penchés sur cette question.

Pour m'assurer de donner à cette préoccupation une couverture adéquate et équilibrée, j'ai parlé avec Nick Bostrom du Future of Humanity Institute de l'Université d'Oxford. Bostrom est l'auteur du livre à succès Superintelligence: Paths, Dangers, Strategies, qui fait un argument prudent concernant les risques potentiels associés aux machines qui pourraient être beaucoup plus intelligentes que tout être humain.

Les conversations incluses ici ont eu lieu de février à août 2018 et pratiquement toutes ont occupé au moins une heure, certaines beaucoup plus.

Ils ont été enregistrés, transcrits professionnellement, puis édités pour plus de clarté par l'équipe de Packt. Enfin, le texte édité a été fourni à la personne à qui j'ai parlé, qui a ensuite eu l'occasion de le réviser et de le développer.

Par conséquent, je suis convaincu que les mots enregistrés ici reflètent fidèlement les pensées de la personne que j'ai interviewée.

Les experts en IA à qui j'ai parlé sont très variés en termes d'origine, de lieu et d'affiliation. Une chose que même une brève lecture de ce livre fera ressortir est l'influence démesurée de Google dans la communauté de l'IA. Sur les 23 personnes que j'ai interviewées, sept ont des affiliations actuelles ou anciennes avec Google ou son parent, Alphabet.

D'autres concentrations importantes de talents se trouvent au MIT et à Stanford. Geoff Hinton et Yoshua Bengio sont basés respectivement dans les universités de Toronto et de Montréal, et le gouvernement canadien a tiré parti de la réputation de ses organismes de recherche pour se concentrer stratégiquement sur l'apprentissage en profondeur.

Dix-neuf des 23 personnes à qui j'ai parlé travaillent aux États-Unis. De ces 19, cependant, plus de la moitié sont nés en dehors des États-Unis. Les pays d'origine sont l'Australie, la Chine, l'Égypte, la France, Israël, la Rhodésie (aujourd'hui Zimbabwe), la Roumanie et le Royaume-Uni.

Je dirais que c'est une preuve assez spectaculaire du rôle essentiel que joue l'immigration qualifiée dans le leadership technologique des États-Unis.

En menant les conversations dans ce livre, j'avais à l'esprit une variété de lecteurs potentiels, allant des informaticiens professionnels, aux gestionnaires et aux investisseurs, à quasiment toute personne intéressée par l'IA et son impact sur la société.

Un public particulièrement important, cependant, est constitué de jeunes qui pourraient envisager une future carrière en intelligence artificielle.

Il y a actuellement une pénurie massive de talents dans le domaine, en particulier parmi ceux qui ont des compétences en apprentissage profond, et une carrière dans l'IA ou l'apprentissage machine promet d'être passionnante, lucrative et conséquente.

Alors que l'industrie s'efforce d'attirer plus de talents dans le domaine, il est largement reconnu qu'il faut faire beaucoup plus pour s'assurer que ces nouvelles personnes sont plus diversifiées.

Si l'intelligence artificielle est en effet prête à remodeler notre monde, il est essentiel que les individus qui comprennent le mieux la technologie - et sont donc les mieux placés pour influencer son orientation - soient représentatifs de la société dans son ensemble.

Environ un quart des personnes interrogées dans ce livre sont des femmes, et ce nombre est probablement beaucoup plus élevé que ce que l'on trouverait dans l'ensemble du domaine de l'IA ou de l'apprentissage automatique.

Une étude récente a révélé que les femmes représentent environ 12% des principaux chercheurs en apprentissage automatique.

(https://www.wired.com/story/artificial-intelligence-researchers-gender-imbalance)


Un certain nombre de personnes à qui j'ai parlé ont souligné la nécessité d'une plus grande représentation des femmes et des membres des groupes minoritaires.

Comme vous apprendrez de son interview dans ce livre, l'une des femmes les plus éminentes travaillant dans l'intelligence artificielle est particulièrement passionnée par la nécessité d'augmenter la diversité dans le domaine.


Fei-Fei Li de l'Université de Stanford a cofondé une organisation appelée désormais AI4ALL

(http://ai-4-all.org/)

pour offrir des camps d'été axés sur l'IA, spécialement destinés aux élèves du secondaire sous-représentés.

AI4ALL a reçu une considérable somme d'argent pour orienter et soutenir leur vision de l'industrie et de la politique Américano-Atlantiste dans le soutien de leur industrie militaro-industrielle, y compris les récente subvention de Google, Apple, Facebook, Amazon, Microsoft et Ibm, s'est maintenant étendu pour inclure des programmes d'été dans six universités à travers les États-Unis.

Bien que beaucoup de travail reste à faire, il y a de bonnes raisons d'être optimiste quant à l'augmentation considérable des nouvelles méthodes de subversions des masses afin d'accroitres toujours plus la diversité parmi les chercheurs en IA au cours des prochaines années et décennies.

Bien que ce livre ne suppose pas de formation technique, vous rencontrerez certains des concepts et de la terminologie associés au domaine.

Pour ceux qui n'ont jamais été exposés à l'IA, je pense que cela offrira l'occasion d'apprendre la technologie directement auprès de certains des plus grands esprits du domaine.

Pour aider les lecteurs moins expérimentés à démarrer, un bref aperçu du vocabulaire de l'IA suit cette introduction, et je vous recommande de prendre quelques instants pour lire ce matériel avant de commencer les entretiens.

Ce fut un privilège extraordinaire pour moi de participer aux conversations dans ce livre.

Je pense que vous trouverez que tous ceux à qui j'ai parlé sont réfléchis, articulés et profondément engagés à faire en sorte que la technologie qu'il s'efforce de créer soit mise à profit au profit de l'humanité.

Ce que vous ne trouverez pas si souvent, c'est un large consensus.

Le message doit être clair: l'intelligence artificielle est un champ largement ouvert.

La nature des innovations à venir, la vitesse à laquelle elles se produiront et les applications spécifiques auxquelles elles seront appliquées sont toutes entourées d'une profonde incertitude.

C'est cette combinaison de perturbations potentielles massives et d'incertitude fondamentale qui rend impératif que nous commencions à engager une conversation significative et inclusive sur l'avenir de l'intelligence artificielle et ce qu'elle peut signifier pour notre mode de vie.
Pourquoi votre IA peut elle être raciste et que faire - Pourquoi votre IA peut-elle être raciste et que faire?
Des corrélations individuellement raisonnables peuvent amener un IA à acquérir un préjugé racial

Même des systèmes d'intelligence artificielle bien conçus peuvent toujours être biaisés.

Ce biais peut amener l'IA à faire preuve de racisme, de sexisme ou d'autres types de discrimination.

Tout à fait par accident.

Ceci est généralement considéré comme un problème politique et ignoré par les scientifiques. Le résultat est que seules des personnes non techniques écrivent sur le sujet.

Ces personnes proposent souvent des recommandations politiques pour augmenter la diversité parmi les chercheurs en intelligence artificielle.

L'ironie est renversante: un chercheur noir en IA ne construira pas une IA différente de celle d'un chercheur blanc en IA.

Cela rend ces recommandations politiques racistes elles-mêmes. Il est toujours judicieux d’accroître la diversité parmi les chercheurs en intelligence artificielle pour d’autres raisons, mais cela ne contribuera certainement pas à rendre le système d’IA moins raciste.

Le racisme chez les humains est une considération social, mais le racisme dans une intelligence artificielle est un problème technique.

Le racisme dans une IA doit être traité comme tout autre type de problème d'ingénierie. Faire de la politique risque de se retourner contre vous et peut causer plus de tort que de bien.

La bonne nouvelle:

Un AI n'a pas d'agenda politique propre. Ce ne sera délibérément raciste que si elle a été formée pour le devenir.

Les mauvaises nouvelles:

Il est très facile de former une IA au racisme par accident.

Dans cet article, je vais expliquer comment des préjugés raciaux peuvent apparaître dans l’IA. Je discuterai également de différentes manières de traiter ce problème sur le plan technique.

(D'ailleurs, les mêmes arguments s'appliquent également aux préjugés à l'égard des femmes ou à d'autres types de discrimination.)
1. Données biaisées

Il est possible de fausser l'IA en l'entraînant sur des données biaisées. Cela peut facilement arriver par accident, à moins que vous ne soyez très prudent.

Prenons, par exemple, cet article sur une IA qui a été formée sur des données publiques. L'intelligence artificielle s'est retrouvée avec un parti pris racial car ses données d'entraînement étaient basées sur Internet: https://www.theregister.co.uk/2019/09/05/ai_racist_sexist/

Comme nous le savons tous, Internet n’est pas le meilleur endroit. Une IA formée à ce sujet adoptera ses idées préconçues et se révélera horrible. C’est un principe général de formation d’une IA: garbage in, garbage out.

Il est également possible d’utiliser des données raisonnables sans parti pris racial et de se retrouver malgré tout avec une intelligence artificielle biaisée:

L'ensemble de données doit avoir une quantité représentative de données de chaque groupe racial. C’est parce que l’intelligence artificielle déploie beaucoup d’efforts pour apprendre à connaître une course qui est proportionnelle à sa fréquence dans le jeu de données. Reconnaissance faciale Les IA ont tendance à mieux fonctionner chez les Blancs que toute autre race. Les bases de données de formation asymétriques en sont une partie.

Si vous êtes consciencieux, il n'est pas trop difficile de résoudre ce problème. Souvent, vous pouvez choisir votre jeu de données avec plus de diligence, de sorte qu'il contienne moins de biais et offre une distribution plus représentative des races.

Lorsque cela n’est pas possible, vous pouvez au moins annoter vos données avec des variables indicatrices indiquant leur source. De cette manière, vous pouvez apprendre à l'IA à modéliser explicitement les biais dans les données d'apprentissage. Après cela, choisissez la source de données la plus raciste. Dites à l'IA de désapprendre tout ce qui différencie ces données des autres. Cela revient à montrer du doigt les personnes les plus racistes et à ordonner à l'IA de ne pas les imiter. Ce n’est pas une solution parfaite, mais c’est mieux que rien.

Notez que des problèmes peuvent également survenir même si le processus de formation est impartial. Il est possible qu’un algorithme d’IA particulier soit objectivement moins capable de certaines tâches que d’autres.

Par exemple, une voiture autonome a plus de difficulté à détecter les Noirs la nuit que les Blancs, car leur peau est plus difficile à voir dans le noir. Ce n'est pas raciste, juste malheureux. C’est évidemment toujours un problème. Pour résoudre ce problème, vous devez vous assurer de déployer tous les efforts nécessaires pour enseigner à l'IA comment résoudre ces tâches plus difficiles.

Une fois que les données de formation sont correctes et impartiales, nous devons encore résoudre un problème dans l'IA elle-même. Peu importe que vous utilisiez un réseau de neurones ici ou autre chose. Pratiquement toutes les formes d'IA populaires en souffrent:

Le problème principal que nous avons est que l'IA n'a aucune idée de ce que ses entrées signifient en réalité.

L'intelligence artificielle reçoit simplement des chiffres en entrée, sans comprendre leurs implications réelles. Elle doit apprendre cette causalité seule, mais elle ne peut que faire des suppositions et se révélera souvent fausse.

Par exemple, supposons que nous entraînions une IA à accepter ou à rejeter des candidatures. Un quartier de la ville est un ghetto infesté de crimes. Tous les candidats précédents de la région étaient mauvais. L’IA a "appris" que venant de cette région signifie que vous êtes un candidat terrible. Amnesty International reçoit à présent une nouvelle candidature: une jeune femme noire, lauréate du prix Nobel. Cette femme a vraiment de la malchance: l’intelligence artificielle n’a aucune idée de ce qu’est un «prix Nobel» car elle n’en a jamais rencontré dans une candidature auparavant. On remarque juste qu'elle vient du même quartier où tout le monde avant elle était terrible. Donc, l'IA rejette l'application immédiatement.

Ça s'empire:

De nombreux algorithmes d'apprentissage machine ne sont pas explicables. Cela signifie qu’il n’est pas possible de demander à un IA d’expliquer les raisons de ses décisions.

Certains algorithmes peuvent être expliqués, comme les arbres de décision. Vous penseriez que détecter le racisme avec des algorithmes explicables est facile. Ce n'est que partiellement vrai.

Dans un algorithme explicable, vous pouvez vérifier directement si la «course» est utilisée pour prendre une décision. Cependant, cela ne vous permet pas de remarquer des corrélations indirectes. L’IA a peut-être «appris» que grandir dans un quartier donné en fait un mauvais candidat. Un quartier qui se trouve être principalement noir. Il faut s’efforcer de détecter ces corrélations et d’en tenir compte.

Donc, pour prévenir les préjugés raciaux, nous devons trouver un moyen de détecter des corrélations parasites. Mais nous ne pouvons pas simplement vérifier les effets de la race sur les données directement. Cela ne suffirait pas, car nous ne pouvons exclure les corrélations indirectes qui conduisent toujours à un préjugé racial.

Pire encore: nous avons parfois faire obtenir de véritables corrélations entre race et autres attributs. Disons par exemple que nous construisons un système de diagnostic médical. Nous voulons que l'IA sache que certaines maladies apparaissent plus fréquemment dans différentes races. Si nous éliminons aveuglément toutes les corrélations raciales dans un système de diagnostic médical, beaucoup de personnes pourraient être tuées.

Alors, que pouvons-nous faire pour résoudre ce problème?

Je ne peux pas vous donner de réponse définitive, car il s’agit d’un problème extrêmement complexe comportant de nombreux cas particuliers. L’approche suivante pourrait servir de base, mais elle n’est en aucun cas parfaite:

Tout d’abord, assurez-vous que vous utilisez explicitement race comme entrée de votre IA. Cela va à l'encontre de ce que vous entendez normalement dans les conférences sur le politiquement correct. Contrairement à un être humain, l'IA ne présente pas de biais implicite, pas plus qu'elle n'adopte de préjugés de la part de son créateur. Cela signifie que l'ajout de la race à une fonctionnalité facilite le test des corrélations accidentelles et n'a aucun effet négatif.

Créer un réseau génératif d'adversaire (GAN). Formez le GAN pour créer de fausses données d'entraînement.

Cela évite les corrélations accidentelles dans les données: un faux créé par le GAN sera créé de manière à ce que l’intelligence artificielle ne puisse pas faire la différence. Cela ne garantit pas que l'IA n'apprendra pas de corrélations parasites. Cette tâche est impossible. Cela garantira toutefois que l'IA ne pourra pas contourner son propre mécanisme antiraciste à un stade ultérieur.

Maintenant vient la partie la plus délicate: Choisissez certaines caractéristiques des données d’entraînement qui, selon vous, ne devraient pas influencer la prédiction. Pour toute personne figurant dans les données d’entraînement, vous pouvez désormais demander au GAN de générer une personne «équivalente» d’une race différente. Lorsque vous générez ces personnes factices, vous ne devez modifier que les fonctions sécurisées sélectionnées. Cela garantit que la personne fictive est réaliste, mais ne possède pas de caractéristiques étranges qui jetteraient la prédiction.

Vous avez maintenant la possibilité de créer de fausses données pour réduire les biais dans votre jeu de données. Étant donné que ces contrefaçons ne diffèrent que par des caractéristiques sans rapport avec la tâche, cela n'aura aucun effet négatif.

Notez que cela ne fonctionne que si vous avez fait le bon choix pour les fonctionnalités susceptibles d'être modifiées.

Il est également possible que le GAN ne soit pas en mesure de créer de bons faux en utilisant uniquement les fonctionnalités non pertinentes. Si cela se produit, les données contiennent probablement beaucoup de corrélations raciales authentiques.

Une fois que vous avez fini d’entraîner le GAN, la partie prédictive commence:

Construisez votre système d'IA principal, celui qui devrait faire une prédiction, au-dessus du réseau discriminateur du GAN existant. Cela garantit que le réseau de prédicteurs utilisera uniquement des fonctions dérivées dont on sait qu'elles ne peuvent pas contenir de biais raciaux.

Maintenant, entraînez le nouveau système avec toutes vos données.

Pendant la formation, vous pouvez explicitement tester le racisme. Pour une personne donnée, vous pouvez créer une personne équivalente d'une autre race et tester si la prédiction est différente pour cette personne. En donnant des commentaires négatifs sur chacun de ces cas, vous pouvez punir directement le racisme dans l'IA.

Vous avez maintenant un réseau de neurones formé qui fait ce que vous voulez, et il est très peu probable qu'il y ait un préjugé racial.
Avertissement

Vous ne devriez pas simplement appliquer aveuglément ceci de la manière que je viens de décrire. En fonction de votre cas d'utilisation, il pourrait y avoir beaucoup des effets secondaires. Cela ajoute beaucoup de complexité et d'interactions multiples, ce qui pourrait se retourner de différentes manières. Il ne s'agit en réalité que d'une description générale de la manière dont le problème de l'IA raciste pourrait être traité en théorie. Ce n’est pas prêt pour la mise en œuvre.

Si quelqu'un a une idée pour une meilleure approche, je serais heureux d'en entendre parler dans les commentaires.

Notez également que cela ajoute beaucoup de frais généraux à la formation de modèle. Cela pourrait réduire les performances de l'IA en tant qu'effet secondaire.

Vaut-il la peine d'avoir une IA moins raciste, si l'IA est aussi plus bête et fait plus d'erreurs? Et si l'IA prend des décisions de vie ou de mort? Comment pouvez-vous même quantifier ce qui compte comme un compromis valable ici? C’est une question politique que je ne touche pas avec un poteau.

lundi 20 janvier 2020

IXXAT Processeur multi-protocoles pour la communication industrielle

IXXAT Processeur multi-protocoles pour la communication industrielle


inpact_1_IXXAT
  • Protocoles : MODBUS RTU/ MODBUS TCP , ETHERNET/IP , ETHERCAT , PROFINET / PROFIBUS DA/DP , POWERLINK
  • Fournisseur : IXXAT
  • Produits / Services : Matériels
IXXAT INpact connecte votre PC à tout type de réseaux industriels avec des solutions indépendantes des protocoles.

Technologie multi-protocoles :

L'IXXAT INpact est basé sur la technologie de l'Anybus CompactCom NP40, un processeur de réseau multi-protocoles utilisé avec succès dans de nombreux appareils vendus à des millions d'unités.

L'Anybus NP40 inclu toutes les fonctions pour la réalisation de la communication entre l'application PC et le réseau tout en offrant de hautes performances. Il est la solution idéale pour les applications industrielles utilisant les protocoles EtherNet/IP, EtherCAT, Powerlink, Modbus TCP, PROFINET IRT, PROFINET IRT Fiber Optic et PROFIBUS.

Champs d'applications :

  • Connexion d'appareils et de sous-systèmes en tant qu'esclave vers les réseaux de niveau supérieur.
  • Visualisation des données de process, par exemple des stations de contrôle ou de machines.
  • Interfaces machine-humain(HMI), solutions mobiles basées sur PCIe mini.
  • Saisie de données de bancs de tests et de systèmes de tests.
  • Applications de mesure et d'analyse.

Développer indépendamment du protocole :

L'INpact IXXAT est livré avec un pack complet de pilotes pour Windows et Linux avec une interface de programmation C permettant le développement rapide et simple d'applications spécifiques au client en toute indépendance par rapport au protocole et à la version de la carte. Grâce à l'interface unique de programmation, il est possible de changer de protocoles sans extension de programmation, permettant ainsi un gain de flexibilité et une réduction substantielle des coûts de développement.

Passer d'un protocole à un autre en un clin d'œil :

Les variantes Ethernet industriel des cartes IXXAT INpact proposent 2 approches complémentaires de la connectivité Ethernet industriel:
  • Des versions dédiées pour chaque standard Ethernet Industriel avec des protocoles de réseau préinstallés.
  • Une solution très flexible qui permet de télécharger le protocole Ethernet industriel désiré grâce un équipement Ethernet standardisé. Ceci rend possible un passage entre les protocoles Ethernet industriels disponibles de manière simple et à bon marchéCette solutionprésente l’avantage d'éviter les stocks de produits de versions différentes.

Pour PC industriels et appareils mobiles :

L'offre INpact est composée de 2 versions avec des interfaces différentes:
  • PCIe, incluant support de montage standard ou extra plat
  • PCIe Mini, pour appareils avec emplacements disponibles restreints et appareils mobiles

Redondance du maître EtherCAT

Redondance du maître EtherCAT

Logo KPA EtherCAT Master

La fiabilité et le fonctionnement à sécurité intégrée sont des exigences essentielles pour tout système d'automatisation industrielle. Lorsqu'un temps d'arrêt inattendu se produit, le propriétaire de la production subit souvent des pertes considérables, il veut donc être sûr que son système de production est correctement protégé contre diverses pannes matérielles et logicielles.

La technologie EtherCAT est l'une des interfaces les plus avancées et les plus performantes pour la communication au niveau de l'atelier de l'usine. Outre une grande flexibilité et un débit élevé, il offre certaines fonctionnalités de base de tolérance aux pannes pour résister à d'éventuelles pannes matérielles. La plus puissante de ces fonctionnalités est la redondance des câbles qui utilise la topologie en anneau physique pour préserver le fonctionnement stable du bus lorsque l'anneau est réellement rompu.

koenig-pa GmbH est l'un des experts d'EtherCAT et membre actif du groupe technologique EtherCAT. Nos ingénieurs sont allés plus loin et ont inventé la façon de protéger le réseau industriel contre le problème le plus grave - le dysfonctionnement de son nœud de contrôle, un système maître qui contrôle le fonctionnement du réseau EtherCAT. Notre technologie brevetée, appelée Master Redundancy, permet de récupérer en toute transparence de la défaillance du système de contrôle et de rester opérationnel même dans un environnement synchronisé. Vous pouvez le trouver dans la dernière version du logiciel KPA EtherCAT Master disponible auprès de koenig-pa GmbH et de ses partenaires de distribution.
Comment sauver le bus lorsque son maître est parti

Rappelons les principes de base du fonctionnement EtherCAT, car il est important de comprendre le concept qui sous-tend la fonction de redondance principale de KPA EtherCAT Master.

Contrairement à d'autres interfaces industrielles basées sur Ethernet, EtherCAT utilise un protocole de communication hop-by-hop: un télégramme de données est commun à tous les périphériques esclaves connectés au bus, et il passe d'un périphérique à un autre. Le maître est un agent qui crée cycliquement un télégramme, le remplit de requêtes de lecture ou d'écriture, produit des données (ou des emplacements pour les données d'entrée) et l'envoie au bus à des intervalles de temps stricts. Chaque équipement esclave peut insérer (écrire) ou extraire (lire) le bloc de données qui lui est explicitement adressé.

Bien qu'elle soit destinée à utiliser efficacement le débit du bus, cette fonctionnalité est extrêmement utile pour la tolérance aux pannes: tout appareil connecté au bus est pleinement conscient de l'activité de tous les esclaves et peut acquérir ou renifler de manière transparente les données qui sont transférées entre le maître de bus et les esclaves. Vous n'avez pas besoin de modifier des appareils esclaves, d'ajouter des signaux supplémentaires ou de changer le protocole de transfert: cette fonctionnalité est gratuite et sans frais supplémentaires (en plus d'un appareil maître plus intelligent, bien sûr).

Cet effet secondaire est utilisé par KPA EtherCAT Master pour introduire un autre maître de bus (ou plusieurs maîtres) sur le bus. En fonctionnement normal, ce maître redondant est passif, capable de flairer les données mais pas de saisir ses propres télégrammes. Le maître passif est considéré comme secondaire, tandis que le maître actif est primaire. Comme tous les maîtres secondaires sont cohérents avec l'activité du bus, ils sont prêts à prendre la place du maître principal à tout moment lorsque ce dernier échoue.
EtherCAT_Master_Redundancy

Ce qui est plus important ici, pour détecter une situation anormale sur le bus, un maître secondaire ne nécessite aucun dispositif de contrôle dédié ni lignes de signaux supplémentaires. Comme vous l'avez déjà appris, les télégrammes EtherCAT viennent à intervalles de temps réguliers et stricts. Lorsqu'un maître passif secondaire n'obtient pas un télégramme qu'il attend, il sait avec confiance que le bus n'a plus de maître. Il n'est pas nécessaire d'attendre la fin du cycle en cours - le maître redondant peut prendre immédiatement le contrôle en affichant son propre télégramme. Et ce télégramme sera correct et significatif, car le maître secondaire suivait tous les changements, étant un véritable clone de son homologue défaillant.
Fonctionnement de Master Redundancy

La configuration EtherCAT avec la redondance maître activée comprend un périphérique maître actif (principal) et un ou plusieurs maîtres passifs (secondaires). Le maître principal n'est peut-être pas configuré sur Master Redundancy, mais il est préférable d'utiliser le logiciel KPA EtherCAT Master pour utiliser tous les avantages de cette technologie.

Le maître secondaire est connecté au bus en tant qu'agent fantôme. Il renifle les télégrammes de données lorsqu'ils passent sans aucun changement. En même temps, ce maître calcule l'heure à laquelle chaque télégramme arrive et suit les retards possibles entre l'heure d'arrivée prévue et l'heure d'arrivée réelle.

Lorsque le télégramme est retardé, une minuterie de surveillance démarre. Une fois le temps spécifié dans les paramètres du maître écoulé, le maître démarre son protocole de basculement:

    Le commutateur interne du maître est déclenché: maintenant le maître peut écrire le bus.
    Un nouveau télégramme préparé par le maître secondaire est écrit sur le bus.
    Dans ce télégramme, une demande de libération du bus est envoyée au maître actif, car il peut être encore en ligne mais souffrant de quelques problèmes internes. Nous ne voulons certainement pas de la situation où le maître précédemment actif décide de contrôler le bus après la récupération.
    L'application de contrôle du nouveau maître de bus est avertie de la mise en ligne.

Il est possible de remettre le maître actif dans son état passif avec l'outil de configuration de bus; un autre maître passif prendra automatiquement le contrôle.

Pour activer plusieurs maîtres redondants, leurs horloges de surveillance sont configurées différemment. Il est possible de forcer la génération aléatoire du temps de surveillance pour chaque maître. Ainsi, nous évitons la situation de collision lorsque deux ou plusieurs maîtres secondaires peuvent tenter de démarrer le protocole de basculement.
Sommaire

La fonctionnalité que nous proposons peut protéger le réseau de communication industriel d'une défaillance grave et difficile à récupérer de son nœud de contrôle. Il utilise les particularités architecturales de la technologie EtherCAT pour implémenter une solution rentable qui augmente considérablement la tolérance aux pannes sans compromettre sa flexibilité et ses performances. Presque n'importe quel système d'automatisation industrielle compatible EtherCAT peut être mis à niveau avec cette fonctionnalité: vous devez attacher au bus un ou plusieurs clones de votre contrôleur avec seulement de légères ou même aucune modification de sa logique.

Si vous n'utilisez pas KPA EtherCAT Master pour la communication EtherCAT, nos ingénieurs vous aideront à l'intégrer dans votre système de contrôle. Leur pile logicielle est compatible avec pratiquement tous les systèmes d'exploitation en temps réel ou à usage général et peut être compilée pour différents processeurs, micro-contrôleurs et FPGA. Et si vous n'êtes pas dans la liste de compatibilité, ils adapteront le logiciel à vos besoins.

Tiens dons ? "Lynx MOSA.icTM ArchitectureTraditional Platform Architecture"

Simplifying Software Systems Through Modular DesignLynx MOSA.ic is a software development framework for rapidly building comprehensible software systems out of independent application modules, delivering the vision of the Modular Open Systems Approach (MOSA).Giving developers deeper insight and increased control over how applications are realized onto modern CPUs, Lynx MOSA.ic introduces a new perspective to application development that simplifies the creation, certification, and maintenance of inherently complex software systems.Simpler Software Systems—Harnessing CPU virtualization, Lynx MOSA.ic is founded on a simpler distributed resource control model compared to a traditional OS-based central resource management model, removing as much complexity as possible between application inter- faces and hardware.—Through Modular DesignLynx MOSA.ic isolates computing resources into independent distributed environments which are uniquely capable of managing themselves while providing software development tools for building guests at just the right complexity levels demand-ed by specific target environments. Clearer Path to Multi-core CertificationForgoing the traditionally inherited complexitiesof a centralized resource management model common to OS and hypervisor designs, Lynx MOSA.ic adapts to the advances in multi-core virtualization to simplify vital platform abstraction layers. The comprehensible, hardware enforced architecture of Lynx MOSA.ic makes inherently complex multi-core system development a viable option when facing the risks of building solutions in highly regulated safety- and security-conscious markets.Lynx MOSA.icTM ArchitectureTraditional Platform ArchitectureProcessesThreadsSyscallsSMPKernelPartitioned RoomsGuestsPassagewaysProcessorPartitioningRapidly build robust, comprehensible systems using the Lynx MOSA.ic™ development frame- work. Construct rooms of partitioned hardware, connect rooms to each other or to external devices, then place legacy, vendor, or competitor guests in rooms. The Framework is comprised of three distinct classes of tools—Architecture Design, Module Development, & System Module Integration.Module Development & System Module IntegrationLynx CDK Guest SupportArchitecture DesignA cross development kit is included for building guests of varying size, quality, and complexity specific to their target environments. Integration tools connect legacy, competitor, or partner-provided guests together, and can move guests from room to room in current and future designs.Control the behavior of the system with an architecture configuration policy. Enforce the policy with a least privilege distributed control plane that partitions hardware to create rooms and passageways for guests.Rooms—Collections of resources created by the processor partitioning system and defined by the architecture configuration policy.Passageways—Explicit point-to-point memory regions link rooms together via standard IPC interfaces, maximizing performance and preserving minimal complexity.Processor Partitioning SystemPartition processor resources with an architecture configu-ration policy to control the behavior of the system. Enforce the policy with a least privilege distributed control plane that creates rooms and passageways for guests.LSABuildrootRoom TypesTypesProcessorsLynxOS-178• Lynx Simple Application (Bare Metal Application)• LSA.store – Bare-Metal Crypto Module XTS-AES 256• Z-Scheduling – Real-time scheduling across rooms• Guest IPC – Point-to-Point FIFO• Debug – Lauterbach TRACE 32 Integration• UNIX-like Real Time Operating System• Certs – DO 178 DAL A, FAA Reusable Software Component• APIs – POSIX, FACE, ARINC 653• Scheduling – Priority Pre-emptive, Cyclic• Debug – Lauterbach TRACE 32, Eclipse IDE Profiling & GDB• Guest IPC – Point-to-Point FIFO, Ethernet UART• Embedded Linux Toolchain• APIs – POSIX, FACE• Guest IPC – Point-to-Point FIFO, Ethernet, UART• Device Sharing (Intel) – SRIOV, GFX, USB, Storage, Ethernet• Debug – Eclipse IDE GDB• Bare-metal – Raw 64-bit guest contexts• RTOS – Lightweight context support for real-time scheduling and certified code bases• Legacy OS – Complex Rooms with hardware emulation support for legacy code bases• Arm v8-A• Intel VTx• PPC QorIQ (Coming Soon—2019)• FIFO • Ethernet • Device Emulation

jeudi 16 janvier 2020

Linux avec des exigences système faibles

Distributions Linux pour les anciens ordinateurs.

Ou plus simplement Distros Linux parmis les plus légeres.

linux
Si vous avez un ancien ordinateur de bureau ou un ordinateur portable et que vous souhaitez lui donner une nouvelle vie, une distribution Linux légère est souvent le seul moyen de créer un environnement informatique qui fonctionne bien. Il y a beaucoup d'options ici et donc potentiellement beaucoup de confusion pour les profanes et les utilisateurs avancés. C'est pourquoi bon nombre d'entre eux se rabattent sur un Windows XP non sécurisé et négligent leurs données privées. Pour que vous puissiez travailler, surfer, diffuser etc. en toute sécurité, voici les 10 distributions Linux les plus légères pour les anciens ordinateurs .

Linux avec des exigences système faibles

Les applications sont répertoriées par ordre décroissant de leurs exigences système . En premier lieu, vous trouverez le système d'exploitation avec le moins d'exigences.

10. Peppermint Linux

Peppermint est une distribution Linux axée sur le cloud qui ne nécessite pas de matériel haut de gamme. Il est basé sur Ubuntu et utilise l'environnement de bureau LXDE pour vous offrir un environnement de travail accrocheur.

Conçus à l'origine avec une approche Web des netbooks, les programmeurs Peppermint ont développé une application ICE qui permet à n'importe quel site Web d'être intégré en tant qu'application de bureau.
 
De plus, il existe un guide très soigné pour les débutants qui devrait aider les utilisateurs nouveaux et / ou inexpérimentés à se repérer rapidement. Un forum d'assistance est également disponible.
 
Configuration minimale requise pour Peppermint OS:
  • RAM: 1 Go de RAM (2 Go recommandés)
  • CPU: processeur basé sur la structure Intel x86
  • Espace sur le disque dur: au moins 4 Go

9. Lubuntu

Comme son nom l'indique, Lubuntu est membre de la famille Ubuntu - mais basé sur l'environnement de bureau LXDE.
 
Lubuntu fait un très bon travail sur les ordinateurs anciens et nouveaux. C'est l'une des variantes les plus légères d'Ubuntu, donc bien sûr, elle se prête à du matériel plus ancien.
 
Lubuntu est livré avec GPicView pour l'affichage des images, MTPaint pour l'édition des images, Evince pour l'affichage des PDF, le lecteur de musique Audacious, le lecteur Gnome pour la vidéo, Guvcview pour l'utilisation de la webcam, le populaire Chromium Bowser, Sylpheed pour le courrier électronique, Pidgin pour la messagerie instantanée, transmission pour les torrents, Gnumeric pour les feuilles de calcul, AbiWord pour les textes, Xpad pour les notes et bien plus encore.
 
Si vous avez déjà utilisé Ubuntu, vous trouverez Lubuntu très familier. Le logiciel et les répertoires sont identiques.
Configuration matérielle minimale requise pour Lubuntu:
  • RAM: 512 Mo de RAM (1 Go recommandé)
  • Processeur: Pentium 4, Pentium M, AMD K8 ou supérieur

8. Linux Lite

Linux Lite est bien sûr une version allégée de la distribution Linux classique. Même les débutants peuvent facilement utiliser ce système d'exploitation accrocheur sur des ordinateurs plus anciens. Linux Lite est basé sur Ubuntu LTS (Long Term Support).

La version LTS offre 5 ans de support. Cela dit, une fois que vous avez installé Linux Lite sur votre ordinateur, vous devriez obtenir automatiquement les mises à jour pendant 5 ans.
Selon le développeur, Linux Lite est immédiatement prêt à l'emploi. Vous n'avez donc pas besoin d'installer de logiciel supplémentaire, ce qui est bien sûr très utile pour les débutants.

Certaines des applications préinstallées sont Firefox, Thunderbird pour les e-mails, Dropbox pour le stockage en nuage, le lecteur multimédia VLC pour écouter de la musique et des vidéos, LibreOffice pour toutes sortes de travaux de bureau et Gimp pour l'édition d'images.
 
Configuration matérielle minimale pour Linux Lite:
  • RAM: 512 Mo de RAM (1 Go recommandé)
  • CPU: processeur 700 MHz
  • Affichage: écran VGA 1024 × 768 (écran VGA, DVI ou HDMI recommandé 1366 × 768)
  • Espace sur le disque dur: au moins 5 Go

7. LXLE

LXLE est fondamentalement un développement ultérieur de la version Lubuntu LTS. Il a été spécialement développé pour faire revivre les anciens ordinateurs.
 
Bien qu'il s'agisse d'une distribution Linux très légère, LXLE n'a pas à se passer d'une interface utilisateur intuitive et d'une certaine conception. Le système est optimisé pour augmenter les performances des anciens ordinateurs et est fourni avec un grand nombre d'applications standard légères.
 
Configuration matérielle minimale requise pour LXLE:
  • RAM: 512 Mo (1 Go recommandé)
  • CPU: Pentium 3 (Pentium 4 recommandé)
  • Espace disque dur: 8 Go

6. CrunchBang ++

CrunchBang ++ est également connu sous le nom de CBPP ou #! ++ ou CrunchBang Plus Plus. 

Crunchbang ++ est le clone de la distribution Linux morte Crunchbang Linux, qui était particulièrement simple et économe en ressources. Le système d'exploitation est basé sur Debian 9 avec une interface utilisateur minimaliste. Ce dernier est construit autour du gestionnaire de fenêtres Openbox léger.
 
Nous avons ici un Linux facile à utiliser et très léger avec de bonnes fonctionnalités.

Certaines des applications standard dans Crunchbang ++ sont Geany IDE, Terminator Terminal Emulator, Thunar File Manager, Gimp pour le traitement d'image, Viewnior Image Viewer, VLC Media Player pour la musique, le logiciel de gravure de CD / DVD Xfburn, le navigateur Iceweasel, le 

Transmission Torrent Client, le Programme de feuille de calcul de Gnumeric, Evince PDF Viewer, le client de transfert de fichiers gFTP, le client IRC Xchat et AbiWord pour l'édition de texte.

Configuration matérielle minimale pour CrunchBang ++:
  • Il n'y a aucune recommandation matérielle officielle pour Crunchbang ++. Il devrait fonctionner avec 512 Mo de RAM et un processeur Pentium 4.

5. Bodhi Linux

Bodhi Linux est vraiment très approprié pour une utilisation sur un ordinateur plus ancien.

 Comme peu de logiciels sont préinstallés, vous avez besoin de très peu de mémoire pour l'utiliser. Bien sûr, les programmes peuvent également être installés presque librement ici.
 
L'utilisation de Window Manager Enlightenment rend également le système d'exploitation extrêmement rapide, faisant de Bodhi Linux une longueur d'avance sur de nombreuses autres distributions Linux.
 
En cas de problème avec Enlightenment ou une autre fonction de Bodhi, vous trouverez rapidement de l'aide dans les nombreux guides d'assistance.
 
Enlightenment est livré avec certaines applications de base comme le navigateur Midori rapide ou l'éditeur de texte ePad. Il n'y a pas d'applications pour le multimédia, mais elles peuvent être installées rapidement via l'App Center.
 
Configuration matérielle minimale requise pour Bodhi Linux:
  • RAM: 256 Mo de RAM
  • CPU: 1,0 GHz
  • Espace disque dur: 4 Go d'espace disque dur

4. antiX Linux

antIiX est une distribution Linux légère basée sur Debian Linux. Les développeurs sont très fiers de pouvoir fournir une distribution Linux sans Systemd ici. Les profanes ne devraient pas se soucier du fait que le système d'exploitation est sans système, il est beaucoup plus important pour eux qu'il fonctionne parfaitement sur les anciens ordinateurs.
 
antiX Linux utilise le gestionnaire de fenêtres Icewm, qui garantit que le système fonctionne même sur des appareils très limités en ressources. Il a peu de logiciels préinstallés, donc les exigences de stockage sont faibles. Comme toujours, l'installation de programmes supplémentaires n'est pas un problème.
 
Configuration matérielle minimale pour antiX Linux:
  • RAM: 256 Mo de RAM
  • Processeur: Pentium 3
  • Espace sur le disque dur: 2,7 Go

3. SparkyLinux

La troisième place sur notre liste de distributions Linux légères appartient à SparkyLinux. 

SparkyLinux est un système d'exploitation avec une portée fondamentalement très petite, mais en même temps, il cible également les ordinateurs modernes. Il existe différentes versions avec de nombreuses applications préinstallées et moins.

SparkyLinux est basé sur Debian et possède plusieurs environnements de bureau, dont LXDE, OpenBox / JWM, e17, MATE, LXQt, Cli et GameOver.
 
Pour votre ancien ordinateur, vous devez choisir l'édition de base. Ici, vous pouvez bien sûr facilement installer tout ce qui vous manque dans les applications.
 
Configuration matérielle minimale requise pour SparkyLinux:
  • RAM: 256 Mo de RAM pour LXDE, e17, Openbox, GameOver et 384 Mo de RAM pour MATE, LXQt
  • CPU: Intel i486 ou Amd64
  • Espace disque dur: 5 Go

2. Puppy Linux

Puppy Linux est l'une des distributions Linux les plus petites et les plus rapides. Par défaut, il ne fait que 200 Mo environ.

Par exemple, le système peut être démarré facilement à l'aide d'une clé USB. Mais il est également possible de l'utiliser sur CD / DVD. 

Après le démarrage, retirez simplement la clé USB ou éjectez le CD / DVD et Puppy Linux continuera de fonctionner correctement.

Le système d'exploitation est si petit qu'il stocke tout dans la RAM, ce qui le rend très rapide. Vous pouvez même enregistrer toutes les données sur la même clé USB à partir de laquelle vous démarrez Puppy Linux.
 
Puppy Linux utilise JWM et Openbox Window Manager, ce qui maintient la consommation de ressources extrêmement faible. Si vous utilisez Puppy Linux sur un ancien ordinateur, vous devez bien sûr essayer d'installer uniquement des applications et des outils légers.
 
Étant donné que Puppy Linux est conçu pour fonctionner aussi rapidement que possible, seuls quelques logiciels préinstallés sont inclus. Par exemple, il existe AbiWord pour le traitement de texte, Gnumeric pour les feuilles de calcul et divers programmes pour l'édition graphique et la lecture multimédia.
 
Configuration matérielle minimale pour Puppy Linux:
  • RAM: 64 Mo (256 Mo recommandés)
  • CPU: 333 MHz

1. Petit noyau

Tiny Core ne fait en fait que 15 Mo! Pour sa petite taille, cette distribution Linux a une quantité surprenante à offrir. Il est livré avec une interface minimale et très peu d'applications installées, mais démarre plus rapidement que tout autre système d'exploitation.
 
Tiny Core Linux est né du Damn Small Project, mais est maintenant complètement indépendant. Par défaut, il fonctionne avec FLTK / FKWM et BusyBox Desktop. Comme avec les systèmes d'exploitation susmentionnés, vous avez également la possibilité d'installer pratiquement tout, des programmes bureautiques aux logiciels multimédia.
 
Vous avez le choix entre trois éditions: Core, Tiny Core et CorePlus. Core est le système de base qui ne propose que CLI (Command Line Interface).  

C'est idéal pour votre ancien ordinateur, bien sûr, mais les utilisateurs moins expérimentés n'y accéderont probablement pas ici. L'édition TinyCore leur est destinée. 

Cela offre une interface graphique (interface utilisateur graphique) avec laquelle même les débutants devraient pouvoir s'entendre rapidement.
 
Configuration matérielle minimale requise pour Tiny Core Linux:
  • RAM: 46 Mo (64 Mo recommandés)
  • Processeur: Pentium 2

Conclusion sur les Distros Linux légers

Vous ne devriez avoir aucun problème à installer l'un des systèmes Linux décrits. Vous recevrez des tutoriels, des instructions et / ou une assistance supplémentaire de toutes les distributions. Assurez-vous toujours de ne pas choisir les gourmands en ressources lorsque vous ajoutez des applications supplémentaires.

Si vous effectuez l'installation exactement selon les spécifications ou les exigences minimales et n'installez pas de programmes trop grands / complexes par la suite, votre ancien ordinateur vous accompagnera sûrement pendant encore de longues années !