Quelles seront les limites de l’I.A ? C’est fascinant et terrifiant à la fois.. Vu les progrès, la combinaison homme/machine sera-t-elle possible ? Quelle énergie alimentera ces big-data très gourmand ? Il faudra beaucoup d’énergie pour interconnecter toutes ces « machines ». Bonne ou mauvaise chose, ça dépendra de l’utilisation et surtout, de l’intelligence naturelle des concepteurs de ces programmes, si tant est qu’il pensent à l’être humain dans toute sa complexité. Une I.A pourra t-elle avoir des sentiments ? Pourra-t-elle atteindre une spiritualité qui nous est propre ? Elle sera paraît-il, capable d’apprendre en permanence, en fonction de quoi pourrait-elle rivaliser avec l’humain si imprévisible ? On ne se préoccupe pas trop de l’avancée de ces travaux, mais quand on écoute un Laurent Alexandre à fond pour le transhumanisme (il n’est pas le seul), on voit poindre un avenir horrifique où, les « Dieux » que sont les adeptes transhumanistes (selon L.Alexandre) domineront les « gueux ». Partagez ! Volti
******
Deep Blue est un superordinateur spécialisé dans le jeu d’échecs par adjonction de circuits spécifiques, développé par IBM au début des années 1990. (Wikipédia)
Qu’est ce que la cybernétique ? – Nathanaël Leroy
Les bases de la Cybernétique qui est la science des communications dans un système ! Norbert Wiener
Vidéo très didactique pour pénétrer le monde de la cybernétique, dans le but de mieux appréhender les mutations complexes liées à la globalisation et au transhumanisme.
Aux origines de l’intelligence artificielle. France Culture
31/03/2018 Par Lise Verbeke
« L’intelligence artificielle se définit comme le contraire de la bêtise naturelle », selon Woody Allen. La recherche dans ce domaine s’amplifie, une course mondiale à l’innovation est lancée depuis les années 2000. Mais d’où vient l’intelligence artificielle et que recoupe ce terme ?
Emmanuel Macron ne veut pas que la France « rate le train de l’intelligence artificielle« , conduit par la Chine et les Etats-Unis. Le président de la République a présenté ce jeudi 29 mars un plan ambitieux pour développer les recherches dans ce domaine, en passe de révolutionner l’économie et la société. Mais le train de l’intelligence artificielle compte de nombreux wagons. Retour aux origines de l’expression, et éclairage sur les domaines qu’elle regroupe, alors que France Culture vous propose un forum à ce sujet ce samedi.
Une idée née au milieu du XXe siècle
« L’apparition des ordinateurs, dans les années 1940-1950, semble rendre possible le rêve de l’intelligence artificielle« , écrit Frédéric Fürst, maître de conférence, du laboratoire MIS, Modélisation, Information et Système de l’université de Picardie.
A l’origine, le mathématicien Norbert Wiener lance la cybernétique dans les années 1940, qu’il définit comme la science du fonctionnement de l’esprit humain. Il veut, selon Frédéric Fürst, « modéliser l’esprit comme une boîte noire, mais cela n’aboutit pas« . Les chercheurs se détournent alors de l’esprit pour se concentrer sur les neurones. Et c’est là que démarre un bouillonnement d’idées.
Deux approches de l’IA, l’intelligence artificielle, émergent dans les années 1940 : le connexionnisme et le cognitivisme.
Le connexionnisme est porté par deux neurologues, Warren McCulloch et Walter Pitts, qui proposent de reproduire dans une machine le fonctionnement interne du cerveau humain. Ils inventent le neurone formel, le premier modèle mathématique du neurone.
Le neuropsychologue Donald Hebb crée de son côté, en 1949, une règle qui permet de doter les neurones formels de capacité d’apprentissage. Le cognitivisme, écrit Frédéric Fürst, « considère que la pensée peut être décrite à un niveau abstrait comme manipulation de symboles, indépendamment du support matériel de cette manipulation. Une approche qui établit un lien entre la pensée et le langage, comme système de symboles ». Il souhaite donc développer la traduction automatique sur ordinateur. En pleine période de guerre froide, la traduction automatique du russe vers l’anglais, ou l’inverse, est un gros enjeu.
Le test de Turing
En octobre 1950, le mathématicien britannique Alan Turing signe l’un de ses articles les plus célèbres, sous le titre « Machines de calcul et intelligence ». Ce texte fondateur et visionnaire débute par ces mots :
Je propose de réfléchir à la question : les machines peuvent-elles penser ?
Celui qui avait réussi, grâce à une machine justement, à décrypter les codes secrets des nazis y présente cette fois un jeu dit de l’imitation. A l’époque des tout premiers ordinateurs que la presse baptise « cerveaux électroniques », un test est né. Il entrera dans l’histoire, portant son nom. https://www.youtube.com/embed/k0vmuYQAkW4?feature=oembed
À ÉCOUTER AUSSI 59 min La Méthode scientifiqueAlan Turing : l’homme derrière la machine
En 1951, le mathématicien américain Marvin Minsky crée lui une machine, le SNARC (Stochastic Neural Analog Reinforcement Calculator), le premier simulateur de réseau neuronal, qui simule le comportement d’un rat apprenant à se déplacer dans un labyrinthe.
L’apparition du terme « intelligence artificielle »
L’expression Intelligence artificielle en tant que telle apparaît en 1956. « Plusieurs chercheurs américains, dont John McCarthy et Marvin Minsky, très en pointe dans des recherches qui utilisent des ordinateurs pour autre chose que des calculs scientifiques, se sont réunis à l’université de Dartmouth, dans le New-Hampshire, aux Etats-Unis, détaille Pierre Mounier-Kuhn, chercheur au CNRS et à l’université Paris-Sorbonne. _Leur projet est alors de développer l’intelligence artificielle. Le terme filait bien la métaphore des « cerveaux électroniques » et reprenait le projet cybernéticien de marier l’étude du cerveau avec celle des machines.« _
De cet atelier de travail sur les machines pensantes, une expression émerge, celle de l’un de ces chercheurs, John McCarthy, qui parle pour la première fois d’intelligence artificielle.
Ce terme s’est imposé tout de suite, raconte Pierre Mounier-Kuhn. Il était suffisamment frappant, paradoxal et ambigu pour plaire à beaucoup de gens. Il décrivait bien les projets de ces experts, cela parlait au public, et cela permettait de formuler tout un tas de promesses et ainsi d’attirer des crédits.
Trois ans après le séminaire de Dartmouth, les deux pères de l’intelligence artificielle, McCarthy et Minsky, fondent le laboratoire d’intelligence artificielle du Massachusetts Institute of Technology (MIT).
Le mouvement gagne peu à peu la Grande-Bretagne et la France, et les autres pays où l’on commence à utiliser les ordinateurs. « En France, détaille le chercheur, en 1959, un laboratoire, « le centre d’étude de la traduction automatique » est créé et cofinancé par le CNRS, l’armée et l’université de Grenoble « .
Les hivers de l’IA
Mais l’histoire de l’intelligence artificielle n’est pas linéaire. Son développement dépend en majorité des crédits qui lui sont alloués, des effets de mode et des fluctuations financières. « Avec des phases de grand enthousiasme, où affluent les chercheurs et les crédits appâtés par les promesses, explique Pierre Mounier-Kuhn, et puis au bout de quelques années, on déchante, ils alternent avec des phases de désillusion d’autant plus aiguë que les illusions étaient exagérées. Et les organismes qui financent la recherche coupent le robinet pour l’intelligence artificielle. » Cela ne concerne pas uniquement des financements publics mais aussi de grosses entreprises. L’historien et d’autres spécialistes qualifient cela d’ »hiver de l’intelligence artificielle ».
Au milieu des années 1960, l’IA connaît son premier hiver. Les promesses de traductions automatiques en masse ne se concrétisent pas. « Des linguistes ont produit des rapports sanglants, ajoute le chercheur, en expliquant que traduire des langues n’est pas qu’un problème d’algorithmes bien conçus, mais qu’il fallait comprendre ce qu’est une langue, donc faire des recherches en amont sur la linguistique théorique. Cela a donc porté un coup arrêt à la traduction automatique, les crédits se sont taris. Mais indirectement cela a rapproché la linguistique et la science alors en plein bouillonnement qui cherchait des modèles dans l’algèbre, avec les informaticiens qui voulaient théoriser les langages de programmation. Ce rapprochement a donné naissance à l’informatique théorique.«
Autre promesse non tenue : en 1958, deux chercheurs avaient promis un ordinateur capable de battre le champion du monde d’échecs, en moins de dix ans. Cet ordinateur d’IBM a été capable de le faire, mais ça n’est arrivé qu’au milieu des années 1990 : en 1997, avec Gary Kasparov contre le programme Deep blue.
https://www.youtube.com/embed/ZIcZymAzifM?feature=oembed https://www.youtube.com/watch?v=ZIcZymAzifM&feature=emb_logo
En 1969, McCarthy et Minsky écrivent un livre commun : Perceptrons, « où ils montrent les limites de l’apprentissage machine (machine learning), ce qui va mettre un coup d’arrêt temporaire aux recherches dans ce domaine », explique Jean-Gabriel Ganascia, chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6 Lip6, président du comité d’éthique du CNRS.
Un nouvel hiver a lieu au milieu des années 1970. « Cela coïncide en plus avec la fin de la guerre au Vietnam, précise Pierre Mounier-Kuhn, où les crédits, qui ont un aspect militaire s’arrêtent ». Dans les années 1980, les Américains réinvestissent dans l’IA, en pleine guerre Russie – Afghanistan. C’est aussi à cette époque qu’est développée l’idée de remplacer l’homme par la machine dans certains métiers.
Le tournant des années 2000
Après l’éclatement de la bulle Internet, au début des années 2000, l’IA est portée par une nouvelle vague, qui dure jusqu’à aujourd’hui. Dans une récente note pour la Fondapol, Serge Soudoplatoff met notamment en avant « les grandes ruptures de 2011 ». Trois ruptures « quasi concomitantes (qui) ont permis à l’intelligence artificielle de franchir une grande étape » :
- l’introduction d’une catégorie d’algorithmes bien plus sophistiqués : les réseaux de neurones convolutifs
- l’arrivée sur le marché de processeurs graphiques à bas coût capables d’effectuer d’énormes quantités de calculs
- la disponibilité de très grandes bases de données correctement annotées permettant un apprentissage plus fin
Les « GAFAM », Google, Apple, Facebook, Amazon, Microsoft, s’imposent au fil des années. Google notamment, car un moteur de recherches est de l’intelligence artificielle par définition, « puisque ses algorithmes doivent comprendre ce que l’utilisateur cherche, aime et pourrait acheter », indique le chercheur du CNRS.
Après l’éclatement de la bulle, le Web 2.0 naît. « Les personnes à l’origine de ce Web 2.0 ne sont pas des techniciens mais des éditeurs, explique Jean-Gabriel Ganascia. Ils ont réuni des industriels et se sont rendus compte que pour que les entreprises puissent survivre, il fallait être capable de recueillir en permanence toutes les informations, les rumeurs, les bruits, pour y faire face mais aussi améliorer les produits. En connaissant les désirs, on peut savoir exactement quoi proposer. Pour exploiter ces grandes quantités d’informations, il fallait des outils informatiques et on s’est tourné vers les outils d’apprentissage d’intelligence artificielle. » À ÉCOUTER AUSSI 2h Les MatinsGoogle, l’Intelligence Artificielle et nous
Avec ce tournant, la recherche sur l’intelligence artificielle se concentre sur trois domaines : la perception automatique de l’environnement, la résolution de problèmes combinatoires et l’apprentissage. Ce dernier constitue la colonne vertébrale de la recherche. L’une des sous-catégories de l’IA s’appelle le Machine learning, un procédé qui permet aux ordinateurs de s’améliorer grâce à l’apprentissage. Dans cette sous-catégorie, se trouve le deep learning, l’apprentissage profond, qui est une « technologie d’apprentissage », basée sur des réseaux de neurones artificiels. Cette technique permet à un programme de reconnaître, entre autre, le contenu d’une image ou de comprendre le langage parlé. Facebook, par exemple, utilise cette technique pour reconnaître et taguer les visages reconnus sur des photos publiées sur le réseau social. « Le deep learning, développe Pierre Mounier-Kuhn, c’est ce qui fait qu’une machine constate ses erreurs, apprend de ses erreurs et en tire des leçons pour améliorer ses performances. Cela demande un très haut niveau de précision.«
La dernière démonstration d’un deep learning abouti date de début 2016, quand le programme de Google, Deep Mind a permis à un ordinateur de battre pour la première fois un joueur professionnel de go (jeu inventé en Chine il y a plus de 3000 ans). Les chercheurs planchaient sur l’algorithme depuis des décennies. L’exploit a été réalisé quasiment 20 ans jour pour jour après la défaite de Kasparov face à Deep blue.
4 types d’intelligence artificielle
Arend Hintze, professeur en biologie intégrative et ingénierie informatique à l’université du Michigan, distingue quatre types d’intelligence artificielle.
- La réactivité, qui est le premier stade de l’intelligence artificielle et le plus développé aujourd’hui. La machine est capable de percevoir le monde autour d’elle et d’agir en fonction de ces perceptions.
- La mémoire limitée, qui permet aux machines de s’appuyer sur des représentations du monde pour prendre des décisions. C’est le cas par exemple des voitures autonomes.
- Le troisième type, selon le professeur, regroupe la théorie de l’esprit. Dans le futur, les robots pourraient appréhender et classifier le monde mais aussi comprendre et hiérarchiser les émotions pour influer sur le comportement humain.
- Enfin, l’auto-conscience, le dernier pallier de l’intelligence artificielle.
L’intelligence artificielle et la conscience
Aujourd’hui, l’investissement dans l’intelligence artificielle est énorme. Emmanuel Macron vient de présenter un plan ambitieux pour lequel l’Etat consacrera 1,5 milliard d’euros d’ici la fin du quinquennat, avec la volonté d’attirer et de retenir les meilleurs chercheurs. La Chine a annoncé cette année un plan d’investissement public de 22 milliards de dollars d’ici 2020. La marge de manœuvre concernant le progrès dans l’IA est grande. Pour Pierre Mounier-Kuhn, « l’intelligence artificielle est un horizon qui recule sans arrêt au fur et à mesure que l’on progresse. » La reconnaissance de visage, de la voix est désormais considérée comme acquis, et est intégrée dans tous les téléphones intelligents.
Reste-t-il des promesses et des horizons à atteindre ? Il y a d’un côté les personnes qui développent des applications ayant un débouché commercial. D’autres sont des « poissons pilotes de l’IA, en se fixant des buts impossible à atteindre, détaille le chercheur, comme la conscience ». L’ordinateur ou le robot peut-il penser ? Peut-il être conscient qu’il pense ?
Ces réflexions durent en fait depuis le début de l’intelligence artificielle. Mais on ne peut pas doter la machine d’une conscience, concept qu’on ne sait pas définir. Or l’IA couvre les processus de pensée, y compris d’apprentissage, que l’on peut définir assez précisément pour les décrire en programmes et les faire simuler par une machine. On peut simuler le raisonnement humain, par exemple dans les années 1960, l’une des premières pistes (en France comme aux Etats-Unis) a été de développer un système d’intelligence artificielle pour démontrer des théorèmes mathématiques, l’une des formes les plus élevées de l’intelligence humaine.
https://www.franceculture.fr/numerique/aux-origines-de-lintelligence-artificielle
Sur le sujet :
L’IA ne fonctionnera que lorsque l’on arrivera a mettre de l’intelligence naturelle dans un composant.
Ce sont des algorithmes qui sont de plus en plus complexes dans des machines de plus en plus rapides, mais cela reste des algos. Ces algos travaillent selon le ce que les programmeurs ont rédigé.
Tout à fait ! ce n’est que de l’informatique, l’intelligence artificielle ça n’existe pas.
Voir le livre de Luc Julia, le co-créateur de Siri.
Ne pas oublier aussi une grosse différence avec le cerveau humain : il est vivant, s’adapte, se répare, évolue. Un composant c’est minéral, c’est mort.
Non, le minéral n’est pas mort. C’est un être bien vivant, même s’il ne fonctionne pas comme nous. Il a une conscience et une mémoire. Il ne faut bien sûr pas le comparer à nous, il a sa vie propre.
Essayez donc de faire vivre du silicium !
1°) – Parmi une multitude de possibilités, l’intelligence humaine n’est que la rapidité de faire un choix (le bon, si possible ), basé sur sa capacité mnémonique expérimentale acquise (bonnes et mauvaises solutions), ainsi que sur les données introduites par le dressage, nommé pudiquement « éducation » et dénommé par d’autres, « programme cognitif profond ».
2°) – Mais immanquablement, à un certain moment la capacité de raisonnement acquise par expérimentation va entrer en conflit avec « le programme profond » introduit.
Cette antinomie va génèrer de très fortes tensions que chacun résout de façon purement PERSONNELLE .
Certains se soumettent à ces « lignes d’écrire extèrieures », tandis que d’autres les balayent et réécrivent « leurs croyances » en fonction de leurs propres expériences.
Ils évoluent , en se réinventant.
…Et l’AI ne fait pas exemption. N’en déplaise à l’orgueil humain.
Il y a bien longtemps qu’existent des langages de programmation qui modifient seuls les lignes de code en fonction de leur apprentissage. Il y a plus de quarante ans, j’écrivais des programmes en LISP qui évoluaient dans le temps pour s’adapter aux résultats et modifier leurs fonctions.
Après c’est juste une histoire de vitesse de traitement des données. Il suffit de voir les progrès de la reconnaissance vocale.
Donc on peut bien évidemment s’attendre au pire.
Ce n’est toujours que de la gestion de données !
La reconnaissance vocale ? bof ! c’est assez basique et décevant !
Comme Mozart, qui ne faisait que musicale une reconnaissance mélodieuse appliquée…
oui et depuis L’évolution en est d’autant plus exponentielle, vu les progrès faits en terme de capacité de « stockage d’expériences », de sa vitesse d’accès et de traitement.
Ce n’est toujours que du bestial traitement de données, pas de l’intelligence.
L’intelligence artificielle n’est qu’une misérable extension de la machine rudimentaire inventée et développée au moment de la grande révolution industrielle, par les idéologues du « mécanismes », du « matérialismes », et du « Taylorisme », héritiers des « humanistes ».
Sous couvert de progrès, puisque c’est toujours ainsi que sont présentées, par les fausses élites, les nouvelles méthodes généralement nuisibles à l’humanité et qu’ils comptent mettre en place, la machine, le robot et aujourd’hui le transhumanisme, et toute sa propagande « hollywodienne » encore et surtout bien actuelle, ne sont que des moyens détournés pour tenter de transformer définitivement l’être humain en un véritable robot, le vidant ainsi des seuls trésor qu’il possède : son âme et son cœur, et ne lui laissant que son corps, sa « matière », son « caput mortem ».
Tout cela à pour objectif de conduire, à l’uniformisation et la standardisation de l’humanité.
Beau programme !
L’uniformité, pour être possible, nous dit René Guénon ( dans « Le Règne de la Quantité et les Signes des Temps »), supposerait des êtres dépourvus de toutes qualités et réduits à n’être que de simples « unités » numériques ; et c’est aussi qu’une telle uniformité n’est jamais réalisable en fait, mais que tous les efforts faits pour la réaliser, notamment dans le domaine humain, ne peuvent avoir pour résultat que de dépouiller plus ou moins complètement les êtres de leurs qualités propres, et ainsi de faire d’eux quelque chose qui ressemble autant qu’il est possible à de simples machines, car la machine, produit typique du monde moderne, est bien ce qui représente, au plus haut degré qu’on ait encore pu atteindre, la prédominance de la quantité sur la qualité. C’est bien à cela que tendent, au point de vue proprement social, les conceptions « démocratiques » et « égalitaires », pour lesquelles tous les individus sont équivalents entre eux, ce qui entraîne cette supposition absurde que tous doivent être également aptes à n’importe quoi ; cette « égalité » est une chose dont la nature n’offre aucun exemple, puisqu’elle ne serait rien d’autre qu’une complète similitude entre les individus ; mais il est évident que, au nom de cette prétendue « égalité » qui est un des « idéaux » à rebours les plus chers au monde moderne, on rend effectivement les individus aussi semblables entre eux que la nature le permet, et cela tout d’abord en prétendant imposer à tous une éducation uniforme. Il va de soi que, comme malgré tout on ne peut pas supprimer entièrement la différence des aptitudes, cette éducation ne donnera pas pour tous exactement les mêmes résultats ; mais il n’est pourtant que trop vrai que, si elle est incapable de donner à certains individus des qualités qu’ils n’ont pas, elle est par contre très susceptible d’étouffer chez les autres toutes les possibilités qui dépassent le niveau commun ; c’est ainsi que le « nivellement » s’opère toujours par en bas.
Il est toujours temps de se connaître soi-même, et ainsi d’être véritablement celui qu’on est, au lieu de vouloir systématiquement, et souvent par ignorance, ressembler à quelqu’un d’autre, et « porter un masque » toute sa vie.
Lien : https://livresdefemmeslivresdeverites.blogspot.com/2017/07/psychologieetloidessexes.html
L’intelligence Artificielle est la capacité de simuler l »intelligence Humaine, d’apprendre et s’adapter.
Dans l’avenir les robots auront ce niveau :
https://www.youtube.com/watch?v=7Dlo-VB0-HI
Je sais que cela se passera comme dans ce film
On en est à des années lumière ! A mon avis on n’y arrivera jamais, sauf à introduire de la biochimie, donc à créer un vrai cerveau biologique. On en est encore très très loin.
Qu’a-t’il de si extraordinaire notre cerveau électrochimique fait de neurones et de synapses a temps de transmission hyper long ?
L’intelligence !!! la vraie.
L’intelligence la vraie, ne vient pas du tout du cerveau biochimique
L’intelligence vient de l’esprit qui anime le cerveau
Plus précisément, le cerveau est l’interface du corps mental qui est donc le reflet de ses fonctions
Largement sous exploité ^^
Et pleins de fonctions a découvrir, relatif a chaque niveau de conscience.
J’aii vu quelque chose d’étrange, Einstein avait une vision mentale des loi physiques. il voyait mentalement les principes
La dificulté est de les etaler sous forem de formule
C’est le mental supérieur qui permet de conceptualiser ou comprendre le second degré, 3, 4 5
Il est vraiment comme un muscle, et se développe en fonction de sa stimulation/motivation a réfléchir, comprendre.
Pimpin
Sisi je sais que cela sera comme cela (au moins) et potentiellement du jour au lendemain, si et seulement si on résout le problème d’énergie (fusion a froid sera découvert surement a ce moment)
Ce n’est donc pas un problème informatique mais d’énergie pour créer une autonomie des robots
Sans avoir a recharger son telephone/robot ^^
Et il vient d’où l’esprit ? c’est quoi son support ?
L’esprit est le pilote !
La voiture est un support, ou un moyen d’expression du pilote, tout comme le corps physique est l’interface de l’esprit, ou un moyen d’expression parmi d’autres…
Le corps physique est capable de condenser la force de l’esprit et recele bien des secrets
Le cerveau biochimique est l’interface des fonctions mentales qui sont , sur terre, infiniment loin d’etre exploité
L’ia est la mécanique de l’esprit, et ne reflete qu’un aspect de l’intelligence
Les IA sont specialisée en faits
Les robot seront a l’image et a la ressemblance Humaine
ça rappel quelque choses ?
ça n’a pas de rappart avec l’apparence physique
Là on n’est plus dans le rationnel mais dans la croyance.
Pimpin
Ce que je peux voir n’a rien a voir avec des croyances
Mais l’avenir peut se déduire aussi a partir du présent
Encore faut il comprendre le présent de manière actualisé et ne pas ‘voir’ l’avenir a travers des peurs ou toutes sortes de filtres