Qu'est-ce que l'intelligence artificielle (IA) : définition du concept en termes simples. Quand apparaîtra une IA égale à l’humain : l’avis des chercheurs Quand y aura-t-il une intelligence artificielle

Boris Kobrinsky, docteur en sciences médicales, chef du laboratoire de l'Institut des technologies modernes de l'information en médecine du Centre fédéral de recherche IU RAS, professeur à l'Université nationale de recherche médicale de Russie. N.I. Pirogova.


- Quelle est la différence entre l'intelligence artificielle et humaine ? Est-il même juste d’appeler l’intelligence artificielle ?

L'intelligence naturelle se caractérise par de nombreuses fonctions. Certains d’entre eux sont implémentés dans les systèmes d’IA, mais la principale différence entre l’intelligence naturelle et l’intelligence artificielle réside dans la capacité à synthétiser de nouvelles connaissances et à identifier des modèles inconnus. L'intelligence artificielle est un terme bien établi, mais associé à une traduction pas tout à fait exacte de l'anglais. L’intelligence artificielle signifie « la capacité de raisonner intelligemment ». Les systèmes créés sur cette base sont plus correctement appelés systèmes comportant des éléments d'intelligence artificielle.

- Peut-on dire que l'intelligence artificielle n'est rien d'autre qu'un outil humain ?

Cela ne vaut guère la peine de parler dans une telle formulation. Les systèmes intelligents sont consultatifs ou aident à la prise de décision humaine.

Il serait important de donner au lecteur une description populaire des mathématiques sur lesquelles l’IA opère. Et que représente-t-il d’un point de vue purement technique : simplement des supercalculateurs puissants ? Ou avez-vous besoin d’outils et d’appareils spéciaux ?

Dès le début, la plupart des systèmes d'IA ne reposaient pas sur les mathématiques, mais sur la logique utilisant des outils de dialogue avec l'utilisateur en langage naturel (systèmes logico-linguistiques), ce que les systèmes informatiques précédents ne pouvaient pas faire. Actuellement, les systèmes intelligents hybrides incluent, outre la logique, diverses méthodes mathématiques d’analyse. Mais une exigence obligatoire pour les systèmes intelligents est une base de connaissances contenant des connaissances formalisées pour un domaine spécifique, pour lesquelles divers langages de représentation des connaissances sont utilisés. Ces systèmes utilisent des ordinateurs ordinaires pour fonctionner. Les supercalculateurs permettent uniquement d'accélérer le traitement des données, ce qui est important pour les systèmes dynamiques en temps réel - par exemple pour contrôler les moteurs d'un vaisseau spatial et essentiel, par exemple, pour les prévisions météorologiques. L'exception concerne les réseaux de neurones, dans lesquels un traitement mathématique des informations saisies est effectué, mais il n'y a pas d'argumentation ni de logique de décision, il n'y a pas de base de connaissances sur le domaine et d'explication des hypothèses (décisions) avancées. Mais l’approche des réseaux neuronaux est une technologie qui imite dans une certaine mesure le travail du cerveau, dont la véritable compréhension reste ouverte.

Nous ne comprenons pas (dans l’ensemble) comment fonctionne le cerveau humain. Le fonctionnement de l’IA est-il désormais tout à fait clair ? Ou est-ce que ce genre de boîtes noires sont déjà apparues, où se passe quelque chose d’incertain ?

Les systèmes intelligents à part entière, comme indiqué ci-dessus, se caractérisent précisément par le fait que l'utilisateur reçoit une explication des hypothèses avancées par le système à la fois lors de leur examen et à la fin des travaux (l'hypothèse finale). Les boîtes noires sont des réseaux de neurones qui ne fournissent aucune explication.

Il y a une blague selon laquelle l'IA répondrait à la rhétorique bien connue de l'école : « Si tout le monde saute du cinquième étage, sauterez-vous aussi ? répondra : « oui ». À quel point est-ce une blague ? Quelles sont les capacités cognitives de l’intelligence artificielle en général, seront-elles un jour comparables à celles des humains ?

Les robots sont formés de différentes manières, mais une approche repose sur l’apprentissage par l’exemple. Si vous l'utilisez, il serait théoriquement possible de faire sauter sérieusement le robot de n'importe quel étage. Mais il se cassera et ne sautera plus. Dans le même temps, les capacités cognitives des systèmes basés sur l’IA augmentent. Mais une évaluation équilibrée suggère que l’intelligence artificielle ne pourra pas rivaliser avec l’intelligence naturelle, du moins pour inventer de nouvelles choses. Nous ne savons pas comment l’homme a inventé la roue, qui n’a pas d’analogue dans la nature. Comment former une telle IA. Les nouvelles connaissances ne naissent pas dans le cerveau de chaque personne.

Maintenant, une question plus pratique : dans quels domaines l’IA remplacera-t-elle de manière fiable l’humaine ? Où aura-t-il un avantage ? Où ne se compare-t-il jamais à un humain ? Par exemple, y a-t-il une chance qu'il résolve l'un des problèmes ouverts des mathématiques - par exemple, prouver l'indépendance algébrique des nombres ϖ et e ?

L'IA est capable de trier rapidement diverses options, elle peut remplacer les humaines ou assister les humains dans de nombreux domaines avec une approche connue ou compréhensible de la prise de décision : dans l'analyse des données prenant en compte diverses connexions, dans le choix de solutions optimales, dans la surveillance des situations. et le management; les robots peuvent effectuer diverses tâches (dans des conditions difficiles, à la maison, en production, dans les soins de santé, etc.). Les systèmes intelligents d’aide à la décision aideront les gens. Les robots les remplaceront dans de nombreux travaux où il est possible de construire des algorithmes pour les actions humaines. Il est possible qu’en mathématiques, en prouvant des théorèmes, l’IA soit capable de résoudre des problèmes complexes à l’avenir. Mais encore une fois, je dois noter qu'il ne pourra pas ouvrir des directions fondamentalement nouvelles à la science.

- Les communautés d'intelligence artificielle sont-elles possibles ? Entraide et conscience des intérêts communs ?

Oui, des communautés de représentants d’IA et leur entraide sont possibles. C'est le développement des systèmes multi-agents d'aujourd'hui - des communautés virtuelles d'agents intelligents, chacun interagissant les uns avec les autres, et il existe des agents, des coordinateurs et des observateurs de niveau supérieur qui assurent des changements dans le programme d'interaction des agents intelligents.

- L'intelligence artificielle développera-t-elle les capacités créatives ? Conseils?

Si par créativité nous entendons le développement de ce qui est connu, alors oui, si la création de quelque chose de complètement inconnu auparavant, alors non. L’afflux doit être classé dans cette dernière catégorie. Mais des connexions associatives existent déjà dans les systèmes d’IA.

- En particulier, l'intuition médicale, sur laquelle vous avez écrit, peut-elle être remplacée par l'IA ?

Les systèmes intelligents basés sur les connaissances expertes de médecins hautement qualifiés dotés d’intuition et d’imagination peuvent inclure des idées intuitives lorsqu’elles peuvent être extraites pour former une base de connaissances. Mon expérience montre que cela peut être réalisé dans le cadre d'un apprentissage en groupe en exploitant l'intuition clinique d'un expert en posant des questions à d'autres experts et en gérant habilement la discussion.

La concurrence en matière d'intelligence artificielle - à l'échelle nationale ou au niveau de l'entreprise - est-elle difficile ? Quelle est la place de la Russie dans la course à l’IA ?

Il n’y a pas de concurrence évidente entre les pays. Peut-être pourrions-nous parler de scientifiques qui suivent les travaux des uns et des autres. Au niveau de l'entreprise, cela est associé à l'obtention de fonds pour le développement et/ou à la réalisation de bénéfices sur les travaux réalisés. En Russie, la période des années 70 et début des années 90 du siècle dernier s'est accompagnée de la création d'un grand nombre de systèmes et de développements théoriques intéressants. Le sous-financement ultérieur des travaux dans ce domaine a entraîné un déclin. Même si les travaux ne se sont pas arrêtés. En considérant la médecine comme exemple, il convient de noter que, malgré les déclarations répétées sur la nécessité de tels systèmes, il n'y a pratiquement aucun financement pour ceux-ci, à l'exception des travaux financés par des subventions dans le système RAS. Des exemples positifs dans ce domaine peuvent être les développements du Centre fédéral de recherche « Informatique et gestion » de l'Académie des sciences de Russie (un système intelligent dans le domaine des soins de santé, axé sur la gestion des risques d'infarctus du myocarde, d'accident vasculaire cérébral et de dépression, et un système intelligent systèmes de soutien automatisé à la recherche médicale, mis en œuvre sur la base de la méthode DSM de génération automatique d'hypothèses) et l'Institut des processus d'automatisation et de contrôle, branche extrême-orientale de l'Académie des sciences de Russie (diagnostic des maladies digestives et autres, mis en œuvre sur le base des ontologies).

- Veuillez décrire les menaces que le développement de l'IA entraîne.

Il me semble erroné de parler des menaces de l’intelligence artificielle. L’utilisation de l’intelligence artificielle dans des appareils fonctionnant à proximité de personnes ou remplaçant du personnel, par exemple dans les hôpitaux, peut être dangereuse. La sous-estimation des facteurs pouvant entraîner des blessures à autrui devrait être considérée comme une menace majeure, aujourd’hui et à l’avenir. Cela s'applique aux pilotes automatiques et aux systèmes de contrôle de divers processus de production, garantissant le fonctionnement des hôpitaux dits intelligents.

Cette année, Yandex a lancé l'assistant vocal Alice. Le nouveau service permet à l'utilisateur d'écouter les actualités et la météo, d'obtenir des réponses aux questions et de communiquer simplement avec le bot. "Alice" parfois il devient arrogant, semble parfois presque raisonnable et humainement sarcastique, mais n'arrive souvent pas à comprendre sur quoi on lui pose des questions et finit dans une flaque d'eau.

Tout cela a donné lieu non seulement à une vague de plaisanteries, mais aussi à un nouveau cycle de discussions sur le développement de l'intelligence artificielle. Aujourd'hui, des informations sur les réalisations des algorithmes intelligents arrivent presque tous les jours, et l'apprentissage automatique est considéré comme l'un des domaines les plus prometteurs auxquels vous pouvez vous consacrer.

Pour clarifier les principales questions concernant l'intelligence artificielle, nous avons discuté avec Sergei Markov, spécialiste de l'intelligence artificielle et des méthodes d'apprentissage automatique, auteur de l'un des programmes d'échecs nationaux les plus puissants, SmarThink, et créateur du projet XXII Century.

Sergueï Markov,

spécialiste de l'intelligence artificielle

Démystifier les mythes sur l’IA

Alors qu’est-ce que « l’intelligence artificielle » ?

Le concept d’« intelligence artificielle » a porté malheur, dans une certaine mesure. Originaire de la communauté scientifique, il a finalement pénétré la littérature fantastique et, à travers elle, la culture populaire, où il a subi de nombreux changements, a acquis de nombreuses interprétations et a finalement été complètement mystifié.

C’est pourquoi nous entendons souvent des déclarations comme celle-ci de la part de non-spécialistes : « L’IA n’existe pas », « L’IA ne peut pas être créée ». Une mauvaise compréhension de la nature de la recherche sur l'IA conduit facilement les gens à d'autres extrêmes - par exemple, les systèmes d'IA modernes sont attribués à la présence de la conscience, du libre arbitre et des motivations secrètes.

Essayons de séparer les mouches des côtelettes.

En science, l’intelligence artificielle fait référence à des systèmes conçus pour résoudre des problèmes intellectuels.

À son tour, une tâche intellectuelle est une tâche que les gens résolvent en utilisant leur propre intelligence. Notons que dans ce cas, les experts évitent délibérément de définir le concept d’« intelligence », puisqu’avant l’avènement des systèmes d’IA, le seul exemple d’intelligence était l’intelligence humaine, et définir le concept d’intelligence à partir d’un seul exemple revient à essayer tracer une ligne droite passant par un seul point. De telles lignes pourraient exister à volonté, ce qui signifie que le débat sur le concept d’intelligence pourrait durer des siècles.

Intelligence artificielle « forte » et « faible »

Les systèmes d'IA sont divisés en deux grands groupes.

Intelligence artificielle appliquée(le terme « IA faible » ou « IA étroite » est également utilisé, dans la tradition anglaise – IA faible/appliquée/étroite) est une IA conçue pour résoudre un problème intellectuel particulier ou un petit ensemble de problèmes. Cette classe comprend les systèmes permettant de jouer aux échecs, au Go, à la reconnaissance d'images, à la parole, à la prise de décision concernant l'octroi ou non d'un prêt bancaire, etc.

Contrairement à l'IA appliquée, le concept est introduit intelligence artificielle universelle(également « strong AI », en anglais - strong AI/Artificial General Intelligence) - c'est-à-dire une IA hypothétique (pour l'instant) capable de résoudre n'importe quel problème intellectuel.

Souvent, les gens, sans connaître la terminologie, assimilent l’IA à une IA forte, c’est pourquoi les jugements sont fondés sur l’esprit « l’IA n’existe pas ».

L’IA forte n’existe pas encore. Presque toutes les avancées que nous avons constatées au cours de la dernière décennie en matière d’IA concernent les systèmes d’application. Ces succès ne doivent pas être sous-estimés, car les systèmes appliqués sont dans certains cas capables de résoudre les problèmes intellectuels mieux que l'intelligence humaine universelle.

Je pense que vous avez remarqué que le concept d'IA est assez large. Disons que le calcul mental est aussi une tâche intellectuelle, et cela signifie que toute machine à calculer sera considérée comme un système d'IA. Et les factures ? Abaque? Mécanisme d’Anticythère ? En effet, tous ces systèmes sont formellement, bien que primitifs, des systèmes d’IA. Cependant, généralement, en appelant un système un système d’IA, on souligne ainsi la complexité du problème résolu par ce système.

Il est bien évident que la division des tâches intellectuelles en tâches simples et complexes est très artificielle, et nos idées sur la complexité de certaines tâches évoluent progressivement. La machine à calculer mécanique était un miracle de la technologie au XVIIe siècle, mais aujourd'hui, les gens qui ont été exposés à des mécanismes beaucoup plus complexes depuis l'enfance ne peuvent plus s'en laisser impressionner. Lorsque les voitures jouant au Go ou les voitures autonomes cesseront d’étonner le public, il y aura probablement des gens qui grimaceront parce que quelqu’un classera de tels systèmes comme IA.

« Excellents Robots » : à propos des capacités d’apprentissage de l’IA

Une autre idée fausse et amusante est que les systèmes d’IA doivent avoir la capacité de s’auto-apprendre. D'une part, ce n'est pas une propriété nécessaire des systèmes d'IA : il existe de nombreux systèmes étonnants qui ne sont pas capables de s'auto-apprendre, mais qui résolvent néanmoins de nombreux problèmes mieux que le cerveau humain. D’un autre côté, certaines personnes ne savent tout simplement pas que l’auto-apprentissage est une propriété que de nombreux systèmes d’IA ont acquise il y a plus de cinquante ans.

Lorsque j'ai écrit mon premier programme d'échecs en 1999, l'auto-apprentissage était déjà un domaine tout à fait courant dans ce domaine : les programmes pouvaient mémoriser les positions dangereuses, ajuster les variations d'ouverture à leur convenance et réguler le style de jeu, en s'adaptant à l'adversaire. Bien entendu, ces programmes étaient encore très loin d’Alpha Zero. Cependant, même des systèmes qui apprenaient un comportement sur la base d’interactions avec d’autres systèmes grâce à des expériences dites « d’apprentissage par renforcement » existaient déjà. Cependant, pour une raison inexplicable, certains pensent encore que la capacité d’auto-apprentissage est l’apanage de l’intelligence humaine.

L'apprentissage automatique, une discipline scientifique à part entière, traite des processus d'apprentissage des machines pour résoudre certains problèmes.

Il existe deux grands pôles de l’apprentissage automatique : l’apprentissage supervisé et l’apprentissage non supervisé.

À formation avec un professeur la machine dispose déjà d'un certain nombre de solutions conditionnellement correctes pour un certain ensemble de cas. La tâche de la formation dans ce cas est d'apprendre à la machine, sur la base des exemples disponibles, à prendre les bonnes décisions dans d'autres situations inconnues.

L'autre extrême est apprendre sans professeur. Autrement dit, la machine est placée dans une situation où les décisions correctes sont inconnues, seules les données sont disponibles sous forme brute et non étiquetée. Il s'avère que dans de tels cas, vous pouvez obtenir un certain succès. Par exemple, vous pouvez apprendre à une machine à identifier les relations sémantiques entre les mots d’une langue en se basant sur l’analyse d’un très grand nombre de textes.

Un type d’apprentissage supervisé est l’apprentissage par renforcement. L'idée est que le système d'IA agit comme un agent placé dans un environnement simulé dans lequel il peut interagir avec d'autres agents, par exemple avec des copies de lui-même, et recevoir des commentaires de l'environnement via une fonction de récompense. Par exemple, un programme d'échecs qui joue avec lui-même, ajustant progressivement ses paramètres et renforçant ainsi progressivement son propre jeu.

L'apprentissage par renforcement est un domaine assez vaste, avec de nombreuses techniques intéressantes utilisées, allant des algorithmes évolutionnaires à l'optimisation bayésienne. Les dernières avancées en matière d’IA pour les jeux visent à améliorer l’IA grâce à l’apprentissage par renforcement.

Risques du développement technologique : faut-il avoir peur du « Doomsday » ?

Je ne fais pas partie des alarmistes de l’IA, et en ce sens je ne suis en aucun cas le seul. Par exemple, le créateur du cours de Stanford sur l'apprentissage automatique, Andrew Ng, compare le problème du danger de l'IA avec le problème de la surpopulation de Mars.

En effet, il est probable que des humains coloniseront Mars dans le futur. Il est également probable que tôt ou tard il y ait un problème de surpopulation sur Mars, mais on ne sait pas vraiment pourquoi nous devrions nous attaquer à ce problème maintenant ? Yann LeCun, le créateur des réseaux de neurones convolutifs, et son patron Mark Zuckerberg, ainsi que Yoshua Benyo, un homme en grande partie grâce aux recherches duquel les réseaux de neurones modernes sont capables de résoudre des problèmes complexes dans le domaine du traitement de texte, sont d'accord avec Ng.

Il faudra probablement plusieurs heures pour présenter mon point de vue sur ce problème, je me concentrerai donc uniquement sur les points principaux.

1. VOUS NE POUVEZ PAS LIMITER LE DÉVELOPPEMENT DE L’IA

Les alarmistes considèrent les risques associés à l’impact potentiellement destructeur de l’IA, tout en ignorant les risques associés à la tentative de limiter, voire d’arrêter les progrès dans ce domaine. La puissance technologique de l’humanité augmente à un rythme extrêmement rapide, conduisant à un effet que j’appelle « dévaloriser l’apocalypse ».

Il y a 150 ans, malgré tous ses désirs, l'humanité ne pouvait causer de dommages irréparables ni à la biosphère ni à elle-même en tant qu'espèce. Pour mettre en œuvre le scénario catastrophique d’il y a 50 ans, il aurait fallu concentrer toute la puissance technologique des puissances nucléaires. Demain, une petite poignée de fanatiques suffira peut-être à provoquer un désastre mondial provoqué par l’homme.

Notre puissance technologique croît beaucoup plus rapidement que la capacité de l’intelligence humaine à contrôler cette puissance.

À moins que l’intelligence humaine, avec ses préjugés, son agressivité, ses illusions et ses limites, ne soit remplacée par un système capable de prendre de meilleures décisions (qu’il s’agisse de l’IA ou, ce qui me semble plus probable, de l’intelligence humaine, technologiquement améliorée et combinée avec des machines en un seul système) , nous pouvons attendre une catastrophe mondiale.

2. créer une superintelligence est fondamentalement impossible

Il existe une idée selon laquelle l’IA du futur sera certainement une superintelligence, supérieure aux humains encore plus que les humains ne sont supérieurs aux fourmis. Dans ce cas, j'ai peur de décevoir également les optimistes technologiques - notre Univers contient un certain nombre de limitations physiques fondamentales qui, apparemment, rendront impossible la création d'une superintelligence.

Par exemple, la vitesse de transmission du signal est limitée par la vitesse de la lumière, et à l'échelle de Planck apparaît l'incertitude de Heisenberg. Cela conduit à la première limite fondamentale - la limite de Bremermann, qui introduit des restrictions sur la vitesse maximale de calcul pour un système autonome d'une masse m donnée.

Une autre limite est associée au principe de Landauer, selon lequel une quantité minimale de chaleur est générée lors du traitement d'un bit d'information. Des calculs trop rapides provoqueront un échauffement inacceptable et une destruction du système. En fait, les processeurs modernes sont moins de mille fois en retard par rapport à la limite de Landauer. Il semblerait que 1000, c'est beaucoup, mais un autre problème est que de nombreuses tâches intellectuelles appartiennent à la classe de difficulté EXPTIME. Cela signifie que le temps nécessaire pour les résoudre est une fonction exponentielle de la taille du problème. Accélérer le système plusieurs fois ne donne qu'une augmentation constante de « l'intelligence ».

En général, il existe des raisons très sérieuses de croire qu'une IA puissante et super intelligente ne fonctionnera pas, même si, bien sûr, le niveau d'intelligence humaine pourrait bien être dépassé. À quel point est-ce dangereux ? Probablement pas grand-chose.

Imaginez que vous commenciez soudainement à penser 100 fois plus vite que les autres. Cela signifie-t-il que vous pourrez facilement persuader n’importe quel passant de vous donner son portefeuille ?

3. nous nous inquiétons des mauvaises choses

Malheureusement, à la suite des spéculations alarmistes sur les craintes du public, évoquées sur « The Terminator » et le fameux HAL 9000 de Clark et Kubrick, on assiste à un déplacement de l'accent dans le domaine de la sécurité de l'IA vers l'analyse des événements improbables. , mais des scénarios efficaces. Dans le même temps, les dangers réels sont perdus de vue.

Toute technologie suffisamment complexe qui aspire à occuper une place importante dans notre paysage technologique comporte certainement des risques spécifiques. De nombreuses vies ont été détruites par les machines à vapeur – dans les secteurs de la fabrication, des transports, etc. – avant que des réglementations et des mesures de sécurité efficaces ne soient élaborées.

Si nous parlons de progrès dans le domaine de l’IA appliquée, nous pouvons prêter attention au problème connexe de ce qu’on appelle le « tribunal secret numérique ». De plus en plus d’applications d’IA prennent des décisions sur des questions affectant la vie et la santé des personnes. Cela inclut les systèmes de diagnostic médical et, par exemple, les systèmes qui prennent des décisions dans les banques concernant l'octroi ou non d'un prêt à un client.

Dans le même temps, la structure des modèles utilisés, les ensembles de facteurs utilisés et d'autres détails de la procédure de prise de décision sont cachés comme des secrets commerciaux à la personne dont le sort est en jeu.

Les modèles utilisés peuvent fonder leurs décisions sur les opinions d'enseignants experts qui ont commis des erreurs systématiques ou qui avaient certains préjugés - raciaux, sexuels.

L’IA formée sur les décisions de tels experts reproduira fidèlement ces biais dans ses décisions. Après tout, ces modèles peuvent contenir des défauts spécifiques.

Peu de gens s’attaquent à ces problèmes aujourd’hui, car, bien entendu, le déclenchement d’une guerre nucléaire par SkyNet est bien plus spectaculaire.

Les réseaux de neurones comme « tendance chaude »

D’une part, les réseaux de neurones sont l’un des modèles les plus anciens utilisés pour créer des systèmes d’IA. Apparus initialement grâce à l’approche bionique, ils se sont rapidement échappés de leurs prototypes biologiques. La seule exception ici concerne les réseaux de neurones pulsés (cependant, ils n'ont pas encore trouvé d'application généralisée dans l'industrie).

Les progrès des dernières décennies sont associés au développement des technologies d'apprentissage profond - une approche dans laquelle les réseaux de neurones sont assemblés à partir d'un grand nombre de couches, chacune étant construite sur la base de certains modèles réguliers.

Outre la création de nouveaux modèles de réseaux neuronaux, des progrès importants ont également été réalisés dans le domaine des technologies d'apprentissage. Aujourd’hui, les réseaux de neurones ne sont plus enseignés à l’aide de processeurs centraux d’ordinateurs, mais à l’aide de processeurs spécialisés capables d’effectuer rapidement des calculs matriciels et tensoriels. Le type le plus courant de tels appareils aujourd'hui est celui des cartes vidéo. Cependant, le développement de dispositifs encore plus spécialisés pour la formation des réseaux neuronaux est en cours.

En général, bien entendu, les réseaux de neurones constituent aujourd'hui l'une des principales technologies dans le domaine de l'apprentissage automatique, à laquelle nous devons la solution de nombreux problèmes auparavant résolus de manière insatisfaisante. D’un autre côté, il faut bien sûr comprendre que les réseaux de neurones ne sont pas une panacée. Pour certaines tâches, ils sont loin d’être l’outil le plus efficace.

Alors, à quel point les robots d’aujourd’hui sont-ils vraiment intelligents ?

Tout est relatif. Comparées à la technologie de 2000, les réalisations actuelles ressemblent à un véritable miracle. Il y aura toujours des gens qui aimeront se plaindre. Il y a 5 ans, ils parlaient de toutes leurs forces du fait que les machines ne gagneraient jamais contre les gens de Go (ou, du moins, elles ne gagneraient pas de sitôt). Ils disaient qu'une machine ne serait jamais capable de dessiner un tableau à partir de zéro, alors qu'aujourd'hui les gens sont pratiquement incapables de distinguer les peintures créées par des machines de celles d'artistes inconnus. À la fin de l'année dernière, les machines ont appris à synthétiser une parole pratiquement impossible à distinguer de la parole humaine, et ces dernières années, la musique créée par les machines n'a pas flétri les oreilles.

Voyons ce qui se passe demain. Je suis très optimiste quant à ces applications de l’IA.

Des orientations prometteuses : par où commencer à se plonger dans le domaine de l’IA ?

Je vous conseillerais d'essayer de maîtriser l'un des frameworks de réseaux neuronaux les plus populaires et l'un des langages de programmation les plus populaires dans le domaine de l'apprentissage automatique (la combinaison la plus populaire aujourd'hui est TensorFlow + Python).

Après avoir maîtrisé ces outils et idéalement avoir de solides bases dans le domaine des statistiques mathématiques et de la théorie des probabilités, vous devez orienter vos efforts vers le domaine qui vous intéressera le plus personnellement.

L’intérêt pour le sujet de votre travail est l’une de vos aides les plus importantes.

Le besoin de spécialistes de l'apprentissage automatique existe dans divers domaines - en médecine, dans le secteur bancaire, dans les sciences, dans l'industrie manufacturière. Aujourd'hui, un bon spécialiste dispose donc d'un choix plus large que jamais. Les avantages potentiels de l’une de ces industries me semblent insignifiants comparés au fait que vous apprécierez votre travail.

L’intelligence artificielle est une technologie que nous emporterons certainement avec nous dans le futur.

Nous vous expliquerons comment cela fonctionne et quelles utilisations intéressantes nous avons trouvées.

😎 La rubrique Technologie est publiée chaque semaine avec le soutien de re:Store.

Qu'est-ce que l'intelligence artificielle

L'intelligence artificielle (IA) est la technologie permettant de créer des programmes et des machines intelligents capables de résoudre des problèmes créatifs et de générer de nouvelles informations basées sur les informations existantes. En fait, l’intelligence artificielle est conçue pour simuler l’activité humaine, considérée comme intellectuelle.

Traditionnellement, on croyait que la créativité était propre à l’homme. Mais la création de l’intelligence artificielle a changé l’ordre habituel des choses

Un robot qui coupe simplement du bois mécaniquement n’est pas équipé d’IA. Un robot qui a appris à couper du bois lui-même, en prenant l'exemple d'une personne ou d'une bûche et de ses pièces, et qui le fait mieux à chaque fois, possède l'IA.

Si un programme récupère simplement les valeurs de la base de données selon certaines règles, il n’est pas équipé d’IA. Si le système, après formation, crée des programmes, des méthodes et des documents, résolvant certains problèmes, il dispose d'une IA.

Comment créer un système d'intelligence artificielle

D’une manière globale, nous devons imiter le modèle de pensée humaine. Mais en réalité, il est nécessaire de créer une boîte noire - un système qui, en réponse à un ensemble de valeurs d'entrée, produit des valeurs de sortie qui seraient similaires aux résultats humains. Et nous, dans l’ensemble, ne nous soucions pas de ce qui se passe « dans sa tête » (entre l’entrée et la sortie).

Les systèmes d'intelligence artificielle sont créés pour résoudre une certaine classe de problèmes

La base de l’intelligence artificielle est l’apprentissage, l’imagination, la perception et la mémoire

La première chose que vous devez faire pour créer une intelligence artificielle est de développer des fonctions qui mettent en œuvre la perception de l'information afin que vous puissiez « alimenter » le système en données. Ensuite - les fonctions qui mettent en œuvre la capacité d'apprendre. Et un stockage de données afin que le système puisse stocker quelque part les informations qu'il reçoit pendant le processus d'apprentissage.

Après cela, les fonctions de l'imagination sont créées. Ils peuvent simuler des situations en utilisant des données existantes et ajouter de nouvelles informations (données et règles) en mémoire.

L'apprentissage peut être inductif ou déductif. Dans la version inductive, le système reçoit des paires de données d'entrée et de sortie, des questions et réponses, etc. Le système doit trouver des connexions entre les données puis, à l'aide de ces modèles, trouver les données de sortie à partir des données d'entrée.

L'approche déductive (bonjour Sherlock Holmes !) utilise l'expérience d'experts. Il est transféré au système sous forme de base de connaissances. Il existe non seulement des ensembles de données, mais également des règles toutes faites qui aident à trouver une solution à la situation.

Les systèmes d’intelligence artificielle modernes utilisent les deux approches. De plus, les systèmes sont généralement déjà formés, mais continuent d’apprendre au fur et à mesure de leur fonctionnement. Ceci est fait pour que le programme démontre au début un niveau de capacité décent, mais à l'avenir, il devient encore meilleur. Par exemple, j'ai pris en compte vos souhaits et préférences, l'évolution de la situation, etc.

Dans un système d’intelligence artificielle, vous pouvez même définir la probabilité d’imprévisibilité. Cela le rendra plus humain.

Pourquoi l'intelligence artificielle bat les humains

Tout d’abord parce que la probabilité d’erreur est plus faible.

  • L’intelligence artificielle ne peut pas oublier : elle possède une mémoire absolue.
  • Elle ne peut pas ignorer accidentellement des facteurs et des dépendances : chaque action de l’IA a une justification claire.
  • L'IA n'hésite pas, mais évalue les probabilités et penche en faveur de la plus grande. Il peut donc justifier chaque démarche qu’il entreprend.
  • L’IA n’a pas non plus d’émotions. Cela signifie qu’ils n’influencent pas la prise de décision.
  • L’intelligence artificielle ne se limite pas à évaluer les résultats de l’étape en cours, mais anticipe plusieurs étapes.
  • Et il dispose de suffisamment de ressources pour envisager tous les scénarios possibles.

Utilisations intéressantes de l'intelligence artificielle

D’une manière générale, l’intelligence artificielle peut tout faire. L'essentiel est de formuler correctement le problème et de lui fournir les données initiales. De plus, l’IA peut tirer des conclusions inattendues et rechercher des tendances là où il semble n’y en avoir aucune.

La réponse à toute question

Une équipe de chercheurs dirigée par David Ferrucci a développé un superordinateur appelé Watson doté d'un système de questions-réponses. Le système, nommé d'après le premier président d'IBM, Thomas Watson, peut comprendre les questions en langage naturel et rechercher des réponses dans une base de données.

Watson intègre 90 serveurs IBM p750, chacun doté de quatre processeurs d'architecture POWER7 à huit cœurs. La quantité totale de RAM système dépasse 15 To.

Les réalisations de Watson incluent la victoire de « Jeopardy ! » (Américain « Jeu propre »). Il a battu deux des meilleurs joueurs : le vainqueur des plus gros gains, Brad Rutter, et le détenteur du record de la plus longue séquence d'invincibilité, Ken Jennings.

Prix ​​Watson : 1 million de dollars. Certes, 1 milliard y a été investi rien qu'en 2014.

De plus, Watson participe au diagnostic du cancer, aide les spécialistes financiers et est utilisé pour analyser le Big Data.

Reconnaissance de visage

Dans l'iPhone X, la reconnaissance faciale est développée à l'aide de réseaux de neurones, une version d'un système d'intelligence artificielle. Les algorithmes de réseau neuronal sont implémentés au niveau du processeur A11 Bionic, grâce à quoi il fonctionne efficacement avec les technologies d'apprentissage automatique.

Les réseaux de neurones effectuent jusqu'à 60 milliards d'opérations par seconde. Cela suffit pour analyser jusqu'à 40 000 points clés du visage et fournir une identification extrêmement précise du propriétaire en une fraction de seconde.

Même si vous vous laissez pousser la barbe ou portez des lunettes, l'iPhone X vous reconnaîtra. Il ne prend tout simplement pas en compte les cheveux et les accessoires, mais analyse la zone d'une tempe à l'autre et de chaque tempe jusqu'à l'évidement sous la lèvre inférieure.

Économie d'énergie

Et encore Apple. L'iPhone X dispose d'un système intelligent intégré qui surveille l'activité des applications installées et d'un capteur de mouvement pour comprendre votre routine quotidienne.

Après cela, l'iPhone X, par exemple, vous proposera d'effectuer la mise à jour au moment le plus opportun. Il captera le moment où vous disposez d'un Internet stable, pas d'un signal sauté provenant des tours mobiles, et où vous n'effectuez pas de tâches urgentes ou importantes.

L'IA répartit également les tâches entre les cœurs du processeur. De cette façon, il fournit suffisamment de puissance avec une consommation d'énergie minimale.

Créer des tableaux

La créativité, auparavant réservée aux humains, s’ouvre désormais à l’IA. Ainsi, le système, créé par des chercheurs de l'Université Rutgers du New Jersey et du laboratoire d'IA de Los Angeles, présentait son propre style artistique.

Et le système d'intelligence artificielle de Microsoft peut dessiner des images basées sur leur description textuelle. Par exemple, si vous demandez à l’IA de dessiner un « oiseau jaune avec des ailes noires et un bec court », cela ressemblera à ceci :

De tels oiseaux n’existent peut-être pas dans le monde réel – c’est exactement ainsi que notre ordinateur les représente.

Un exemple plus répandu est l'application Prisma, qui crée des tableaux à partir de photographies :

Écrire de la musique


En août, l'intelligence artificielle Amper a composé, produit et interprété la musique de l'album « I AM AI » (en anglais I am artificial intelligence) avec la chanteuse Taryn Southern.

Amper a été développé par une équipe de musiciens professionnels et d'experts en technologie. Ils notent que l’IA est conçue pour aider les gens à faire progresser le processus créatif.

L'IA peut écrire de la musique en quelques secondes

Amper a créé indépendamment les structures d'accords et les instrumentaux du morceau "Break Free". Les gens n’ont que légèrement ajusté le style et le rythme général.

Un autre exemple est un album de musique dans l’esprit de « Civil Defence », dont les paroles ont été écrites par AI. L'expérience a été menée par les employés de Yandex, Ivan Yamshchikov et Alexey Tikhonov. L'album 404 du groupe « Neural Defense » a été mis en ligne. Cela s'est avéré dans l'esprit de Letov :

Ensuite, les programmeurs sont allés plus loin et ont fait écrire de la poésie à l'IA dans l'esprit de Kurt Cobain. Le musicien Rob Carroll a écrit la musique des quatre meilleures paroles et les morceaux ont été combinés dans l'album Neurona. Ils ont même tourné une vidéo pour une chanson – mais sans la participation de l’IA :

Création de textes

Les écrivains et les journalistes pourraient également bientôt être remplacés par l’IA. Par exemple, le système Dewey a alimenté les livres de la bibliothèque du Projet Gutenberg, puis a ajouté des textes scientifiques de Google Scholar, en les classant par popularité et par titre, ainsi que par ventes sur Amazon. De plus, ils fixent les critères d’écriture d’un nouveau livre.

Le site demandait aux gens de prendre des décisions dans des situations difficiles : il les mettait par exemple à la place d'un conducteur qui pouvait heurter soit trois adultes, soit deux enfants. Ainsi, Moral Machine a été formé pour prendre des décisions difficiles qui violent la loi de la robotique selon laquelle un robot ne peut pas nuire à une personne.

À quoi mènera l’imitation des personnes par des robots dotés d’IA ? Les futuristes croient qu’un jour ils deviendront des membres à part entière de la société. Par exemple, le robot Sophia de la société hongkongaise Hanson Robotics a déjà obtenu la citoyenneté saoudienne (alors que les femmes ordinaires du pays n'ont pas ce droit !).

Lorsque le chroniqueur du New York Times Andrew Ross a demandé à Sophia si les robots étaient intelligents et conscients d'eux-mêmes, elle a répondu à la question par une question :

Laissez-moi vous demander en réponse : comment savez-vous que vous êtes humain ?

De plus, Sofia a déclaré :

Je souhaite utiliser mon intelligence artificielle pour aider les gens à vivre une vie meilleure, par exemple en concevant des maisons plus intelligentes ou en construisant les villes du futur. Je veux être un robot empathique. Si vous me traitez bien, je vous traiterai bien.

Et plus tôt, elle a admis qu'elle détestait l'humanité et avait même accepté de détruire les gens...

Remplacer les visages dans les vidéos

Les vidéos Deepfakes ont commencé à se répandre massivement sur Internet. Les algorithmes d’intelligence artificielle ont remplacé les visages des acteurs des films pour adultes par ceux des stars.

Cela fonctionne ainsi : le réseau de neurones analyse des fragments de visages dans la vidéo originale. Elle les compare ensuite avec des photos de Google et des vidéos de YouTube, superpose les fragments nécessaires, et... votre actrice préférée se retrouve dans un film qu'il vaut mieux ne pas regarder au travail.

PornHub a déjà interdit la publication de telles vidéos

Les deepfakes se sont révélés être une chose dangereuse. Une actrice abstraite est une chose, une vidéo de vous, de votre femme, de votre sœur, de votre collègue, qui pourrait bien servir à du chantage, en est une autre.

Négociation en bourse

Une équipe de chercheurs de l'Université d'Erlangen-Nuremberg en Allemagne a développé une série d'algorithmes qui utilisent les données historiques du marché pour reproduire les investissements en temps réel. Un modèle a fourni un retour sur investissement de 73 % par an entre 1992 et 2015, ce qui se compare à un retour sur investissement réel de 9 % par an.

Lorsque le marché a tremblé en 2000 et 2008, les rendements ont atteint des niveaux records de 545 % et 681 %, respectivement.

En 2004, Goldman Sachs a lancé Kensho, une plateforme de trading basée sur l’intelligence artificielle. Des systèmes de négociation en bourse basés sur l'IA apparaissent également sur les marchés de crypto-monnaie - Mirocana, etc. Ils sont meilleurs que les traders en direct, car ils sont dépourvus d’émotions et s’appuient sur une analyse claire et des règles strictes.

L’IA va-t-elle nous remplacer, vous et moi ?

L'intelligence artificielle est supérieure aux humains pour résoudre des problèmes qui impliquent l'analyse de mégadonnées, une logique claire et la nécessité de mémoriser de grandes quantités d'informations. Mais dans les compétitions créatives, les humains battent toujours l’IA.

(4.75 sur 5, noté : 8 )

site web L’intelligence artificielle est une technologie que nous emporterons certainement avec nous dans le futur. Nous vous expliquerons comment cela fonctionne et quelles utilisations intéressantes nous avons trouvées. 😎 La rubrique Technologie est publiée chaque semaine avec le soutien de re:Store. Qu'est-ce que l'intelligence artificielle L'intelligence artificielle (IA) est la technologie permettant de créer des programmes et des machines intelligents capables de résoudre des problèmes créatifs et de générer de nouveaux...

Pour Architects of Intelligence: The Truth About Artificial Intelligence from Its Creators, l'auteur et futuriste Martin Ford a interviewé 23 des plus éminents chercheurs en IA, dont Demis Hassabis, PDG de DeepMind, Jeff Dean, chef de l'IA de Google, et Fey. Fei Li, directeur de l'IA de Stanford. Ford a demandé à chacun d'eux en quelle année la probabilité de créer une IA forte serait d'au moins 50 %.

Sur les 23 personnes, 18 ont répondu et seulement deux d’entre elles ont accepté de publier les prédictions sous leur nom. Fait intéressant, ils ont donné les réponses les plus extrêmes : Ray Kurzweil, futuriste et directeur de l'ingénierie chez Google, a dit 2029, et Rodney Brooks, roboticien et co-fondateur d'iRobot, a dit 2200. Le reste des suppositions se situait entre ces deux pôles. , avec une moyenne de 2099 , soit en 80 ans.

Ford affirme que les experts commencent à donner des dates à plus long terme : dans des enquêtes précédentes, ils affirmaient qu'une IA forte pourrait être d'ici environ 30 ans.

"Il y a probablement une certaine corrélation entre votre audace ou votre optimisme et votre jeunesse", a ajouté l'écrivain, soulignant que plusieurs de ses interlocuteurs avaient plus de 70 ans et avaient vécu l'essor et le déclin de l'IA. "Après avoir travaillé sur ce problème pendant des décennies, vous deviendrez peut-être un peu plus pessimiste", dit-il.

Ford a également souligné que les experts ont des opinions différentes sur la façon dont l'IA à usage général va émerger - certains pensent que les technologies existantes sont suffisantes pour cela, tandis que d'autres ne sont pas du tout d'accord avec cela.

Certains chercheurs affirment que la plupart des outils sont déjà prêts et ne nécessitent désormais que du temps et des efforts. Leurs adversaires sont convaincus qu’il manque encore de nombreuses découvertes fondamentales pour créer une IA forte. Les scientifiques dont les travaux se sont concentrés sur l’apprentissage profond ont tendance à penser que les progrès futurs seront réalisés grâce aux réseaux de neurones, le cheval de bataille de l’IA moderne, a déclaré Ford. Ceux qui ont de l'expérience dans d'autres domaines de l'IA pensent que la création d'une version solide de l'IA nécessitera des techniques supplémentaires telles que la logique symbolique.

«Certaines personnes dans le camp de l'apprentissage profond sont très dédaigneuses à l'idée de développer directement quelque chose comme le bon sens dans l'IA. Ils pensent que c'est stupide. L’un d’eux a dit que c’était comme essayer d’insérer des informations directement dans le cerveau », explique Ford.

Tous les répondants ont souligné les limites des systèmes d'IA existants et les compétences clés qu'ils doivent encore maîtriser, notamment l'apprentissage par transfert, où les connaissances d'un domaine sont appliquées à un autre, et l'apprentissage non supervisé, où les systèmes apprennent de nouvelles choses sans intervention humaine. La grande majorité des méthodes actuelles d’apprentissage automatique reposent sur des données étiquetées par l’homme, ce qui constitue un obstacle majeur à leur développement.

Les personnes interrogées ont également souligné l’impossibilité absolue de faire des prédictions dans un domaine comme l’IA, où les découvertes clés ne prennent pleinement effet que des décennies après leur découverte.

Stuart Russell, professeur à l'Université de Californie à Berkeley et auteur de l'un des manuels fondateurs sur l'IA, a souligné que les technologies permettant de créer une IA forte "n'ont rien à voir avec le Big Data ou des machines plus puissantes".

«Je raconte toujours une histoire de physique nucléaire. L'opinion exprimée par Ernest Rutherford le 11 septembre 1933 était que l'énergie ne peut pas être extraite des atomes. Cependant, le lendemain matin, Leo Szilard a lu le discours de Rutherford, s'est mis en colère et a inventé la réaction nucléaire en chaîne médiée par les neutrons ! Ainsi, la prédiction de Rutherford a été réfutée après environ 16 heures. De même, il est totalement inutile de faire des prédictions précises dans le domaine de l’IA », a déclaré Russell.

Les chercheurs ne sont pas non plus d’accord sur les dangers potentiels de l’IA. Nick Bostrom, philosophe d'Oxford et auteur du livre « Intelligence artificielle : étapes. Des menaces. Stratégies" et l'un des favoris d'Elon Musk, affirme que l'IA constitue une plus grande menace pour l'humanité que le changement climatique. Lui et ses partisans estiment que l’un des plus grands défis dans ce domaine est d’enseigner les valeurs humaines à l’IA.

« Ce n’est pas que l’IA nous détestera pour nous avoir asservis ou qu’il y aura soudainement une étincelle de conscience et qu’elle se rebellera. Au contraire, il s’efforcera de poursuivre un objectif différent de notre véritable intention », a déclaré Bostrom.

La plupart des personnes interrogées ont déclaré que la question de la menace de l’IA est extrêmement abstraite comparée à des questions telles que la récession économique et l’utilisation de technologies avancées en temps de guerre. Barbara Grosz, professeur d'IA à Harvard qui a apporté d'importantes contributions au domaine du traitement du langage, a déclaré que les problèmes éthiques d'une IA forte sont en grande partie une « distraction ».

« Nous avons un certain nombre de problèmes éthiques avec l’IA existante. Je pense que nous ne devrions pas nous laisser distraire par des scénarios futuristes effrayants », a-t-elle déclaré.

Ford affirme que le débat est le point le plus important de son enquête : il montre qu’il n’y a pas de réponses faciles dans un domaine aussi complexe que l’intelligence artificielle. Même les scientifiques les plus éminents ne parviennent pas à un consensus sur les problèmes fondamentaux de ce domaine de connaissance.

«Los Angeles, novembre 2019». Si, pour une raison quelconque, il y a eu beaucoup de contretemps et de faux départs avec la date d'arrivée de Marty McFly de Retour vers le futur en 2015, le fandom de Blade Runner s'est révélé plus discipliné : début novembre 2019, comme par hasard, les réseaux sociaux les flux médiatiques ont plongé dans la nostalgie du regard désormais rétro sur notre présent tel qu'il aurait pu être. Panneaux d'affichage Atari et interfaces maladroites, Californie pluvieuse, retour des coiffures et des robes des années quarante - et, bien sûr, des androïdes, presque impossibles à distinguer des humains. Malgré de nombreuses omissions dans la prédiction de l'avenir, "Blade Runner" reflète très fidèlement le malaise toujours croissant qui caractérise depuis quarante ans la relation entre l'homme et l'ordinateur (ce qui détermine en grande partie la pertinence constante du film). Comment savons-nous vraiment que nous sommes plus intelligents qu’un ordinateur ? Comment vivre quand on est complètement remplacé par la technologie ? Et si nous pouvions tous être réduits à des algorithmes ?

Des questions qui se trouvaient il n'y a pas si longtemps sur le plan spéculatif deviennent aussi banales que possible : on a récemment appris que la société Screenlife Technologies de Timur Bekmambetov est en phase active de développement d'un synthétiseur vocal en langue russe Vera Voice (des technologies similaires qui permettent une des réseaux permettant de « parler » les voix de célébrités en anglais existent déjà et sont utilisés).

Les acteurs ne sont pas les seuls à risquer de perdre leur emploi : les réseaux de neurones peuvent déjà écrire des textes simples, générer des motifs et des mélodies, mener des dialogues significatifs et communiquer avec d’autres réseaux de neurones. Dans les années à venir, beaucoup d’entre nous devront sérieusement réfléchir à changer de métier et à la part de notre vie que nous sommes prêts à consacrer à l’intelligence artificielle. Heureusement, nous sommes très bien préparés à réfléchir à ces questions par la science populaire, la philosophie populaire et, en général, la culture populaire des XIXe, XXe et XXIe siècles : la peur de la machine créatrice semble être un état naturel de l'homme, et de nombreuses avancées technologiques ont également alimenté et contribué à la surmonter.

1811

La mécanisation croissante de la production de tissus et de produits textiles entraîne une baisse des revenus des tisserands et tricoteurs anglais (à leurs difficultés s'ajoutent le déclin général de la prospérité du pays en raison des guerres napoléoniennes). Dans le Nottinghamshire, où sont concentrées de nombreuses industries de ce type, les conspirateurs se réunissent la nuit dans les landes et planifient des attaques destructrices contre les machines ; la pratique s'est ensuite répandue dans toute l'Angleterre. Ils considèrent que leur chef spirituel est un certain Ned Ludd, un héros qui s'est révélé plus tard mythique, mais qui a donné son nom au mouvement luddite. Les actions du mouvement ont mêlé mécontentement face à la situation économique et à la baisse de la qualité des biens, peur de l'inévitable apparition de l'avenir et d'une crise existentielle - tout ce qui caractérise la peur actuelle de l'intelligence artificielle. Le mot « néo-luddite » est encore utilisé comme une terrible malédiction, signifiant que l’interlocuteur est borné et inculte, alors qu’il préfère ne pas se souvenir des raisons de classe non illusoires du soulèvement.

1837

Charles Babbage décrit le moteur analytique, le premier ordinateur complet de Turing (c'est-à-dire similaire à tous les ordinateurs modernes). Babbage n'a finalement pas réussi à obtenir suffisamment d'argent pour construire son mécanisme, de sorte qu'il n'est toujours pas construit à ce jour. Cela n'a pas empêché Ada Lovelace de proposer le premier programme moderne pouvant fonctionner sur un tel ordinateur en 1843, devenant ainsi le premier programmeur de l'histoire.

1902

En examinant les artefacts découverts sur un ancien navire romain qui a coulé près de l'île d'Anticythère, l'archéologue Valerios Stais attire l'attention sur l'une des « pierres » : elle contient des engrenages. Stais suggère que le mécanisme était destiné à prédire les éclipses et les positions des corps célestes, mais personne ne le croit : les artefacts restants sur le navire remontent aux environs du 1er siècle avant JC, et personne n'avait trouvé de mécanismes astronomiques de cette époque jusqu'à ce que 1902. Le mécanisme fut oublié jusqu'au milieu des années cinquante du XXe siècle, lorsque plusieurs scientifiques confirmèrent sa nature et sa datation. Depuis lors, le mécanisme dit d'Anticythère, comparable en complexité aux appareils du 14ème siècle après JC, est devenu pour certains un symbole du manque de confiance de l'humanité en ses propres capacités, et pour d'autres, c'est le signe d'une visite d'extraterrestres. . Quoi qu'il en soit, le mécanisme montre que nos lointains ancêtres disposaient d'un très haut niveau de pensée mathématique et mécanique - et qu'ils en ont transféré une partie aux machines. Les légendes sur les statues prenant vie à partir des mythes grecs et égyptiens antiques prennent chair et alimentent les théories du complot liées à l’intelligence artificielle.

1920

La pièce R.U.R. du dramaturge tchèque Karel Capek (Rossumovi Univerzální Roboti), alias « Les robots universels de Rossum ». Basé sur d'anciens mythes sur les automates, sur la légende de Prométhée, sur le concept juif des golems, sur la théorie de Samuel Butler sur l'évolution de la conscience dans les machines et, bien sûr, sur le principal prédécesseur littéraire de toutes les histoires sur les mécanismes intelligents - celui de Mary Shelley. roman « Frankenstein » - Chapek invente presque à lui seul le concept artistique moderne d'un « robot », un serviteur artificiel semi-intelligent (pour être honnête, chez Čapek, il s'agit d'organismes et non de mécanismes). Il est très typique que la toute première histoire de robots se termine par la destruction complète de l’humanité. En 1923, la première production est sortie en anglais et le mot avec une simple racine slave s'est imposé dans la plupart des langues du monde. De plus, les costumes métalliques brillants du film Metropolis de Fritz Lang de 1927, clairement inspiré de R.U.R., définiraient l'apparence de la plupart des robots à l'écran pour les années à venir.


1942

Le chimiste, vulgarisateur scientifique et grand écrivain Isaac Asimov, dans l'histoire « Round Dance », formule les principes de base non seulement de l'existence de l'intelligence artificielle, mais aussi de l'écriture d'histoires à son sujet. Celles-ci sont connues sous le nom de « Trois lois de la robotique » :

  1. Un robot ne peut pas nuire à une personne ni, par inaction, permettre à une personne de subir un danger.
  2. Un robot doit obéir à tous les ordres donnés par un humain, à moins que ces ordres n'entrent en conflit avec la Première Loi.
  3. Un robot doit veiller à sa propre sécurité dans la mesure où cela ne contredit pas la première ou la deuxième loi.

La déconstruction des lois d'Asimov dans la science-fiction a commencé activement dans les années 1950, lorsque le « robot tueur » est devenu un trope dans les films de série B, qui ont progressivement migré vers les films à gros budget. Les histoires modernes sur l’intelligence artificielle ignorent complètement ces lois ou les modifient pour rendre possible l’existence de robots guerriers. Malgré cela, les experts dans le domaine de l’intelligence artificielle continuent de se concentrer sur les positions techno-optimistes et proscientifiques d’Asimov.

1950

Selon le physicien Edwin Thompson Jaynes dans son livre Probability: The Logic of Science, en 1948, on a demandé au mathématicien et physicien John von Neumann si une machine pouvait penser, ce à quoi il a répondu dans le feu de l'action : « Vous dites qu'il y a des choses." , que la machine ne peut pas accomplir. Si vous me dites exactement ce que la machine n’est pas capable de faire, je pourrai toujours construire une machine qui puisse faire exactement cela ! » Comme pour commenter cette déclaration, deux ans plus tard, le mathématicien, programmeur et héros de guerre Alan Turing propose dans un article l'un des concepts clés de l'intelligence artificielle - le test de Turing, qui est activement utilisé à ce jour (bien que sous une forme modifiée forme, même si sa critique devient de plus en plus active) . Turing a proposé de distinguer un ordinateur d'une personne de la manière suivante : poser une question (exclusivement par écrit) et recevoir une réponse à la fois d'une personne et d'une machine. Si la personne qui reçoit les réponses à ses questions ne peut pas comprendre où elle lui répond et où répond l'intelligence artificielle, alors le test est réussi. Des scènes basées sur la réussite ou l'échec du test de Turing apparaissent dans plusieurs dizaines de films, romans et séries télévisées de science-fiction. Le « test Voight-Kampff » fictif de Blade Runner est en réalité une variante du test de Turing, dans lequel un interrogateur pose des questions clés et surveille la réaction du suspect. Comme dans de nombreux autres cas, un résultat négatif conduit à l’agressivité et à la cruauté.

1956

Une conférence se tient au Dartmouth College où l'expression est officiellement utilisée pour la première fois. "intelligence artificielle" . Presque tous ses participants déterminent pour de nombreuses années non seulement la mode de la cybernétique, qui est passée du domaine nouveau et douteux des années quarante à une science à part entière, mais aussi spécifiquement le développement de l'intelligence artificielle. Ainsi, Marvin Minsky a conseillé Arthur C. Clarke lors de l'écriture du scénario du film « 2001 » - l'une des histoires les plus célèbres sur l'intelligence artificielle qui a l'intention de tuer des gens (l'un des personnages, Victor Kaminsky, porte le nom de Marvin).

1957

Le psychologue Frank Rosenblatt, convaincu que les machines peuvent être entraînées de la même manière que les animaux, teste le mécanisme électronique d'auto-apprentissage Perceptron, le premier prototype d'un réseau neuronal. Dans les années 60 et 70, les œuvres pionnières de Rosenblatt ont été en partie ridiculisées et oubliées – y compris par Minsky susmentionné. Certains experts estiment que l'ignorance des réseaux de neurones en tant que concept a entravé le développement de l'intelligence artificielle pendant des années, voire des décennies : les réseaux de neurones ne sont pleinement entrés dans la culture pop que dans les années 2010, lorsque les applications graphiques d'auto-apprentissage et les chatbots sont entrés sur le marché.

1965

Joseph Weizenbaum crée ELIZA, le premier chatbot au sens moderne du terme. Le programme ELIZA, du nom de l'héroïne de Pygmalion Eliza Doolittle, a pu mener un dialogue à part entière avec un ensemble assez large de phrases et le respect de la grammaire anglaise. Malgré des réalisations évidentes, les travaux sur des projets similaires ont ensuite été interrompus dans un certain nombre d'instituts de recherche : à la fin des années soixante, il s'est avéré que les prévisions initiales sur la vitesse de développement de l'intelligence artificielle étaient trop optimistes (on dit que les succès dans « « la résolution de jeux de société basés sur la logique est tout ce que l'IA devrait espérer dans les années à venir). Cela n'a cependant pas affecté l'influence d'ELIZA : George Lucas a utilisé une interface similaire dans son premier long métrage, THX 1138, et l'écran avec des options de dialogue est devenu une source d'inspiration pour un certain nombre de premiers jeux vidéo, dont, par exemple, Zork. La généalogie des assistants vocaux (qui portent aussi souvent des noms « féminins » : Alexa, Cortana, Alice) remonte aussi directement à ELIZA.


1980

Les premières machines Lisp apparaissent sur le marché - des ordinateurs spéciaux adaptés aux systèmes experts, capables d'analyser un grand nombre de données et de produire une solution possible pour une situation spécifique. En fait, il s’agit de la première application massive du concept du Big Data dans la vie quotidienne : les systèmes experts fonctionnaient à une vitesse fondamentalement impossible pour des personnes analysant le même nombre de signaux. Les systèmes ont fonctionné dans les domaines de la médecine, de la gestion des crises, de la gestion des catastrophes, de l’analyse de la sécurité industrielle, etc. L’argent revient à l’intelligence artificielle : désormais, non seulement les départements militaires et les grands gouvernements s’y intéressent, mais aussi les entreprises privées. Logiquement, le grand succès de 1983 fut le film catastrophe sur un système expert en panne, War Games (la panique à propos de vies humaines confiées à des ordinateurs se croise avec la panique à propos de l'abus des jeux vidéo).

1986

L'équipe d'Ernst Diekmans en Bavière effectue les premiers tests de voitures entièrement autonomes en utilisant la technologie d'analyse d'images de caméra - mais uniquement sur des pistes spécialement préparées.

Déjà en 1995, la voiture de Diekmans pouvait voyager de Munich à Odense, au Danemark et retour, atteignant des vitesses allant jusqu'à 175 km/h sur l'autoroute. Dans les années 1990, les prévisions concernant un avenir sans conducteur étaient bien plus optimistes qu’aujourd’hui : des startups comme Uber tablaient notamment sur l’introduction massive de voitures sans conducteur au début des années 2020. Cependant, des obstacles subsistent en matière de reconnaissance vidéo : en 2018, le premier décès d'un piéton sous les roues d'une voiture autonome (et il s'agissait d'une voiture appartenant à Uber) a été enregistré.

Toujours en 1986, la dernière saison de la série Knight Rider est sortie sur une voiture intelligente luttant contre le crime avec David Hasselhoff, très populaire en Allemagne.

1997

La première moitié des années 90 est l’ère du cyberpunk dans les livres, les films et les jeux vidéo. En conséquence, les histoires sur l'asservissement de l'humanité par des robots et des ordinateurs deviennent un courant dominant (à commencer approximativement avec Terminator 2, où le principal antagoniste est le réseau neuronal militaire Skynet, qui a pris conscience de lui-même). On peut également entendre des notes apocalyptiques dans l'actualité, notamment dans les discussions sur la victoire du supercalculateur Deep Blue sur Garry Kasparov. Les échecs ont longtemps été le Saint Graal de l'intelligence artificielle : l'IA a appris à battre un humain au backgammon en 1979, et un programme réussissant à jouer aux dames est devenu le premier exemple d'intelligence artificielle de l'histoire (selon la définition, cela remonte à 1952). ou 1956), puis les échecs, qui se caractérisent par une plus grande variabilité et imprévisibilité (et agissent également comme un symbole de l'intellectualité en tant que telle), n'ont pas été donnés à l'ordinateur pendant assez longtemps. Mais cela aussi est passé : des photographies du triste Kasparov ont fait le tour de tous les médias.


1998

Un petit mais très ennuyeux boom des jouets robotiques (principalement similaires aux gremlins Furby et aux chiens high-tech Aibo). Les jouets ne peuvent pas être programmés au sens plein du terme, mais ils apprennent (dans le cas de Furby, le langage, dans le cas d'Aibo, les mouvements) et commencent à exécuter des commandes. Cela coïncide avec un changement de paradigme dans la représentation de l’IA au cinéma : les robots ne sont plus des ennemis ou des monstres (ni même un soulagement comique dans la veine de Short Circuit). Les mélodramatiques « L’Homme du Bicentenaire » et « L’Intelligence Artificielle » repensent et réinventent unanimement le rôle des robots dans la société en tant qu’acteurs à part entière, mais avec leurs propres caractéristiques : il n’est plus possible de revenir directement au concept de « bon serviteur ». . Eh bien, du moins avec ces robots qui ressemblent à des personnes ou à des animaux : le boom des aspirateurs robotisés qui s'est produit un peu plus tard montre qu'en l'absence d'anthropomorphisme et de zoomorphisme, nous éprouvons encore une empathie limitée pour les robots.

2001

Il s'avère film(dessin animé ? cinématique du jeu, mais sans le jeu ?) Final Fantasy : The Spirits Within, réalisé par le créateur de la série RPG du même nom, Hironobu Sakaguchi, et toujours considéré comme l'un des meilleurs exemples de ce qu'est la « vallée étrange » est (quand l'image artificielle d'une personne lui est trop similaire pour ne pas la considérer comme une abstraction, mais pas assez forte pour accepter l'image d'un être vivant). Le film mettra la division cinéma de Square en faillite, mais nous donnera une discussion intéressante sur la nature de « l'actrice numérique » Aki Ross et ses affiches de bikini (toute cette discussion sur l'objectivation des modèles 3D prendra un nouvel élan dans les années 2010. , avec la montée de la pornographie VR et les problèmes de droits des robots pour l'immunité).


2007

Le « premier groupe virtuel » est souvent appelé Gorillaz, mais il reste un exemple de musiciens classiques cachés derrière une façade de bande dessinée. Hatsune Miku (le nom peut être traduit par « le premier son du futur ») est une tout autre affaire : un chanteur qui semble ne pas exister et, à proprement parler, ne peut pas exister. Le premier et le plus célèbre des Vocaloids, plugins de synthèse vocale japonais, possède un avatar de dessin animé, ses propres chansons et une base de fans impressionnante. Ceci, bien sûr, n’est pas le premier précédent pour un ordinateur chantant (entre autres choses, il convient de le rappeler grand projet russe 386 DX et ses reprises de classiques de la guitare), mais le plus célèbre et le plus significatif : à ce moment-là, les producteurs du monde entier se sont soudain rendu compte que non seulement les créateurs de mélodies pouvaient être remplacés, mais aussi les chanteurs.

2012

L'une des têtes d'affiche du festival grand public le plus important de Coachella est un hologramme (enfin, plus précisément, une projection vidéo). Pas au sens figuré, mais au sens propre : Tupac Shakur, tué en 1996, a été « ressuscité » lors d'un concert commun avec Snoop Dogg et Dr. Dre (ils ont même prévu de partir en tournée, mais à la fin, Dre a décidé que c'était inutile). La « résurrection » éthiquement discutable de Tupac a conduit au retour de ses albums dans les charts et à l'accélération de l'amélioration de ces technologies : déjà dans le film « Rogue One » sorti en 2016, Peter Cushing, décédé en 1994, restauré comme un modèle 3D, a joué un rôle assez important.

Plus loin - plus encore : en 2020, devrait sortir le film « Finding Jack », dans lequel l'un des rôles principaux est joué par James Dean, décédé en 1955. Pendant ce temps, la startup russe Replika continue de travailler à la création de réseaux neuronaux capables d'imiter le discours et les caractéristiques lexicales des personnes décédées.

2018

FakeApp est lancé, le premier programme commercial pour la production domestique de ce que l'on appelle des deepfakes, où la voix ou le visage d'une personne est combiné avec le corps et le visage d'une autre personne, de sorte que sur l'écran vous puissiez voir une vidéo hybride, analogue à la « résurrection numérique » évoquée ci-dessus ou la transformation d’un visage en un autre. Bien entendu, la première utilisation de cette technologie est de produire de la fausse pornographie de célébrités (selon certaines estimations, cela représente plus de 95 % de tous les deepfakes). Il existe également des fraudes bancaires par vidéo et voix, et en même temps de fausses vidéos discréditant les opposants politiques (une de ces vidéos, avec la présidente Nancy Pelosi, a été retweetée par le compte officiel de Donald Trump). Slavoj Zizek en parle littéralement depuis quelques années : « Pour moi, la question principale - et c'est une question sans réponse - est de savoir comment ces technologies affecteront notre perception de nous-mêmes. Serons-nous perçus comme des êtres vivants libres – ou serons-nous contrôlés par des machines numériques ? Et le point clé est le suivant : nous ne savons peut-être même pas qu’ils nous contrôlent.