Obtenir des indices de conception du cerveau humain gulfnews.com

Nous attendons beaucoup de nos ordinateurs de nos jours. Ils devraient nous parler, de reconnaître tout de visages aux fleurs, et peut-être faire rapidement la conduite. Toute cette intelligence artificielle nécessite une énorme quantité de puissance de calcul, les limites de stretching même les machines les plus modernes.

Maintenant, certaines des plus grandes sociétés de technologie du monde prennent un indice de la biologie car ils répondent à ces demandes croissantes. Ils sont en train de repenser la nature même des ordinateurs et construisent des machines qui ressemblent plus le cerveau humain, où un tronc cérébral central supervise le système nerveux et déchargements des tâches particulières – comme l’audition et de voir – au cortex environnant.

Après des années de stagnation, l’ordinateur évolue à nouveau, et ce derrière les coulisses la migration vers un nouveau type de machine aura des implications larges et durables.


Elle permettra le travail sur les systèmes intelligents pour accélérer artificiellement, de sorte que le rêve des machines qui peuvent naviguer dans le monde physique par eux-mêmes peut venir un jour vrai.

Cette migration pourrait aussi diminuer la puissance d’Intel, le géant de longue date de conception de puces et de fabrication, et refaire fondamentalement les 335 milliards $ par année l’industrie des semi-conducteurs qui se trouve au cœur de toutes les technologies choses, des centres de données qui conduisent Internet à votre iPhone aux casques de réalité virtuelle et les drones volants de demain.

« Ce changement est énorme », a déclaré John Hennessy, l’ancien président de l’Université de Stanford qui a écrit un livre qui fait autorité sur la conception informatique au milieu des années 1990 et est maintenant membre du conseil d’administration à l’alphabet, la société mère de Google. « L’approche actuelle est de la vapeur, et les gens tentent de re-architecte du système. »

L’approche actuelle a eu une assez belle récupération de données d’exécution pour Windows 7 64 bits. Pendant environ un demi-siècle, les fabricants d’ordinateurs ont construit des systèmes autour d’un seul, do-it-all puce – l’unité centrale de traitement – d’une entreprise comme Intel, l’un des plus grands fabricants de semi-conducteurs du monde. C’est ce que vous trouverez au milieu de votre ordinateur ou smartphone portable.

Maintenant, les ingénieurs informatiques sont façonnant des systèmes plus complexes. Plutôt que de canaliser toutes les tâches par une puce costaud faite par Intel, les nouvelles machines se divisent le travail en petits morceaux et les répartir entre les grandes fermes de simples puces spécialisées, qui consomment moins d’énergie.

Les changements à l’intérieur des centres de données géants de Google sont un signe avant-coureur de ce qui est à venir pour le reste de l’industrie. A l’intérieur la plupart des serveurs de Google il y a encore un processeur central. Mais les banques énormes de puces sur mesure travaillent avec eux, l’exécution des algorithmes informatiques qui animent la reconnaissance vocale et d’autres formes d’intelligence artificielle.

Google a atteint ce point par nécessité. Pendant des années, la compagnie avait exploité le plus grand réseau informatique du monde – un empire des centres de données et les câbles qui s’étendait de la Californie à la Finlande à Singapour Outil de récupération de données irs 2015. Mais pour un chercheur de Google, il était beaucoup trop petite.

En 2011, Jeff Dean l’un des ingénieurs les plus célèbres de l’entreprise, a dirigé une équipe de recherche qui a exploré l’idée de réseaux de neurones – essentiellement des algorithmes informatiques qui peuvent apprendre des tâches sur leur propre outil de récupération de données. Ils pourraient être utiles pour un certain nombre de choses, comme la reconnaissance des paroles dans les smartphones ou les visages dans une photographie.

En quelques mois, Dean et son équipe ont construit un service qui pourrait reconnaître les mots de manière beaucoup plus précise que le service existant de Google. Mais il y avait un hic: Si plus de 1 milliard de téléphones qui opéraient dans le monde sur le logiciel Android de Google utilisé le nouveau service à trois minutes par jour, Dean a réalisé, Google devrait doubler sa capacité de centre de données afin de le soutenir.

« Nous avons besoin d’un autre Google, » Dean a déclaré Urs Holzle, l’informaticien né en Suisse, qui a supervisé l’empire du centre de données de l’entreprise, selon une personne qui a assisté à la réunion. Alors Dean a proposé une alternative: Google pourrait construire sa propre puce d’ordinateur juste pour exécuter ce genre d’intelligence artificielle.

Mais ce qui a commencé à l’intérieur des centres de données commence à passer d’autres parties du paysage technologique. Au cours des prochaines années, des entreprises comme Google, Apple et Samsung vont construire des téléphones avec des puces IA spécialisés. Microsoft est la conception d’une telle puce spécifiquement pour un casque de réalité augmentée. Et tout le monde de Google à Toyota construit des voitures autonomes qui ont besoin des puces similaires.

Cette tendance à puces spécialisées et une nouvelle architecture informatique pourrait conduire à une « explosion cambrienne » de l’intelligence artificielle, a déclaré Gill Pratt, qui était responsable du programme à la DARPA, un bras de recherche du département américain de la Défense, et travaille maintenant sur les voitures sans conducteur chez Toyota. Comme il le voit, les machines qui se propagent à travers un grand nombre de calculs de minuscules puces de faible puissance peuvent fonctionner plus comme le cerveau humain, qui utilise efficacement l’énergie à sa disposition.

Il existe plusieurs types de puces de silicium. Il y a des puces qui stockent des informations. Il y a des puces qui effectuent des tâches de base dans les jouets et les téléviseurs de récupération de données pour Windows 7 téléchargement gratuit. Et il y a des puces qui exécutent différents processus pour les ordinateurs, des supercalculateurs utilisés pour créer des modèles pour le réchauffement climatique aux ordinateurs personnels, les serveurs Internet et les téléphones intelligents.

Pendant des années, les unités centrales de traitement, ou CPU, qui ont fonctionné PC et appareils similaires étaient où était l’argent. Et il n’y avait pas eu beaucoup besoin de changement.

Conformément à la loi de Moore, la maxime souvent cité le cofondateur d’Intel Gordon Moore, le nombre de transistors sur une puce informatique a doublé tous les deux ans environ, et fourni de façon constante une amélioration des performances pendant des décennies. Comme la performance améliorée, les puces ont consommé environ la même quantité d’énergie, selon une autre, la loi moins connue de conception de puce appelée échelle Dennard, du nom de longue date chercheur IBM Robert Dennard.

En 2010, cependant, doubler le nombre de transistors a été beaucoup plus long que la loi de Moore prédit. La maxime de mise à l’échelle de Dennard a également été bouleversé en tant que concepteurs de puces ont couru dans les limites des matériaux physiques qu’ils ont utilisés pour construire des processeurs. Résultat: Si une entreprise voulait plus de puissance de calcul, il pourrait non seulement mettre à jour ses processeurs Outil de récupération de données FAFSA. Il avait besoin de plus d’ordinateurs, plus d’espace et plus d’électricité.

Les chercheurs de l’industrie et du milieu universitaire ont travaillé à étendre la loi de Moore, explorer entièrement nouveaux matériaux de premier ordre et des techniques de conception irs Outil de récupération de données FAFSA. Mais Doug Burger, chercheur chez Microsoft, a eu une autre idée: Plutôt que de compter sur l’évolution constante du processeur central, que l’industrie avait fait depuis les années 1960, pourquoi ne pas déplacer une partie de la charge sur des puces spécialisées?

Burger et son équipe ont exploré plusieurs options, mais finalement réglé sur quelque chose appelé prédiffusés programmables ou FPGA: puces qui pourraient être reprogrammé pour de nouveaux emplois à la volée. Microsoft construit des logiciels, comme Windows, qui fonctionne sur un processeur Intel. Mais ce logiciel ne peut pas reprogrammer la puce, car il est difficile câblé pour effectuer certaines tâches.

Avec un FPGA, Microsoft pourrait changer la façon dont fonctionne la puce. Il pourrait programmer la puce pour être vraiment bon à exécuter des algorithmes particuliers d’apprentissage de la machine. Ensuite, il pourrait reprogrammer la puce pour être vraiment bon à la logique en cours d’exécution qui envoie des millions et des millions de paquets de données à travers son réseau informatique. Ce fut la même puce, mais il se comportait d’une manière différente.

Microsoft a commencé à installer les puces en masse en 2015 la récupération des données. Maintenant, à peu près chaque nouveau serveur chargé dans un centre de données Microsoft comprend une de ces puces programmables. Ils aident à choisir les résultats lorsque vous effectuez une recherche Bing, et ils aident Azure, le service de cloud computing de Microsoft, les informations de navette à travers son réseau de machines sous-jacentes.

À l’automne 2016, une autre équipe de chercheurs de Microsoft – la mise en miroir du travail effectué par Dean à Google – construit un réseau de neurones qui pourrait, par une mesure au moins, reconnaître de façon plus précise les mots prononcés que l’humain moyen pourrait.

Xuedong Huang, un spécialiste de reconnaissance vocale qui est né en Chine, a dirigé l’effort, et peu de temps après que l’équipe a publié un document décrivant son travail, il a dîné dans les collines au-dessus de Palo Alto, en Californie, avec son vieil ami Jen-Hsun Huang (aucun rapport), le directeur général du fabricant de puces Nvidia. Les hommes avaient des raisons de célébrer, et ils toasté avec une bouteille de champagne.

Xuedong Huang et ses collègues chercheurs de Microsoft ont formé leur service de reconnaissance vocale en utilisant un grand nombre de puces spécialisés fournis par Nvidia, plutôt que de compter en grande partie sur des puces Intel ordinaires. Leur percée n’aurait pas été possible si elles avaient pas fait ce changement.

« Nous avons fermé l’écart avec les humains dans environ un an », a déclaré Huang Microsoft. « Si nous n’avions pas l’arme – l’infrastructure – il aurait fallu au moins cinq ans. »

Parce que les systèmes qui reposent sur des réseaux de neurones peuvent apprendre en grande partie sur eux-mêmes, ils peuvent évoluer plus rapidement que les services traditionnels. Ils ne sont pas aussi dépendants des ingénieurs d’écriture des lignes interminables de code qui expliquent comment ils doivent se comporter.

Mais il y a une ride: La formation des réseaux de neurones de cette façon nécessite une vaste essai et les données d’erreur de sauvetage télécharger la version complète gratuite. Pour créer un qui est capable de reconnaître les mots ainsi qu’un humain peut, les chercheurs doivent le former à plusieurs reprises, peaufiner les algorithmes et améliorer les données de formation et encore. À un moment donné, ce processus se déroule sur des centaines d’algorithmes. Cela nécessite une énorme puissance de calcul, et si des entreprises comme Microsoft utilisent des puces standard question de le faire, le processus prend beaucoup trop longtemps parce que les puces ne peuvent pas gérer la charge et trop de puissance électrique est consommée.

Ainsi, les grandes entreprises Internet sont maintenant la formation de leurs réseaux de neurones avec l’aide d’un autre type de puce appelée une unité de traitement graphique ou GPU. Ces puces de faible puissance – habituellement faites par Nvidia – ont été conçues pour rendre les images pour les jeux et autres logiciels, et ils ont travaillé main dans la main avec la puce – habituellement faite par Intel – au centre d’un ordinateur. GPUs peut traiter les calculs requis par les réseaux de neurones beaucoup plus efficace que les processeurs.

Processeurs graphiques sont les principaux que les entreprises utilisent pour enseigner à leurs réseaux de neurones une tâche particulière, mais qui ne représente qu’une partie du processus. Une fois qu’un réseau de neurones est formé pour une tâche, il faut l’exécuter, et qui nécessite un autre type de puissance de calcul.

Après la formation d’un algorithme de reconnaissance vocale, par exemple, Microsoft propose comme il un service en ligne, et il commence réellement identifier les commandes que les gens parlent dans leurs smartphones lien outil de récupération de données irs. Processeurs graphiques ne sont pas aussi efficaces au cours de cette étape du processus. Ainsi, de nombreuses entreprises sont en train de construire des puces spécifiquement pour faire ce que les autres puces ont appris.

Google construit sa propre puce de spécialité, une unité de traitement Tensor ou TPU. Nvidia est la construction d’une puce similaire. Et Microsoft a reprogrammé des puces spécialisées de Altera, qui a été acquise par Intel, de sorte qu’il peut fonctionner aussi plus facilement les réseaux de neurones.

D’autres entreprises emboîtent le pas. Qualcomm, qui se spécialise dans les puces pour smartphones, et un certain nombre de start-ups travaillent également sur des puces IA, dans l’espoir de récupérer leur part du marché en pleine expansion. firme de recherche Tech IDC prévoit que les revenus des serveurs équipés de puces alternatives atteindra 6,8 milliards $ en 2021, soit environ 10 pour cent du marché global du serveur.

À travers le réseau mondial de machines de Microsoft, Burger a souligné, puces alternatives sont encore une partie relativement modeste de l’opération récupérer des données à partir du lecteur de raid. Et Bart Sano, le vice-président de l’ingénierie qui dirige le développement de matériel et de logiciels pour le réseau de Google, a déclaré la même sur les puces déployés dans ses centres de données.

Mike Mayberry, qui dirige Intel Labs, a minimisé l’évolution vers les processeurs alternatifs, peut-être parce que Intel contrôle plus de 90 pour cent du marché des centres de données, ce qui en fait de loin le plus grand vendeur de puces traditionnelles. Il a dit que si les processeurs centraux ont été modifiés dans le bon sens, ils pourraient gérer de nouvelles tâches sans aide supplémentaire.

Mais cette nouvelle race de silicium se répand rapidement, et Intel est de plus en plus une entreprise en conflit avec lui-même. Il est en quelque sorte nier que le marché est en train de changer, mais néanmoins déplacer ses activités pour suivre le changement.

Il y a deux ans, Intel a passé 16,7 milliards $ pour l’acquisition Altera, qui construit les puces programmables que Microsoft utilise. Il était plus grande acquisition d’Intel. L’année dernière, la société a versé un montant rapporté 408 millions $ l’achat Nervana, une entreprise qui explorait une puce juste pour exécuter les réseaux de neurones. Maintenant, dirigé par l’équipe Nervana, Intel développe une puce dédiée à la formation et à l’exécution des réseaux de neurones.

« Ils ont le problème traditionnel grand-entreprise », a déclaré Bill Coughran, associé à la société de capital-risque de la Silicon Valley Sequoia Capital, qui a passé près d’une décennie aidant à superviser l’infrastructure en ligne de Google, se référant à Intel. « Ils ont besoin de comprendre comment se déplacer dans les nouvelles zones de croissance sans nuire à leurs activités traditionnelles. »

conflit interne d’Intel est le plus évident lorsque les responsables de l’entreprise discutent du déclin de la loi de Moore. Au cours d’une récente interview, Naveen Rao, le fondateur Nervana et maintenant un dirigeant d’Intel, a déclaré Intel pourrait presser « quelques années » de la loi de Moore. Officiellement, la position de l’entreprise est que l’amélioration des puces traditionnelles se poursuivront à la prochaine décennie.

Google est la conception de la deuxième génération de ses puces de TPU. Plus tard cette année, la société a déclaré, toute entreprise ou développeur qui est un client de son service cloud computing sera en mesure d’utiliser les nouvelles puces pour exécuter son logiciel.

Bien que ce changement se produit principalement dans les énormes centres de données qui sous-tendent l’Internet, il est probablement une question de temps avant qu’il imprègne l’industrie dans son ensemble.

L’espoir est que cette nouvelle race de puce mobile peut aider à gérer des dispositifs plus et plus complexe, les tâches de leur propre chef, sans rappeler aux centres de données distants: téléphones reconnaissant les commandes vocales sans accès à l’Internet; les voitures reconnaissant le monde sans conducteur autour d’eux avec une rapidité et une précision qui n’est pas possible maintenant.