• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / La tragédie de FireWire : la technologie collaborative torpillée par les entreprises

La tragédie de FireWire : la technologie collaborative torpillée par les entreprises

Plateforme de services à guichet unique |
3290

Agrandir

/

Rétrospectivement, peut-être notre logo de port préféré.

Jeremybrooks, utilisateur de Flickr

commentaires des lecteurs

247

avec 169 affiches participantes

Partagez cette histoire

Partager sur Facebook

Partager sur Twitter

Partager sur Reddit

L'ascension et la chute du FireWire—

IEEE 1394

, une norme d'interface offrant des communications à grande vitesse et un transfert de données isochrone en temps réel, est l'une des histoires les plus tragiques de l'histoire de la technologie informatique. La norme s'est forgée dans les feux de la collaboration. Un effort conjoint de plusieurs concurrents dont Apple, IBM et Sony, FireWire était un triomphe de la conception pour le plus grand bien. Il représentait une norme unifiée dans toute l'industrie, un bus série pour les gouverner tous. Réalisé au maximum, FireWire pourrait remplacer le SCSI et le désordre encombrant de ports et de câbles à l'arrière d'un ordinateur de bureau.

Pourtant, le principal créateur de FireWire, Apple, l'a presque tué avant qu'il ne puisse apparaître dans un seul appareil. Et finalement la société Cupertino effectivement

fait

tuer FireWire, tout comme il semblait sur le point de dominer l'industrie.

L'histoire de la façon dont FireWire est arrivé sur le marché et est finalement tombé en disgrâce sert aujourd'hui de beau rappel qu'aucune technologie, aussi prometteuse, bien conçue ou appréciée, n'est à l'abri de la politique inter et intra-entreprise ou de notre réticence sortir de notre zone de confort.

Le début

"Cela a commencé en 1987", a déclaré à Ars Michael Johas Teener, l'architecte en chef de FireWire. Il était alors architecte système au sein du département marketing de National Semiconductor, là pour transmettre des connaissances techniques au personnel de vente et de marketing ignorant. À cette époque, on a commencé à parler d'une nouvelle génération d'architectures de bus internes. Un bus est une sorte de canal sur lequel différents types de données peuvent circuler entre les composants informatiques, et un bus interne est destiné aux cartes d'extension telles que les instruments scientifiques ou le traitement graphique dédié.

L'Institut des ingénieurs électriciens et électroniciens (IEEE) a rapidement vu émerger des efforts pour construire

Trois

nouvelles normes incompatibles : VME, NuBus 2 et Futurebus. L'organisation considérait la situation avec dédain. Au lieu de cela, ont-ils suggéré, pourquoi ne pas travailler ensemble ?

Publicité

Teener a été nommé président de ce nouveau projet visant à unifier l'industrie autour d'une seule architecture de bus série. ("Série" signifiant qu'ils transfèrent un bit à la fois, plutôt que plusieurs bits simultanément - le parallèle est plus rapide, compte tenu de la même fréquence de signal, mais il entraîne une surcharge plus élevée et des problèmes d'efficacité lorsque vous augmentez les fréquences du signal.)

"Très rapidement, il y a eu des gens, y compris un gars nommé David James, qui travaillait dans les laboratoires d'architecture Hewlett-Packard à l'époque, qui disaient:" Oui, nous voulons aussi un bus en série "", a déclaré Teener. « Mais nous voulons qu'il sorte du bus pour se connecter à des périphériques à faible vitesse ou à vitesse modeste, comme des disquettes, des claviers et des souris et toutes sortes d'autres choses comme ça. »

Agrandir

/

Creusez cette esthétique vintage de l'iPod à molette cliquable...

Manu sur Flickr

Entrez Apple

Teener a rejoint Apple en 1988. Peu de temps après son arrivée, Apple a commencé à chercher un successeur à Apple Desktop Bus, ADB, qui était utilisé pour les appareils à très faible vitesse tels que les claviers et les souris. Apple voulait que la prochaine version soit capable de transporter des signaux audio. Teener avait juste ce qu'il fallait.

Cette lueur précoce de FireWire était cependant trop lente pour les besoins de l'entreprise. Les premières conceptions étaient pour une vitesse de 12 méga

bits par seconde (1,5 Mo/s) ; Apple en voulait 50. L'entreprise craignait de devoir passer à l'optique (lire : cher) pour y arriver.

Pour permettre cet usage mixte, Teener et James, qui avaient également rejoint Apple, ont inventé un mode de transport isochrone, c'est-à-dire des transferts à intervalles réguliers. Cela garantissait le moment de l'arrivée des données. La synchronisation garantie signifiait qu'il pouvait gérer les signaux à haut débit beaucoup plus efficacement, et qu'il verrouillerait le débit de sorte qu'il n'y ait pas de gigue sur la latence - quel que soit le délai de milliseconde passé entre l'interface et l'ordinateur, il serait toujours le même , peu importe les circonstances. Cela a rendu la méthode de transport isochrone idéale à des fins multimédias comme l'audio et la vidéo professionnels, qui nécessitaient auparavant un matériel spécial pour être transféré sur un ordinateur pour le montage.

Publicité

Apple a affecté les ingénieurs analogiques Roger Van Brunt et Florin Oprescu au groupe pour concevoir la couche physique (les fils et les signaux électriques qui y circulent) et pour implémenter la technologie dans une interface plus rapide. Van Brunt a déterminé qu'ils pouvaient éviter l'optique en utilisant une paire de fils torsadés. Cela leur procurerait une vitesse supplémentaire sans augmenter le coût.

"À cette époque, certains gars d'IBM, de tous les endroits, cherchaient un remplaçant pour SCSI", se souvient Teener. "Et puisque nous utilisions SCSI en même temps, nous pensions peut-être que nous utiliserions ceci en remplacement de cela. Nous avons uni nos forces. Mais ils voulaient 100 mégabits par seconde."

Pour obtenir la bande passante supplémentaire, l'équipe s'est tournée vers une société appelée STMicroelectronics. Ces gars-là avaient une astuce qui doublerait la bande passante sur un câble sans frais grâce à un mécanisme de synchronisation (en termes simples, un moyen de coordonner le comportement de différents éléments dans un circuit) appelé encodage data-strobe.

Maintenant, ils avaient besoin d'un connecteur. "Nous avions des ordres de marche pour le rendre unique afin que quelqu'un puisse simplement regarder le connecteur et dire ce que c'était", se souvient Teener. Les Mac de l'époque avaient trois connecteurs ronds différents; Les PC avaient également un mélange de connecteurs d'apparence similaire.

Ils ont demandé à l'expert en connecteurs résident d'Apple ce qu'ils devaient utiliser. Il a noté que le câble de liaison Game Boy de Nintendo ne ressemblait à rien d'autre et qu'ils pourraient le rendre unique à leur technologie en échangeant la polarisation. Le connecteur pourrait utiliser exactement la même technologie - les mêmes broches et tout - et il aurait un aspect différent. Mieux encore, le câble de liaison Game Boy a été le premier connecteur majeur à placer les pièces élastiques fragiles à l'intérieur du câble. De cette façon, lorsque les embouts élastiques s'usent, il vous suffit d'acheter un nouveau câble plutôt que de remplacer ou de réparer l'appareil.

La spécification de conception finale s'étendait sur 300 pages, une technologie complexe dotée de fonctionnalités élégantes. Ratifié comme IEEE 1394 en 1995, il permettait des vitesses allant jusqu'à 400 mégabits (50 Mo) par seconde, simultanément dans les deux sens, sur des câbles jusqu'à 4,5 mètres de long. Les câbles peuvent alimenter les appareils connectés avec jusqu'à 1,5 ampères de courant électrique (jusqu'à 30 volts). Jusqu'à 63 appareils pouvaient être mis en réseau sur le même bus, et tous étaient échangeables à chaud. Tout a également été configuré automatiquement lors de la connexion, vous n'avez donc pas à vous soucier de la terminaison du réseau ou des adresses de périphérique. Et FireWire avait son propre micro-contrôleur, il n'était donc pas affecté par les fluctuations de la charge du processeur.