Fremtidigt systemprojekt

Den fremtidige systemer (FS) projekt er et forsknings- og udviklingsprojekt, der gennemføres af IBM i begyndelsen af 1970'erne . Det havde til formål at introducere en ny IT-linje, der specifikt fokuserede på at forenkle applikationsudvikling - hovedsagelig for at fremskynde dens vækst og dermed dens salg. Dette projekt blev opgivet i 1975 , skønt nogle af hans ideer senere blev brugt til System 38, så AS / 400, især det vigtigste: det enkelte adresseområde (ikke at forveksle med virtuel hukommelse ).

Generelle mål

Indtil slutningen af ​​1960'erne opnåede IBM sine indtægter og overskud fra hardware. Software og supporttjenester, der betragtes som salgsstøtte, blev faktisk ikke faktureret. Kun hardware var inkluderet i prislisten, men deres priser dækkede også omkostningerne ved software og tjenester.

Andre leverandører var begyndt at tilbyde kompatibel hardware, primært perifert udstyr såsom bånd og magnetiske diskdrev, til betydeligt lavere priser end IBM, hvilket reducerede grundlaget for at inddrive omkostningerne ved hardware. Software og tjenester. I begyndelsen af ​​1971, efter at Gene Amdahl havde forladt IBM for at oprette sit eget firma ( Amdahl Corporation ), der tilbyder IBM-kompatible centralbehandlingsenheder, konkluderede en intern IBM taskforce ( Counterpoint- projekt ), at betaling af alle omkostninger gratis. software fra IBM kunne kun fremme konkurrenceevnen hos centrale processorenheder og andre konkurrerende produkter uden nogen af ​​disse omkostninger at bære. Det var derfor nødvendigt at fakturere softwaren.

Dette var så meget desto mere sandt, da omkostningerne ved computerudstyr konstant faldt, mens programmerings- og betjeningsomkostningerne steg (selvom de delvist blev vægtet af en stor udvidelse af den installerede base). Forbedring af maskinens ydelse / omkostningsforhold førte derfor ikke nødvendigvis til øget salg. En ny arkitektur, der reducerer udviklings- og driftsomkostninger, vil dog i høj grad forbedre IBMs vækst og hjælpe brugerne med at udvikle flere applikationer hvert år.

Idéen om et enkelt adresseområde, der kombinerer central hukommelse og diskplads, hvilket sætter en stopper for programmøren for bekymringen om at jonglere mellem central hukommelse og disk ( faser og overlays ) var attraktiv. At overlade det til systemet at styre dette på en mere logisk måde end virtuel hukommelse ved at udnytte adgangskarakteristikkerne var afgørende.

IBM blev også lovligt angrebet:

Enhver politik for bundet salg skal derfor være baseret på solide tekniske argumenter, der kan forsvares lovligt.

I maj-Juni 1971, blev en international "taskforce" samlet i Armonk af John Opel, dengang IBM vicepræsident. Dens opgave var at undersøge gennemførligheden af ​​en ny computerlinje. Disse ville gøre de kompatible dem forældede, men også den eksisterende linje fra IBM. Denne "taskforce" konkluderede, at projektet kunne accepteres af markedet, men - ikke overraskende - kun hvis den annoncerede reduktion af omkostningerne ved udvikling, drift og vedligeholdelse af applikationssoftware var massiv nok til at retfærdiggøre denne revolution.

IBM-ledelsen besluttede at påtage sig projektet ved at bekræfte følgende mål:

Andre problemer forudsagt i slutningen af ​​1960'erne i slutningen af ​​århundredet

FS-projektet tog også højde for følgende problemer identificeret af IBM:

Projekthistorie

Projektstart

Future Systems (FS) -projektet blev officielt lanceret i september 1971 efter anbefalingerne fra task force i andet kvartal af 1971. Derefter fusionerede flere andre forskningsprojekter på forskellige IBM-steder med projektet eller var tilknyttet ham.

Projektledelse

FS-projektet foregik i hele dets varighed under meget strenge betingelser for sikkerhed og fortrolighed. Projektet blev opdelt i mange delprojekter tildelt forskellige hold. Dokumentationen blev opdelt på samme måde i mange elementer, og adgang til hvert dokument var underlagt verifikation af virkeligheden af ​​det reelle behov fra et centralt organ i projektet. Hvert dokument blev sporet og kunne tilbagekaldes når som helst.

En konsekvens var, at de fleste mennesker, der arbejdede på projektet, kun havde et ekstremt fragmentarisk syn på det, begrænset til det, de havde brug for at vide for at producere det forventede bidrag af dem. Nogle hold arbejdede endda for projektet uden at vide det. Dette forklarer, hvorfor de fleste, når de bliver bedt om at definere, hvad FS var, eller hvorfor projektet blev opgivet, giver et meget delvist svar, som kun nævner den del af FS-projektet, der falder inden for deres ekspertiseområde.

Mobiliseringen var stor: " FS-projektet mobiliserede 2.500 mennesker. Dens ledere havde rettigheder til personalet på alle IBM-enheder. Jeg havde et job i Paris, og jeg blev løsladt natten over for at sende mig til New York. For at vise dig den tro, vi havde i IBM, hørte jeg ikke, at nogen nægtede denne mobilisering eller fortrød det "

De planlagte produktlinjer

Tre implementeringer af FS-arkitekturen var planlagt: den topmoderne model blev designet i Poughkeepsie, New York, hvor IBMs mest kraftfulde computere blev produceret; mellemklassemodellen blev designet i Endicott, New York, som var ansvarlig for mellemklassecomputere; den mindre model blev designet i Rochester, Minnesota , som var ansvarlig for entry-level computere.

Et kontinuerligt præstationsområde kunne opnås ved at variere antallet af processorer pr. System på hvert af de tre implementeringsniveauer.

I begyndelsen af ​​1973 blev den overordnede retning af projektet samt holdene, der var ansvarlige for de yderste lag, der var fælles for alle implementeringer, samlet i ASDD-laboratoriet i Mohansic, halvvejs mellem hovedkvarteret for Armonk / White Plains og Poughkeepsie .

Principperne for FS

Adgang til data

Et væsentligt princip for FS var hukommelsen på enkelt niveau , som overtog ideen om virtuel hukommelse ved at udvide den til alle data, midlertidige eller vedvarende. Dette gjorde enhver forskel mellem adgang til en database , fil eller objekt i hukommelsen usynlig for programmøren . Arbejdshukommelsen, filerne og databaserne var tilgængelige på en ensartet måde gennem en generalisering af begrebet adresse (en generaliseret adresse på 6 bytes var oprindeligt planlagt). De udviklerne ikke behøver at bekymre sig om den fysiske placering af de genstande, som de havde adgang, men kun til type og deres navn, som var at lette programmeringen og reducere omkostningerne ved at udvikle software .

Realiseringen af ​​dette princip krævede, at adresseringsmekanismen, som er kernen i maskinen, inkorporerer et komplet system til styring af hierarkiet af minder og de vigtige dele af et databasestyringssystem, som indtil nu. Der blev produceret i form software uden for selve maskinen.

Processoren

Et andet princip var brugen af ​​meget komplekse instruktioner på højt niveau lavet i form af mikrokode . For eksempel var en af ​​instruktionerne, CreateEncapsulatedModule , en link med fuld funktion . Yderligere anvisninger blev designet til at understøtte højt niveau programmering datastrukturer og operationer sprog som FORTRAN , COBOL og PL / I . I virkeligheden blev FS designet som den ultimative Complex Instruction Game Computer ( CISC )

En anden måde at præsentere den samme idé på er at sige, at alle de funktioner, der tidligere blev udført i form af kredsløb, systemsoftware, databasesoftware og mere, nu blev betragtet som en del af et enkelt integreret system, hvor hver af de elementære funktioner blev implementeret i et af de mange lag, der spænder fra kredsløb til konventionel software. Flere lag med mikrokode og kode blev leveret, undertiden benævnt milliakode og pico- kode. Ifølge den person, der talte, kunne selve forestillingen om "maskine" variere fra de eneste funktioner, der blev udført i form af kredsløb (for hardwarespecialisten) til alle de funktioner, der tilbydes brugerne, uafhængigt af deres realisering (for arkitekter). ).

Den overordnede plan opfordrede også til en "universal controller" til primært at håndtere I / O-operationer uden for hovedprocessoren. Denne universelle controller måtte have et meget begrænset instruktionssæt, reduceret til de instruktioner, der kræves til I / O. Det annoncerede således begrebet computer med reduceret instruktions sæt ( RISC ).

Baseret på denne idé lancerede John Cocke , en af ​​hoveddesignerne for de første IBM-computere, et forskningsprojekt med det formål at designe den første RISC- computer . Dette var 801-chippen, der både fungerede som en mikromaskine til IBM 9370 (370-serien) og som en indbygget processor til IBM 6150 (PC / RT). Derefter skulle RISC-arkitekturen, som inden for IBM udviklede sig til Power- og PowerPC-arkitekturen , hvilket krævede betydeligt mindre kredsløb, ikke kun være hurtigere, men meget billigere at producere og i stand til i teorien om kadenser. Meget højere ur. I praksis vil Apple senere opgive disse processorer, fordi de ikke øges tilstrækkeligt hyppigt, til at bruge Intel: denne grundlægger havde faktisk designet sin Pentium og de følgende generationer med sine egne RISC-kredsløb som en mikromaskine til en CISC, for at kunne lide 9370 men integrerer alt inde i selve Pentium.

Årsagerne til opgivelse

Årsagerne til opgivelsen af ​​projektet i 1975 er ikke velkendte. På grund af den inddeling, der er indført for at bevare sikkerheden, afhænger de anførte årsager af samtalepartneren, der fremhæver de vanskeligheder, der opstår i det felt, han kender.

Nogle af de nævnte grunde er:

Mod slutningen af ​​projektet så det ud til, at omkostningerne ved at migrere størstedelen af ​​kundeinvesteringerne i applikationer skrevet i assembler og COBOL ofte ville være større end omkostningerne ved at erhverve et nyt system. Derudover viste ændringen i vaner sig at være sådan, at den obligatoriske sameksistens i flere år af de to systemer ville være en kilde til enorme omkostninger for producenten såvel som for sine kunder.

I virkeligheden krævede projektets succes et stort antal gennembrud inden for alle områder, fra kredsløbsdesign og fremstilling til markedsføring og vedligeholdelse til arkitektur og alle former for software. Selvom det kunne tænkes, at hvert af de problemer, der blev taget isoleret, ville blive løst, var sandsynligheden for, at de alle kunne løses til tiden og på en gensidigt kompatibel måde, praktisk talt nul, især i betragtning af de mange interne debatter om de forskellige mulige løsninger.

FS-udviklingen var dyrere end forventet. Begreber, som vi kender i dag, eksisterede ikke engang dengang, og opdagelsen af ​​dem involverede en masse forsøg og fejl og forsøg og fejl.

Konsekvenserne

I 370'erne var de mest øjeblikkelige fordele:

Af alle laboratorierne var Poughkeepsie mindst handicappet af overtagelsen af ​​den eksisterende, da den fremstillede indgangssystemer. Så han lancerede sin egen enhed, System 38 . Dette forstyrrede lidt af dets usædvanlige koncepter, men blev efterfulgt af en efterfølger ved navn AS / 400, som var mere succesrig end forventet, og forblev indtil slutningen af 1990'erne en af ​​IBMs spydspidser. Det eneste problem: rækkevidden skulle udvides ovenfra, da AS / 400-brugere slet ikke var begejstrede for at vende tilbage til 370 og dens efterfølgere.

Bemærkninger

  1. bestående hovedsageligt af personaleomkostninger
  2. Hvem havde sine grunde: Software var dengang en måde at øge behovet for hardware på, ligesom i 2010
  3. I dag har en Linux- arbejdsstation ofte fra et par hundrede tusind til over en million filer)
  4. Jean-Jacques Duby, direktør for videnskabelig udvikling hos IBM France; artikel nævnt i eksternt link
  5. Burroughs arbejdede samtidig på et lignende projekt: det vil være Burroughs B1700 , der bruger forskellige mikrokoder afhængigt af det anvendte kildesprog. Denne tilgang var imidlertid kun effektiv, hvis ikke alle blev brugt på samme tid i sammenhæng med multiprogrammering.
  6. Med en sidelængde på mindre end eller lig med 270 mm; ellers blev hastigheden halveret

eksterne links