Intryck från Supercomputing 96

Från HPDR deltog Bo Häggblad, Hans Wallberg och Ann-Marie Pendrill i Supercomputing '96. Hans Wallbergs rapport ger en god översikt av denna konferens, som har en mycket hög grad av parallellitet. Jag samlar här några kompletterande intryck från sessioner om "Crisis Management", "ASCI" , Väder- prognoser, Superdatorcentras roll och från programmet för "K-12" lärare.

Crisis Management

Öppningsföredraget hölls av Frances Watson, IBM, som valde att prata om "Crisis Management". Detta område har studerats av "National Research Council", NRC som ett exempel på "Computing and Communications in the Extreme" Målgruppen för hennes föredrag var kanske i första hand politiker, som inte redan insett de möjligheter som öppnas av tillgång till högpresterande datorer. Som "Keynote" var det kanske inte så lyckat, men flera av talarna senare under veckan återkom till "Crisis Management", så konceptet förefaller att ligga relativt centralt i amerikanska diskussionerna kring datorpolicy. Frances Walton påpekade att detta är ett viktigt område för att det är Som exempel på områden där högpresterande datorer skulle kunna spela en viktig roll nämndes:

Provstopps-avtal och ASCI

För en svensk kanske det är lättare att ta till sig "Crisis Management" som motivering för nyttan av högpresterande beräkningar än Science-Based Stewardship of Nuclear Stockpile" som ligger i fokus för ASCI ("Accelerated Strategic Computing Initiative") programmet, som diskuterades under tre sessioner vid SC96. I skuggan av provstoppsavtalet får simuleringar vara en "digital proxy for the physics" - och det är tydligen ännu mer utmanande att studera hur vapen åldras än att utveckla nya. En komplikation inom projektet är att inte bara vapnen utan "designer data base" åldras: Denna levande databas kommer att vara halverad 2005 och nästan helt borta 2010.

Inom ASCI projektets ram har man utvecklat teknik som ger ökad förmåga att behandla komplicerade system. T.ex. har man kunnat göra en simulering av brott där man tagit hänsyn till 108 atomer. Metoder med adaptiv grid, där griden anpassas i varje cell och varje iteration ger väsentlig tidsvinst och man gav exempel på realistiska beräkningar av turbulenta system som visade god överensstämmelse med experimentella data. Man betonade vikten av en balanserad utbyggnad av såväl datorkraft, som kompetens inom matematik, fysik, beräkningsteknik och "Computer Science".

Superdatorcentras roll

Vi vet alla att utvecklingen går snabbt: En konsekvens av Moore's lag (att beräkningskapaciteten ökar med en faktor 2 på 18 månader) är t.ex. att det finns mer datakraft i en Lexus bil än det fanns i Apollo-13. utvecklingen gör naturligtvis också att superdatorcentras roll ibland måste utsättas för omprövning. En av endagarskurserna (sammanfattad i Hans Wallbergs rapport) hade titeln "Reinventing the supercomputing center" och leddes av tre personer från NERSC (National Energy Research Supercomputer Center), vid Lawrence Berkeley National Laboratory (LBNL).

I paneldiskussionen inom ramen för denna utbildningsdag betonades rollen som ett "interface between Computer Science and Physical Sciences" (vilket leder till krav på en relativt stor personal för att ha mångsidig kompetens). Det räcker inte att ha ett stort antal Computer Scientists spridda över landet, eftersom de inte kan förväntas svara på alla frågor användare kan ha om olika versioner av t.ex. nya program. Ett centrum skall vara en "Numerical Folklore Store" för metoder som används inom olika discipliner. Som en del i att utveckla en allsidig kompetens hade man vid NERSC (National Energy Research Supercomputer Center, vid LBNL) också post-doktorprogram, för forskare från andra discipliner än datalogi.

Diskussioner om superdatorcentras roll kunde möjligen bli mer livliga med deltagare från mer än ett centrum. Inte heller Paneldiskussionen "Round-table of center directors" bjöd dock på några livligare åsiktsutbyten.

Capacity Use vs Capability use

Man diskuterade också avvägningen mellan "Capacity" och "Capability use" - mellan många användare som fyller maskinen och några få användare som använder en ansenlig del av maskinens totala kapacitet. Detta är delvis en politisk fråga: "It is easier to sell "large-scale computers" than "science" on Capitol Hill" Utvecklingen av "Computer Aided Virtual Environments", CAVE, hjälper forskares intuitiva förståelse av förlopp, men kan ha väl så stor betydelse som ett viktigt hjälpmedel för att övertyga "funding agencies".

Weather Forecasting:

Bäst av de inbjudna föreläsarna var nog David Burridge från European Centre for Medium-Range Weather Forecasts (ECMWF). Hans föredrag om Operational Global Weather Forecasting gav salt till en konferens som kanske något mist sin sälta. Sin första OH-bild kommenterade han "My God! Who ordered that? Equations!" och påpekade att ekvationerna nog är gemensamma för amerikanska och europeiska forskare. F.n. använder man en upplösning på c:a 60 km, med 200 000 punkter i varje lager och c:a 30 lager, och behöver omkring 2 timmar för att färdigställa sin rapport. För att beakta de kaotiska aspekterna av vädersystem görs ett 30-tal olika prognoser med små variationer i indata, vilket ger en god indikation om prognosens tillförlitlighet. Som exempel visades en karta vädersystemet över Skandinavien en augustidag 1995, där de olika prognoserna ledde till fyra grupper av ganska olika situationer. Denna instabilitet markerade slutet på sommaren.

På framtida önskelista står bl.a. möjligheten att kunna göra 10 dagars globala prognoser för havsvågor: "We could easily drink up ASCI TFlops computers indefinitely" - jag tror inte att någon tvivlar på detta! Den svaga länken f.n. är hanterandet av stora datamängder (enligt Moore's lag för datahantering lär kapaciteten öka med 82% om året) "If anyone says they could handle TB of data, you should take them to the bar, because it is simply not true!" (speciellt inte när forskarna vill ha MB-paket av denna stora datamängd.

(Det var inte svårt att ana visst vemod hos ordföranden Bill Buzbee, NCAR, ("världens dyraste OH-bildsbytare") som av handelspolitiska skäl nu leasar en 16-noders C90 istället för att köpa den önskade NEC.)

Underhållning

Alvy Ray Smith arbetar numera för Micorsoft. Han har tidigare bl.a. lett den fullskaliga datorgrafiken i Star Trek II och organiserade det team som gjorde "Toy Story" (varje "frame" tog c:a 7 timmar CPU tid!). Föredraget - inklusive visning av flera kortfilmer - var naturligtvis underhållande, om än något ostrukturerat. Han diskuterade bl.a. skillnaden mellan pixel-baserade och geometri-baserade bilder.("Visible human" är ett exempel på en pixel-bild.) Han visade också flera stillbilder, bl.a. illustrerande det successiva framväxandet av alltmer verklighetstrogna bilder. För att få trovärdigt kroppsspråk och mimik till Toy Story videofilmades skådespelarna under inläsandet av texterna spelades in.

Intressanta var publikens reaktioner med avseende på Microsoft. Alvy Ray Smith's övergång till Microsoft kommenterades med "Why did you join the dark side of the force". Hans vision är att ge möjligheten för alla att göra olika dator-genererad film, att visualisering, komposition och ord skall kunna förenas i en "single creative application". Kommentaren "Microsoft doesn't have a legacy of creative applications" möttes med jubel - men Alvy Ray Smith tycker att detta är en fördel så att man kan bygga upp något nytt utan förutfattade meningar. Microsoft satsar helhjärtat och har rekryterat "the hottest research lab of the world".

Utbildning

I anslutning till konferensen anordnas även ett program för "K-12 lärare" (från Kindergarten till gymnasium). Intryck från utbildningsprogrammet presenteras på en separat sida.
Ann-Marie.Pendrill@fy.chalmers.se, 26 November 1996
http://fy.chalmers.se/~f3aamp/hpdr/sc96.html