A konvergencia sötét oldala, lenyűgöző lehetőségek és komoly veszélyek – indul az AMAT bicentenáriumi konferenciája
A Magyar Tudományos Akadémia 200 éves fennállását ünnepli idén, az évfordulós események egyikeként bicentenáriumi konferenciát rendez az Amerikai Magyar Akadémikusok Társasága (AMAT) május 8–9-én, az MTA 199., ünnepi közgyűléséhez kapcsolódva. A rangos rendezvényre négy Nobel-díjas és egy Abel-díjas kutató érkezik, rajtuk kívül több neves külhoni akadémikus is tart majd előadást, köztük Sztipanovits János villamosmérnök, a Vanderbilt Egyetem intézetigazgatója. Az MTA külső tagjával egyebek mellett arról beszélgettünk, hogyan alakította át a különböző tudományterületeket a számítástudomány, miképp vált a digitalizáció a 20. és 21. század fordulójára az egyik legnagyobb hatású, forradalmi fejlődést hozó, de egyben fenyegető veszélyeket is magában hordozó társadalomformáló folyamattá, és milyen út vezetett a Budapesti Műszaki Egyetemről a DARPA Információtechnológiai Osztályáig.
Karikó Katalin, May-Britt Moser, Edward Moser, Aaron Ciechanover Nobel-díjas kutatók és az Abel-díjas Lovász László, az MTA volt elnöke is részt vesz az Amerikai Magyar Akadémikusok Társasága rendezvényén az idén 200 éves Magyar Tudományos Akadémia megújult székházában. A kétnapos bicentenáriumi konferenciára az MTA 199., ünnepi közgyűlése keretében kerül sor május 8-án és 9-én. A Nobel-, illetve Abel-díjas kutatókon kívül olyan neves, külföldi egyetemeken dolgozó, oktató magyar tudósok tartanak majd előadást, mint Sztipanovics János, Szabó Gyöngyi, Maliga Pál, Tardos Éva, Buzsáki György vagy Barabási Albert-László. Az angol nyelvű konferencia teljes programja itt böngészhető.
A rendezvény zártkörű, de az MTA YouTube-csatornáján megtekinthető lesz.
„A fizika, biológia és számítástechnika közötti konvergencia. Mi hasznunk belőle, és mibe kerül?” címmel tartja angol nyelvű nyitóelőadását az AMAT által szervezett tudományos szimpóziumon. Miről szól majd az előadása, mit takar a címben szereplő konvergencia?
A tudomány és a technológia történetében jól megfigyelhető, hogy váltakoznak olyan korszakok, amikor a szintézis kerül előtérbe, és olyanok, amikor a diszciplináris specializáció válik meghatározóvá. Úgy tűnik, hogy a 20. század végétől egyre erőteljesebben érvényesül a szintézis irányzata, és az elmúlt két évtizedet egyértelműen a tudományterületek közötti konvergencia jellemzi. Míg az akadémiai és egyetemi kutatás továbbra is a specializációt részesíti előnyben, a globális társadalmi igények – mint a megújuló energiaforrások keresése, az egészségügyi rendszerek átalakítása, valamint az olyan új technológiák megjelenése, mint például a szintetikus biológia – mindinkább interdiszciplináris megközelítést követelnek meg. Ezzel párhuzamosan egy egyre gyorsuló technológiai forradalom bontakozik ki az informatika, a számítástechnika és a mesterséges intelligencia területén. E technológiák rendkívüli módon elősegítik és erősítik a tudományágak közötti konvergencia folyamatát.
_fit_640x10000.jpg?key=4722b08a87aa7ee3f29c5a4a3d8913f5)
Névjegy: Sztipanovits János
Magyar villamosmérnök, informatikus, a Vanderbilt Egyetem Villamosmérnöki és Számítástechnikai Tanszékének mérnök professzora. 1970 és 1983 között a Budapesti Műszaki Egyetem (BME) Műszer- és Méréstechnika Tanszékén (MMT) dolgozott. 1980-ban kandidátusi fokozatot szerzett, 1982-ben doktorrá avatták. Szakmai tevékenysége Magyarországon a jelek és rendszerek méréstechnikája és a moduláris mikroprocesszor-technológia létrehozására irányult, a technológia széles körű ipari elterjedése elismeréseként 1985-ben kollégáival együtt Állami Díjat kapott. 1983-tól a Vanderbilt Egyetem (Nashville, Tennessee) Mérnöki Fakultásán kezdett dolgozni. 1998-ban megalapította az egyetem Szoftverintegrált Rendszerek Intézetét (Institute for Software Integrated Systems), melynek máig ő az igazgatója. Kutatási érdeklődésének középpontjában a szoftverrendszerek modellalapú fejlesztése, a kiberfizikai rendszerek elméleti megalapozása és alkalmazása áll, ezen a területen több mint 350 publikációt jegyez.
1999–2002 között az amerikai kormány megbízásából a DARPA (Defense Advanced Research Project Agency) program menedzsere és az információtechnológiai terület igazgatóhelyettese volt Washingtonban. A DARPA-nál töltött idő alatt két nemzeti szintű kutatási programot indított a beágyazott rendszerek modellalapú tervezése és a hálózatba kapcsolt beágyazott rendszerek technológiája területén. 2006 és 2010 között tagja volt az amerikai légierő tudományos tanácsadó testületének. 2010-ben a Magyar Tudományos Akadémia külső tagjának választotta. Mind Magyarországon, mind az Egyesült Államokban több kitüntetést kapott, a magyar–amerikai tudományos kapcsolatok fejlesztését szívügyének tekinti.
Az én munkám nagyrészt ehhez a folyamathoz kapcsolódik, elsősorban a számítástechnika oldaláról. Az 1970–80-as években a számítástechnika jobbára segítő, kiegészítő szerepet töltött be a különböző rendszerekben – kivéve az üzleti világot, ahol már az információs folyamatok közvetlen részévé vált. Ahogy elkezdett kibontakozni a digitalizáció, a legkülönfélébb mérnöki rendszerek – a kisberendezésektől a repülőgépekig – sorra alkalmazni kezdték a számítástechnikát nemcsak tervezési segédeszközként, hanem mint implementációs módszert is. Megjelentek az úgynevezett beágyazott rendszerek, amelyek különféle berendezések kisebb-nagyobb komponenseit – például kontrollereket, monitorozó és diagnosztikai rendszereket – beágyazott számítógépekkel és szoftverrel valósították meg. Ez a váltás nemcsak a hatékonyság növekedését hozta magával, hanem egyre intelligensebb rendszerek kialakítását is lehetővé tette. A számítógépes megvalósítás a komplex funkciók egyre nagyobb részét vette át. A 90-es évek végére az új autóipari szabadalmak nagy része már a beágyazott rendszerekhez kapcsolódott, és az újabb járműmodellek már 20-30 processzort tartalmaztak, amelyek vezérelték a motort, a sebességváltót, a porlasztót, az ABS-t és sok más rendszert. Beindult és felgyorsult a konvergencia a fizikai mérnöki tudományok és a számítástudomány között.
A konvergencia több mint multidiszciplinaritás.
A konvergencia létrejöttét az jelzi, hogy a konvergáló diszciplínák megváltoznak, átalakulnak, és a szintézis eredményeként új tudományterületek jönnek létre. Ennek első jelei jól nyomon követhetők voltak a programozás területén. A programozási nyelvek fejlődése az 1960-as évek elejétől fokozatosan lehetővé tette, hogy a nyelvi absztrakciók függetlenedjenek a processzorok fizikai implementációjának hatásaitól, ami megnyitotta az utat a szoftveripar térhódítása előtt.
A beágyazott rendszerek ezzel szemben folyamatos kölcsönhatásban állnak a fizikai környezettel, mivel funkcionális szempontból egy fizikai rendszert valósítanak meg. Következésképpen – a komplexitás növekedése által hajtva – egyre nagyobb igény jelentkezett arra, hogy a programozási nyelvek kialakult absztrakciói mellett megjelenjenek a fizikai absztrakciók is, mint például a fizikai idő fogalma. Ezek az igények vezettek a modellalapú tervezési módszerek elterjedéséhez, amelyek képesek voltak egységes keretben kezelni és összekapcsolni a fizikai és számítási folyamatok absztrakcióit.
Hogyan vált lehetővé és hová vezetett a fizikai mérnöki tudományok és a számítástudomány gyorsuló közeledése? Milyen új tudományterületekről lehet beszélni a folyamat eredményeképp?
A beágyazott rendszerek kutatása kezdetben elsősorban arra fókuszált, hogy milyen hatása van a fizikai rendszerekkel való szoros kölcsönhatásnak a számítástechnikai oldalra, különösen a szoftvertervezésre, implementációra és verifikációra. Ezek a kutatások jelentős lendületet kaptak az Egyesült Államokban a DARPA beágyazott rendszerek kutatási programjai révén (1999 és 2005 között), valamint az Európai Unióban az ARTIST 1 és 2 programok keretében (2001 és 2008 között). A fizikai mérnöki tudományok és a számítástudomány közötti konvergencia első teljes megnyilvánulása az úgynevezett kiberfizikai rendszerek (Cyber-Physical Systems, CPS) kutatási irányának kialakulása volt az Egyesült Államokban 2006 és 2009 között, amely új, nagy volumenű kutatási programok sorozatához vezetett előbb a National Science Foundation (NSF), majd a DARPA támogatásával.
A kiberfizikai rendszerek területe már egy új rendszerelmélet megalapozását tűzte ki célul, amely egységes módon írja le a rendszerek fizikai és számítástechnikai aspektusait. Ez az új diszciplína rövid időn belül az NSF legnagyobb multidiszciplináris kutatási programjává vált, jelentős ipari háttérrel, és hasonló kutatási irányok indultak el világszerte is. A 2010-es évek első felében ez a konvergenciafolyamat már a humán tudományokat is elérte, és a kutatások egyre inkább átfogták a társadalmi léptékű humán-kiberfizikai rendszerek teljes spektrumát.
A 2010-es évek közepétől a mesterséges intelligencia terén elért áttörések új lendületet adtak a konvergencia folyamatának. A mesterséges intelligencia térnyerésével a számítástechnika már nemcsak a fizikai, hanem a biológiai rendszerek kutatásában is kulcsszerepet játszik. Új tudományterületek jelentek meg, mint például a szintetikus biológia, amely már nem csupán a biológiai rendszerek vizsgálatára, hanem tudatos tervezésükre is törekszik.
Lenyűgöző a számítástechnika rugalmassága: absztrakciók tervezésével vagy adatokból való kinyerésével új modellek szintetizálhatók és elemezhetők számítástechnikai módszerekkel, majd az így nyert eredmények átültethetők fizikai és biológiai rendszerekbe is.
Ez korábban elképzelhetetlen lehetőségeket nyit meg a tudomány és technológia előtt.
Ugyanakkor ezeknek a csodálatos lehetőségeknek a kihasználása jelentős kockázatokkal is jár. Az egyik fő kockázati tényező magának a számítástechnikának a sebezhetősége, amely több szinten is megjelenhet. A kiberbiztonsági sérülékenység miatt – különösen a rendszerkomplexitás kihasználásával – a megvalósított rendszerek manipulálhatók. Mivel a kiberfizikai rendszerekben a számítástechnika szervesen integrálódik a fizikai valósággal, ez a sérülékenység fizikai veszéllyé is válhat. Az így kialakuló komplex kölcsönhatások rendkívül bonyolulttá teszik a rendszerek biztonságát. Ennek a kihívásnak a kezelésére a kiberfizika területén egy teljesen új tudományterületet kellett létrehozni, amely kifejezetten a rendszerbiztonság mélyebb megértésére irányul. A tét óriási, hiszen ma már a mérnöki rendszerek döntő többsége – köztük a kritikus infrastrukturális rendszerek – kiberfizikai felépítésű.
A másik jelentős kockázati forrás a mesterséges intelligencia módszereinek rohamos terjedése. Ezek a megközelítések nemcsak a fizikai rendszerekben, hanem a biológiai rendszerek tervezéstechnikájában és az orvostechnikában is egyre hangsúlyosabban jelennek meg. Ennek következtében egy újfajta sérülékenységi kategória jelenik meg, amelynek biológiai manifesztációi komoly aggodalomra adhatnak okot.
Tud erre példát mondani?
Ha képesek vagyunk arra, hogy egy DNS-szekvenálás alapján digitálisan modellezzünk egy vírust, majd ebbe a modellbe digitális módszerekkel olyan módosításokat illesszünk, amelyek a vírust az emberre nézve sokkal veszélyesebbé teszik, akkor elvileg az is lehetővé válik, hogy ezt a digitálisan manipulált vírust később egy laboratóriumban – akár teljesen automatikusan – ismét élő vírussá alakítsuk. Ez a szintetikus biológia egyik reális lehetősége. Hogyan lehet ezt a veszélyt kiküszöbölni? Rendkívül nehezen.
Nézzünk egy másik példát. Tudjuk, hogy léteznek olyan biológiai objektumok, amelyek magas veszélyességi szintjük miatt csak úgynevezett négyes szintű izolációban tárolhatók, mivel kiszabadulásuk súlyos következményekkel járna. Ugyanakkor egy modern kiberbiológiai laboratórium tele van összetett számítástechnikai és biológiai berendezésekkel, amelyek lényegében kiberfizikai rendszerek. Természetesen felmerül a kérdés: hogyan lehet a négyes szintű biológiai izolációhoz hasonló mértékű elszigetelést és biztonsági szintet megvalósítani azokban a számítástechnikai eszközökben, amelyek ezekhez a biológiai rendszerekhez kapcsolódnak, vagy bennük működnek? Ez is egy rendkívül komplex kihívás.
Összességében
a digitalizáció által elősegített, egyre gyorsuló konvergencia gyakorlatilag minden tudományterületet forradalmasít – legyen szó társadalomtudományról, pszichológiáról, orvostudományról, biológiáról vagy mérnöki tudományokról. Azonban a fejlődéssel együtt új kockázatok is megjelennek,
amelyekkel már a kezdetektől tudatosan kellene foglalkoznunk. Ez jelenti az egyik legnagyobb kihívást.
Pályafutásom nagy részét a konvergencia sodrásában töltöttem. Azt mondhatnám, hogy a számítástechnikának van egy befelé és egy kifelé forduló oldala. A befelé néző oldal a számítástechnikai alapok fejlesztéséről és optimalizálásáról szól. A kifelé forduló oldal viszont arról, hogyan lehet a számítástechnikát beágyazni különböző szakterületekbe, és ezáltal forradalmi változásokat előidézni. Ez a folyamat mindig is lenyűgözött, és hihetetlenül izgalmas számomra.

Intézetünk, a Vanderbilt Egyetem Szoftverintegrált Rendszerek Intézete – amelyet több mint 27 éve alapítottam – ezzel a kifelé forduló számítástechnikával foglalkozik. Meggyőződésem, hogy a jelenlegi korszakot – amelyet leginkább az iparban, a tudományban és a technológiában zajló digitális transzformáció jellemez – joggal nevezhetjük a szintézis korának.
Ön Pécsen született, a BME-n szerzett villamosmérnöki diplomát. A 80-as évek közepén költözött az Egyesült Államokba, és lett a Vanderbilt Egyetem professzora, intézetigazgatója, egy új tudományterület egyik legismertebb, legelismertebb szakembere. Hogyan történt ez? Hogyan került Budapestről a szakma csúcsára, lett magyar villamosmérnökből az integrált szoftverrendszerek többszörösen kitüntetett, díjazott szakértője?
Villamosmérnöki hátterem révén mélyebben megértettem a fizikai rendszerek leírási módszereit, hiszen végeredményben a rendszertudomány a villamosmérnöki tudományokból nőtt ki (még ha ezt a többi mérnöki terület nem fogadja is el ilyen egyértelműen). Már a Budapesti Műszaki Egyetemen is rendkívül érdekelt a digitális technika és a digitalizáció. A Műszer- és Méréstechnika Tanszéken kollégáimmal közösen kezdtünk el dolgozni egy izgalmas projekten, amely a Medicor orvosi műszereinek digitalizálásához kapcsolódott. Létrehoztunk egy moduláris mikroprocesszoros rendszert, amellyel a Medicor munkatársaival együttműködve megkezdtük az orvosi műszerek technikai állományának átalakítását. A projekt nagy sikert aratott, és később az egész kutatócsoport Állami Díjban részesült. Ez a tapasztalat adta azt a szakmai hátteret, amellyel megérkeztem Amerikába – tulajdonképpen már ez is a digitális technológia transzformatív erejéről szólt.
Miután aranygyűrűs mérnökként végeztem a BME-n, 1982-ben egyéves kutatói ösztöndíjat nyertem el a Vanderbilt Egyetemre, az Egyesült Államokba. Azzal a szándékkal érkeztem, hogy folytatom az otthon megkezdett munkát, és hazatérve befejezem a nagydoktori értekezésemet. Azonban hamar rájöttem, hogy sokkal izgalmasabb lehetőség rejlik abban, ha azt a tíz hónapot inkább arra szánom, hogy megértsem, mi zajlik ezen az új terepen. Éppen akkoriban indult a mesterséges intelligencia első hulláma, amelyet tanulni kezdtem. Az otthoni munkámra építve néhány hónap alatt kidolgoztam egy koncepciót arra, hogyan lehetne ezeket az új MI-technológiákat alkalmazni a műszertechnikában.
Hihetetlen véletlen folytán az IBM Instruments egyik mérnöke éppen látogatást tett az egyetemen, és engem kértek fel, hogy tartsak előadást a koncepciómról. Az ötlet nagyon tetszett neki, és arra kért, hogy dolgozzak ki egy hivatalos előterjesztést. Összeállítottam, és az ösztöndíjam ötödik hónapjának végén az IBM Instruments megbízott bennünket egy jelentős projekttel és költségkerettel: segítenünk kellett az új MRI-berendezésük teljes belső szoftverrendszerének áttervezésében és megépítésében.
A lehetőség, hogy közvetlenül dolgozhattam egy ilyen szintű projekten, óriási motivációt jelentett számomra mint fiatal, ambiciózus kutató számára. Ezért végül az Egyesült Államokban maradtam, az egyetem pedig professzori állást ajánlott. Így kezdtem el tudatosan építeni ezt a területet. A 90-es évek elején már diplomás hallgatóimmal együtt dolgoztunk a Boeing számára a Nemzetközi Űrállomás technikai diagnosztikai modellezésén és diagnosztikálhatósági analízisén. Egy japán vállalat számára pedig vegyipari folyamatirányító és diagnosztikai rendszert fejlesztettünk ugyanezekkel a tervezési módszerekkel.
Hamarosan egyre több kutatási megbízást kaptunk, és szakmai kapcsolataink is kibővültek. 1996-ban elnyertem első szerződésemet a DARPA-tól, és mivel kinőttük az egyetemi tanszéki kereteket, 1998-ban megalapítottam a Szoftverintegrált Rendszerek Intézetét. Egy évvel később meghívást kaptam a DARPA-hoz, hogy a mi modellalapú tervezési módszereinkre építve országos szintű programokat indítsunk a beágyazott rendszerek területén.
Miután visszatértem a Vanderbilt Egyetemre, folytattuk a kutatási irányunkat, de már egészen más léptékben és ambíciókkal. Az intézet gyorsan fejlődött, és a 2010-es évek végére már több mint száz kutatóval, mérnökkel és doktoranduszhallgatóval dolgoztunk együtt.
A DARPA az Egyesült Államok védelmi minisztériumának kutatási ügynöksége, az USA egyik vezető fejlesztési szervezete, amelynek egyebek mellett az internetet is köszönhetjük. Beszélhet részletesebben arról, hogy milyen kutatás-fejlesztési munkákban vett ott részt?
A két és fél év, amelyet 1999 és 2002 között a DARPA-nál töltöttem, alapjaiban változtatta meg rálátásomat a kutatási területemre, és meghatározó hatással volt későbbi munkámra. Két kutatási programot hoztam létre és vezettem: a Beágyazott rendszerek modellalapú tervezése és a Hálózatba kapcsolt beágyazott rendszerek elnevezésű programokat. Ezek nemcsak megalapozták és megerősítették az érintett kutatási területeket, hanem számos lehetőséget teremtettek ipari mérnökök és egyetemi kutatók számára is.
2001-ben a DARPA Információtechnológiai Osztályának (Information Technology Office, ITO) igazgatóhelyetteseként – a beágyazott rendszerek témája mellett – átvállaltam az osztály teljes programportfóliójának operatív irányítását. Az ITO a DARPA egyik kulcsfontosságú technológiai osztálya, amely meghatározó szerepet játszott és játszik az információs technológiák és rendszerek fejlődésében. Az internet, az időosztásos rendszerek (time-sharing), a mesterséges intelligencia, a VLSI technológia, a számítógépes hálózatok, a gépi tanulás és robotika, a beágyazott rendszerek, a kiberbiztonság, a formális módszerek – és még számos más terület – tudományos megalapozása és áttörése kötődik DARPA-programokhoz az elmúlt hatvan év során.

A technológiai osztályok kutatási programjainak többsége nyitott volt nemzetközi részvételre is. A DARPA kutatási hatékonyságának egyik kulcsa az úgynevezett „DARPA-stílusú” programmenedzsment, amely a programmenedzserek önállóságára és személyes felelősségére épül, és kihívásalapú programstruktúrával párosul. A DARPA-nál eltöltött idő alatt hihetetlenül sokat tanultam, és ezeket az éveket szakmai pályafutásom egyik legérdekesebb és legizgalmasabb időszakának tartom.
Pár évvel később a légierőnek is dolgozott, munkáját díjjal ismerték el. Valami izgalmas dologról be lehet számolni ebből az időszakból? Mégiscsak a légierőről van szó, az Egyesült Államok emblematikus haderőneméről.
Igen, a DARPA után visszatértem az egyetemre, majd néhány évvel később meghívást kaptam, hogy 2006 és 2010 között vegyek részt az Egyesült Államok Légierejének Tudományos Tanácsadó Testületében. A testület célja alapvetően az, hogy meghívott ipari és egyetemi szakértők – a civil szférából – tudományos nézőpontokat hozzanak be, áttekintsék és értékeljék a különböző technológiai területeket, valamint javaslatokat dolgozzanak ki a vezetés számára.
Ebben a folyamatban én elsősorban a komplex szoftverrendszerek és fizikai platformok integrációjával, valamint a kibervédelmi kérdések elemzésével foglalkoztam.
A hadiipar, a haditechnika mindig élenjáró iparág volt, ahonnan nagyon sok tudás és technológiai megoldás szivárog le a civil szférába. Mondhatjuk-e, hogy a számítástudomány gyorsan fejlődése miatt pont az informatika területén bizonyos szempontból lemaradásban vannak a hadiipari szereplők?
A számítástechnika kereskedelmi alkalmazásának vannak olyan oldalai, amelyeket elsősorban az ipari verseny, valamint az eladható tulajdonságok és képességek hajtanak előre. A piaci szereplők igyekeznek minél több új fejlesztést és funkciót beépíteni digitális rendszereikbe, hogy a lehető legszélesebb vásárlói réteget szolgálhassák ki termékeikkel.
Amikor azonban kritikus infrastruktúrákról vagy hadiipari rendszerekről van szó, egészen más szempontok válnak elsődlegessé. Itt elsősorban nem az újabb funkcionalitások mennyisége számít, hanem az, hogy mennyire megbízhatók, biztonságosak és védhetők a rendszerek. Ezek a területek olyan kiberbiztonsági problémákat vetnek fel, amelyekre gyakran nincs valódi megoldás, mivel a civil ipar nem szívesen fordít jelentős erőforrásokat a kezelésükre. A funkciók fejlesztésére létezik piac; a biztonság viszont sokszor túl elvont, túl költséges vagy nehezen mérhető érték – pedig éppen ez lenne az alapkövetelmény.
A nagy biztonságú rendszerek tervezésekor figyelembe kell venni az úgynevezett „rosszindulatú” (wicked) problémákat is. Ilyen például az az eset, amikor egy informatikai rendszer sebezhetőségeit kategorizáljuk, majd megoldási javaslatokat kérünk a fejlesztőktől. A természetes reakció az, hogy egy prioritási listát kérnek: „Melyikkel kezdjük?” Csakhogy a probléma ennél sokkal összetettebb. Amint biztonságosabbá teszünk egy pontot, a probléma átalakul; a támadók egyszerűen máshová helyezik át a támadás fókuszát. Nincs végleges megoldás – ha a támadási felület folyamatosan átrendeződik, akkor a védelem sem lehet statikus.
Nem arról van tehát szó, hogy a hadiipari rendszerek technológiai szempontból lemaradtak volna – épp ellenkezőleg. A különbség abban rejlik, hogy ezeket a rendszereket nem a piaci hype, hanem a működésükért viselt felelősség hajtja előre. És éppen ebben rejlik a modern számítástechnika egyik legnagyobb kihívása: jelenleg nem vagyunk képesek valóban megbízható módon verifikálni igazán komplex szoftverrendszereket. Még kevésbé értjük, hogyan lehet megbízhatóan ellenőrizni a mesterséges intelligenciára épülő rendszereket, mivel túl bonyolultak. A legnehezebb kérdés az: hogyan lehet ezeket a rendszereket olyan alkalmazásokba integrálni, amelyeknek abszolút biztonságosaknak kell lenniük? Ez a konvergencia sötét oldala: a lenyűgöző lehetőségek mellett komoly veszélyeket is hordoz magában.
Említette az IBM-et és a Boeinget, és rajtuk kívül egy sor más iparági szereplővel dolgozott együtt különféle kutatási programokban. Idén 40 éve, hogy a Vanderbilt Egyetem professzora lett. Hogyan változott az iparági szereplőkkel való kapcsolat ez alatt a négy évtized alatt, levonható-e ebből valamiféle tanulság, akár a magyar egyetemek számára?
Amikor megkezdtem munkámat az Egyesült Államokban, értelemszerűen még nem volt megalapozott szakmai hitelességem. Egészen más környezetből érkeztem, és amit otthonról hoztam, azt nehéz volt átültetni az itteni értékrendbe és elvárásokba. Ennek megfelelően a kezdet nem volt egyszerű. A Vanderbilt egy privát kutatóegyetem, ahol a kutatáshoz szükséges forrásokat nagyrészt magunknak kell előteremtenünk. Az intézetem ebből a szempontból olyan, mint egy kisvállalat, amely akadémiai környezetbe ágyazódik: mi magunk vagyunk felelősek azért, hogy a ma már közel 150 fős csapat működni tudjon. Az egyetem ehhez kiváló keretet biztosít, hiszen érdekében áll, hogy az ilyen típusú kutatócsoportok fejlődjenek, és komoly befolyásra tegyenek szert – ők hozzák a hírnevet és az anyagi forrásokat is.
Az ipari kapcsolatok kiépítése rendkívül értékes tapasztalatnak bizonyult. Ennek különösen azért volt jelentősége, mert az amerikai akadémiai kutatás klasszikus célja elsősorban a tudományos publikáció. Ezzel szemben az ipari együttműködések konkrét, működőképes rendszerek szállítását követelik meg – jó, ha van publikáció, de nem ez a cél, hanem a kézzelfogható eredmény.
Az intézetünk fókuszában a megalapításától kezdve az ipari rendszerfejlesztés állt. Ehhez kiváló hátteret adott a műegyetemi múltam, ahol a kutatás-fejlesztési munkák mindig az eredmények szállíthatóságára és minőségére épültek. A már említett cégek mellett kiváló kapcsolatokat alakítottunk ki az autóipari szereplőkkel is, elsősorban a GM-mel. Ezeken az együttműködéseken keresztül sikerült a kezdeti időszakban finanszírozni a kutatásainkat. Ahogy növekedtünk, nem új oktatói állások révén bővültünk, hanem kutatók és kutatómérnökök csatlakozásával, akik fizetésüket nem az oktatásból, hanem kizárólag külső megbízásokból kapták. Az egyetem ezt a működésmódot támogatta, és lehetővé tette egy új karrierút kialakítását, amely akkoriban még kevéssé volt jellemző.
Az, hogy kezdettől fogva ipari kapcsolatokra támaszkodtunk, döntő szerepet játszott abban, hogy fenn tudtuk tartani a versenyképességünket. Ma is azon kevés akadémiai kutatócsoport közé tartozunk, amely képes nagy, komplex rendszerek megvalósítására és működtetésére.
A Vanderbilt egy kiváló hírű egyetem, de nekünk nemcsak más egyetemi kutatócsoportokkal kellett versenyeznünk, hanem profitorientált ipari kutatóintézetekkel is. Csak úgy maradhattunk talpon, ha felvállaltuk: mi mérnöki eredményeket szállítunk. Nálunk a hallgatók valódi projekteken dolgoznak együtt a kutatómérnökökkel – olyanokon, ahol a siker nem garantált, és ahol tényleges teljesítményre van szükség. Egy jó publikáció szép és szükséges eredmény, de nálunk a rendszereknek működniük is kell. Ez az értékrend jól illeszkedik a DARPA és más, úgynevezett „mission agency”-k elvárásaihoz, és az utóbbi időben egyre több alapkutatási intézmény – például az NSF – is elkezdte bevezetni a kihívásalapú programstruktúrát.
Ma már teljesen természetes számunkra, hogy ha megjelenik egy pályázati lehetőség, ipari partnereinkkel közös csapatot alakítunk, és együtt indulunk a projektekért folyó versenyben.
Ha visszatekint az elmúlt 30 évre, melyik projekt, melyik rendszer megvalósítására a legbüszkébb?
Szerencsére több olyan projektünk is volt, amelyre igazán büszkék lehetünk, de van néhány, amelyet külön is kiemelnék, mert meghatározó hatással volt ránk. 2010-ben például egy nagyszabású megbízást kaptunk a DARPA-tól: az volt a cél, hogy hozzunk létre egy tervezésautomatizálási rendszert kiberfizikai alkalmazásokhoz. A kihívás abban állt, hogy a rendszernek egy jármű teljes modellalapú tervezését kellett támogatnia.

Két évünk volt arra, hogy ezt a tervezésautomatizálási rendszert felépítsük – úgy, hogy integrálja mind a szükséges hardver-, mind a szoftverelemeket. A rendszert ráadásul webalapú, felhőszolgáltatásként működő környezetben kellett kialakítani, hogy bárhonnan elérhető és használható legyen. A DARPA ehhez kapcsolódva egy országos versenyt is meghirdetett: a mi eszközeinkre építve különböző csapatok nyújthattak be terveket, amelyeket mi automatikusan értékeltünk minden éjjel. A győztes csapat egymillió dolláros díjat kapott, a második helyezett 500 ezret – és így tovább. A versenyre több mint 300 csapat nevezett be, a nagyvállalatoktól a kis fejlesztői csapatokig. Végül egy háromfős csapat nyert, amelynek tagjai az Egyesült Államok különböző részein éltek.
A verseny célja túlmutatott önmagán. A DARPA arra volt kíváncsi, alkalmazható-e a kiberfizikai rendszerek tervezésében az a modell, amely a félvezetőiparban már működött: ebben a modellben a tervezőházak szoftveresen elkészítik és verifikálják a terveket, majd átadják őket a gyártóüzemeknek, amelyek fizikailag megvalósítják az integrált áramköröket. A kérdés az volt, működhet-e ez a struktúra összetett kiberfizikai rendszerek esetén is.
A másik kulcskérdés az volt, hol húzódnak a modellalapú tervezés határai. A válasz azért lényeges, mert a modellalapú tervezés elvileg lehetővé teszi, hogy a rendszertervezés, a szimulációk és a verifikációk döntő része számítógépes környezetben történjen – nem pedig úgy, hogy újra és újra működő példányokat kell megépíteni és tesztelni, ami komplex kiberfizikai rendszerek esetén rendkívül lassú és költséges iterációs folyamatot jelent. Természetesen a fizikai integráció és a tervek módosítása – a gyártási mellékhatások követése miatt – továbbra is kihívás marad, de az érdemi tervezés és tesztelés egyre nagyobb része virtuális térben történik.
Ez a rendkívüli intenzitású projekt négy évig tartott, és teljesen átformálta a kutatási fókuszunkat. A gyakorlatban tapasztaltuk meg, hol vannak a modellalapú tervezés valódi korlátai – és ez a felismerés indított el bennünket abban az irányban, hogy elkezdjük integrálni a mesterséges intelligencia új módszereit is a kiberfizikai rendszerek tervezési folyamataiba.
Január vége óta új elnöke van az Egyesült Államoknak. Az utóbbi időben a hírek arról szóltak, hogy az USA legnevesebb kutatóintézetei, tudományos szervezetei, ügynökségei komoly költségvetési megszorításokkal, esetenként a megszüntetéssel néznek szembe. Vannak-e esetleg ezzel kapcsolatban már saját tapasztalatai, tud-e beszélni az óceán túloldalán uralkodó hangulatról?
Tény, hogy a jelenlegi adminisztráció komoly átalakításokat kíván végrehajtani számos területen, és ez erőteljes átmeneti folyamatokat indított el – nemcsak az Egyesült Államokban, hanem globálisan is. Ezek az átmenetek természetesen nem tartanak örökké: részben le fognak csillapodni, részben pedig ki fog derülni, mely változások bizonyulnak működőképesnek, és melyek nem.
Mi is éppen most éljük át ezt az átmeneti időszakot. A nagy kutatásfinanszírozó ügynökségek ideiglenesen lelassultak; egy-két hónapon át nem indítottak új programokat, ami érthetően bizonytalanságot keltett a tudományos közösségekben – nálunk is. Úgy tapasztaljuk, hogy ezek a feszültségek, legalábbis a mi területünkön, kezdenek oldódni: sorra kapjuk visszaigazolt szerződéseinket. Bízom benne, hogy intézetünk viszonylag zökkenőmentesen fog áthaladni ezen az átalakuláson. Ezt részben arra alapozom, hogy kutatási területeink elismerten kritikus jelentőségűek a jövő szempontjából, részben pedig arra, hogy finanszírozási forrásaink mindig is ki voltak téve drasztikus és hirtelen változásoknak, amelyekhez gyorsan kellett alkalmazkodnunk.
Természetesen a változások különösen érzékenyen érintették a kutatói közösséget – főként az élettudományok és a társadalomtudományok területén –, ahol az erőforrások hagyományosan stabilak és kiszámíthatók voltak. Ők jelenleg is a bizonytalanság közepén vannak, ráadásul belső szakmai viták is nehezítik az előrelépést, mivel nem egyértelmű, hogy az új szakmai irányok valóban megfelelőek-e.
Az Egyesült Államok tudományos és technológiai hagyományai, infrastruktúrája és erőforrásai rendkívül mélyek és kiterjedtek. Hiszek abban, hogy ezek az átmeneti állapotok le fognak zárulni, és a helyzet stabilizálódni fog – mind Amerikában, mind globálisan.