In arrivo, si fa per dire, visto che sarà oprativo sui 5 gg entro la fine dell'anno.
Versione beta, sia chiaro, poi probabilmente tenteranno di andare anche lungo periodo.
Ma il modello incuriosisce non poco, sia perché si tratterebbe di un progetto con alle spalle nomi altisonanti (NCAR e IBM), ma soprattutto perché conterrebbe importanti elementi innovativi, quali:
1) una griglia variabile, ossia una definizione che andrà da 3 a 10km, in sostanza scendendo fino alla definizione di un local model, soprattutto sulla terraferma.
Il tema della definizione spaziale (sia orizzontale che verticale) di un modello atmosferico, è un tema di capacità di calcolo, perché far funzionare un modello significa di fatto riprodurre per ogni box della griglia il comportamento del sistema e questo comporta calcoli al limite del sostenibile con le tecnologie attuali.
Ma è anche – forse soprattutto – un tema di conoscenza e riproduzione delle dinamiche atmosferiche alle dimensioni della definizione del modello, sotto la quale, nulla può essere “risolto” ma deve essere necessariamente sviluppato in base a processi standard, definiti parametrizzazione.
Per esempio, la bolla d’aria che dà origine ad un cumulo, che poi diviene una nube ad elevato sviluppo verticale e poi diviene un temporale e forse anche una supercella, è qualcosa di poche decine di metri di diametro, così come il singolo temporale ha o può avere in effetti poi una dimensione di pochi chilometri. Quindi una cella di 10Km di diametro potrà avere al suo interno molti temporali, tutti dal comportamento – diciamo così – standard, mentre una cella di 3km può risolvere il singolo temporale in funzione delle dinamiche che lo hanno generato e lo sostengono.
2) l’utilizzo delle GPU, Graphic Processing Units, quelle dei videogiochi per capire, al posto delle classiche CPU, con le prime che sono molto più performanti nel calcolo.
3) frequenza di aggiornamento mai vista prima, addirittura una corsa ogni ora, contando sull’assimilazione di un numero altissimo di informazioni, quelle provenienti addirittura da smartphone e/o da stazioni amatoriali.
Per far questo sarà necessario un serio algoritmo di controllo qualità.
I dubbi:
scendere a 3km per risolvere la convezione con un modello idrostatico (i GM sono idrostatici), non è un esperimento alquanto bizzarro, visto che tutti i local model sono appunto non-idrostatici, proprio per poter risolvere i moti verticali di piccola scala che sono all’origine della convezione stessa.
Sulla frequenza di aggiornamento, verrebbe da dire cui prodest, visto che immagini ben definite dello stato iniziale dell’atmosfera, in cui quindi oltre alle osservazioni orarie, ai satelliti ed agli aeroplani, entrano anche le osservazioni sinottiche e, soprattutto, i radiosondaggi, sono disponibili solo ogni sei ore, anzi, quelle delle 12 e delle 24 sono certe, le altre molto meno. Con un’analisi “incerta” è difficile che possa essere “più certa” la previsione, ma anche questo si vedrà con la verifica.
L'articolo intero su http://www.climatemonitor.it/?p=50058