Software di Progettazione

I software per la simulazione della luce

Photon Mapping - Creazione mappa tridimensionale e rendering (fonte it.wikipedia.org/wiki/Ptoton_mapping)
Photon Mapping – Creazione mappa tridimensionale e rendering (fonte it.wikipedia.org/wiki/Photon_mapping)

La progettazione della luce è in costante e continuo mutamento, sia per i sempre nuovi aspetti coinvolti nel progetto, sia per la complessità sempre maggiore che da essi deriva; fortunatamente l’evoluzione tecnologica degli ultimi cinquant’anni, soprattutto in campo elettronico ed informatico, ha messo a disposizione dei progettisti strumenti un tempo impensabili

Gli strumenti di lavoro oggi a disposizione del progettista sono sempre più potenti ed accurati, in grado di descrivere matematicamente la complessa e controversa fisica della luce ed il suo rapporto intrinseco con i materiali, di rappresentare fedelmente mediante immagini “sintetizzate” ambienti e situazioni luminose realmente esistenti (rendering “fotorealistici”) o puramente progettuali (rendering  “previsionali”), e dedicati ai principali ambiti specifici della progettazione illuminotecnica: progetti per ambienti Interni, ambienti Esterni, progetti Stradali, progetti per Gallerie Stradali, tenendo sempre in debita considerazione le relative normative e certificazioni vigenti, nazionali e internazionali, riferite sia a luce artificiale sia a luce  naturale, sino alla valutazione dei consumi energetici degli impianti di illuminazione.

Comprendere in che modo “ragionano” gli strumenti informatici che utilizziamo, ci aiuta ad accettarne i limiti e i compromessi necessari per descrivere matematicamente i fenomeni reali. In ambito illuminotecnico, essendo indispensabile poter valutare differenti soluzioni progettuali sulla base dei rispettivi valori numerici di luminanze e illuminamenti nonchè dei rendering previsionali per visionarne gli effetti luminosi, è lecito parlare di simulazione (rendering) se e solo se gli algoritmi di calcolo utilizzati sono basati effettivamente sulla fisica della luce.

Gli algoritmi di calcolo: come funzionano

Gli algoritmi di calcolo sono sostanzialmente artifici matematici, e come tali sono in grado di tenere in considerazione solamente alcune tra le molteplici variabili coinvolte effettivamente all’interno di un ambiente. Esistono diversi modelli matematici sviluppati per simulare la riflessione della luce sulle geometrie presenti nell’ambiente, che concettualmente vengono identificati come:

1) algoritmi di primo ordine o modelli di illuminazione locale, nel caso in cui si consideri soltanto l’illuminazione diretta della luce proveniente dalle sorgenti luminose e la prima riflessione sulle superfici presenti nell’ambiente;

2) algoritmi di secondo ordine o modelli di illuminazione globale, nel caso in cui si considerino le riflessioni multiple tra le diverse superfici presenti, necessarie per simulare quegli effetti luminosi talvolta indispensabili per la percezione dell’ambiente, tenendo in considerazione anche la qualità e la tipologia dei differenti materiali presenti in un ambiente reale, con le relative leggi/regole fisiche che li caratterizzano.

Un po’ di storia… I primissimi passi del lungo cammino degli algoritmi di calcolo che oggi usiamo nei nostri computer, risalgono sino agli anni ‘20 relativamente agli studi matematici di scambi energetici (termici) fra superfici idealmente diffondenti.  Alla fine degli anni ‘40, Moon e Spencer realizzarono la prima immagine in “Radiosity”, calcolando a mano l’energia trasferita fra le superfici di una stanza vuota e quindi la loro relativa luminanza, ed interpretando i risultati per ritagliare “tessere da mosaico” dalla mazzetta colori Munsell, incollandole insieme per comporre l’immagine (figura 1).

Figura 1 - Moon e Spencer, 1948 - (fonte www.helios32.com/resources.htm)
Figura 1 – Moon e Spencer, 1948 – (fonte www.helios32.com/resources.htm)

Negli anni ‘50 il procedimento venne applicato ai calcolatori, ma sempre con lo scopo di indagare i trasferimenti di energia; ed è solo a metà degli anni ‘80 che questi concetti vennero applicati alla produzione di immagini mediante i computer e quindi adottati poi anche dai progettisti di impianti di illuminazione come strumenti di calcolo della luce e rappresentazione grafica del progetto.

Calcolo quantitativo & Radiosity

La Radiosity (figura 2) è ancor oggi alla base di tutti i programmi di calcolo “quantitativo”, è un algoritmo molto potente, veloce e accurato, che viene utilizzato principalmente per l’analisi “quantitativa” del progetto: valori di illuminamento e luminanza su superfici e piano di lavoro, abbagliamenti UGR, GR, TI, riferimenti impostazioni di progetto e di calcolo in relazione alle normative vigenti nei diversi Paesi, etc).

Figura 2 - Descrizione grafica e rendering in Radiosity
Figura 2 – Descrizione grafica e rendering in Radiosity

Il suo grande limite è che i materiali sono tutti perfettamente diffondenti (lambertiani, privi di riflessi speculari e trasparenze), il suo grande vantaggio è che un materiale lambertiano “appare sempre uguale” indipendentemente dalla posizione dalla quale lo si osserva.

Pertanto un processo di calcolo Radiosity è in grado di restituire un ambiente di progetto illuminato tridimensionale, all’interno del quale è possibile “navigare” (spostarsi e ruotare la vista lungo le tre dimensioni), permettendo di salvare animazioni “walk-through” e immagini previsionali e in falsicolori necessarie alla comunicazione del progetto.

Calcolo qualitativo & Raytracing

Il Raytracing muove i suoi primi passi alla fine degli anni ‘60, (1968 – Arthur Appel, ray casting), ma solo nel 1979 si ha la svolta decisiva con Turner Whitted che di fatto mise a punto l’algoritmo che noi tutti oggi conosciamo col nome Raytracing (recursive raytracing). (figura 3).

Figura 3 - Turner Whitted recursive raytracing - 1980 - fonte internet
Figura 3 – Turner Whitted recursive raytracing – 1980 – fonte internet

Il Raytracing è l’algoritmo per eccellenza per la realizzazione di rendering, ovvero l’analisi “qualitativa” del progetto.

I vantaggi principali sono legati alla rappresentazione dei materiali, vetri, metalli, plastiche, specchi, e la loro interazione con la luce considerando le loro specifiche caratteristiche fisiche.

Il limite risiede nel modo in cui viene processata la luce all’interno degli ambienti: per ottimizzare i tempi di calcolo, viene definito un “piano immagine” mediante un punto di osservazione (coordinate, direzione vista e angolo focale) e la risoluzione in pixel del rendering da realizzare, ad es 800 x 600.

Verranno quindi tracciati a partire dal punto di osservazione 800 x 600 raggi che passeranno per ciascun pixel del piano immagine e che andranno a colpire le diverse superfici presenti nell’ambiente.

Ne consegue che un processo di calcolo Raytracing corrisponde ad un (ed uno solo) rendering previsionale (figura 4).

Figura 4 - Descrizione grafica e rendering in Raytracing
Figura 4 – Descrizione grafica e rendering in Raytracing

L’avvento di Radiance

Verso la metà degli anni Ottanta, Greg Ward del Lawrence Berkeley National Laboratory (California) iniziò lo sviluppo del programma di simulazione Radiance, il quale partendo dal Raytracing, ebbe l’intuizione di suddividere la parte diretta della luce emessa dalle sorgenti presenti nell’ambiente (Direct Raytracing), dalla parte indiretta derivante dalle interriflessioni fra le superfici dell’ambiente (Irradiance chaching), riutilizzabile per eseguire successivi rendering dello stesso ambiente da punti di vista diversi.

Fu inoltre pioniere del formato immagine HDR (High Dynamic Range), consentendo la possibilità di “manipolare” i rendering ottenuti, ad esempio regolandone l’esposizione, o impostando filtri legati alle diverse peculiarità percettive dell’occhio umano, o sommando insieme immagini diverse di una stessa scena con accensioni distinte o luci colorate per ottenere scenografie luminose.

Se dal punto di vista del calcolo meramente quantitativo, la Radiosity ancor oggi viene considerata come algoritmo sufficientemente accurato, dal punto di vista qualitativo il Raytracing può non risultare soddisfacente per simulare realisticamente l’interazione della luce con oggetti di materiali diversi.

Dal Photon Mapping al Photon Shooting

Alla fine degli anni Novanta sono stati studiati e sviluppati altri algoritmi di calcolo al fine di ottenere rendering previsionali per la presentazione dei progetti sempre più “foto realistici”, fra i quali il “Photon Mapping”, un algoritmo di illuminazione globale in due passaggi sviluppato da Henrik Wann Jensen, divenuto in pochi anni l’algoritmo “principe” per simulare particolari effetti luminosi quali la rifrazione della luce attraverso una sostanza trasparente come vetro e acqua, o le interriflessioni diffuse tra oggetti illuminati, o ancora la dispersione sub-superficiale della luce in materiali traslucidi, o alcuni degli effetti causati da particolato come fumo o vapore acqueo.

Ma rappresentare fedelmente gli effetti controversi della fisica della luce è assai dispendioso in termini di risorse e tempi di calcolo, pertanto negli anni successivi sono state sviluppate sempre nuove ottimizzazioni e migliorie dell’algoritmo Photon Mapping per renderlo più affidabile e veloce: Progressive Photon Mapping, Adaptive Progressive Photon Mapping e Photon Shooting (vedi immagine di apertura).

Il motivo per cui esistono più algoritmi risiede nelle loro differenze nel considerare la natura stessa della luce, quali fra le molteplici variabili in gioco utilizzare, quali compromessi accettare per la rappresentazione dei materiali e della loro interazione con la luce, e così via, cercando di volta in volta di sfruttare le diverse peculiarità degli algoritmi in base al tipo di progetto.

Ad oggi Radiosity, raytracing, Photon Mapping e Photon Shooting sono la base degli algoritmi per i motori di calcolo dei più conosciuti programmi di Rendering e di Simulazione della luce, con le debite modifiche, ottimizzazioni e migliorie che le diverse Software House hanno ritenuto opportuno fare. Il ruolo del progettista diviene in parte anche quello di conoscere potenzialità e limiti degli strumenti utilizzati, in modo da valutarne l’effettivo apporto durante la progettazione.

(a cura di Gualtiero Scrannilaschi)

Il Testimone al Lettore

Fatto 100 il numero degli utilizzatori, in quale modo e con quali percentuali è possibile ripartire oggi le tipologie professionali dei differenti utilizzatori di sistemi software e quali tipologie di operatori hanno fatto riscontrare i tassi di crescita più significativi negli ultimi anni? 

Non è semplice desumere e ripartire in diverse categorie professionali gli utilizzatori di programmi dedicati alla simulazione della luce. Sebbene i dati a disposizione derivino principalmente dalle software house stesse, è lecito in questo caso presumerne la bontà, ed interpolando le varie informazioni raccolte lo scenario che ne risulta è il seguente:

29% Imprese di Ingegneria e Contract

26% Progettisti Illuminotecnici e Lighting Designer

12% Architetti

10% Aziende produttrici di sorgenti e apparecchi di illuminazione

10% Liberi Professionisti e Periti

  9% Scuole e Studenti

  3% Fornitori di Materiale Elettrico e Installatori

  1% Amministrazioni ed Enti Pubblici

Quali fattori differenziano un software dedicato alla progettazione illuminotecnica rispetto ad un pacchetto software non specifico dedicato alla progettazione architettonica?

I principali programmi di Modellazione e Rendering non sono basati sulla fisica della luce e sono stati concepiti ponendo l’accento sul risultato da ottenere piuttosto che sulle tecniche utilizzate per realizzarlo.

Gli artifici studiati e sviluppati per rappresentare particolari effetti luminosi non considerano valori fisicamente realistici, sia relativamente alle sorgenti luminose e alla luce d’ambiente, sia alle peculiarità fisiche dei materiali, e sebbene consentano agli utenti di ottenere rendering foto realistici facilmente e rapidamente, non possono fornire indicazioni certe sui valori illuminotecnici risultanti.

In ambito illuminotecnico, è indispensabile poter valutare differenti soluzioni progettuali sulla base dei rispettivi valori numerici di luminanze e illuminamenti nonchè dei rendering previsionali per visionarne gli effetti luminosi, ed è lecito parlare di simulazione se e solo se gli algoritmi di calcolo utilizzati sono basati effettivamente sulla fisica della luce.

Qual è il livello di approssimazione raggiunto oggi dai sistemi software più evoluti rispetto al risultato finale reale di progetto? 

I programmi di Simulazione della Luce devono operare ovviamente approssimazioni di vario genere rispetto alle molteplici variabili fisiche in gioco rispetto ad un ambiente reale; ne consegue che ogni motore di calcolo, per quanto potente ed accurato sia, abbia in sé una piccola percentuale di errore.

Esistono numerosi documenti di validazione legati ai più popolari programmi di simulazione e riferiti a procedimenti di verifica indicati in alcune normative internazionali (una fra tutte: CIE 171:2006), e da ciascuno emerge chiaramente che l’affidabilità e l’accuratezza di un programma dipende dallo specifico caso studio (progetto) in esame; l’errore rispetto alla misurazione reale può varia mediamente da un massimo del 5% (in casi estremi si arriva anche fino al 7%) fino ad un minimo dello 0,5%.

Uno scarto del 5% è più che accettabile ma si tenga presente che molto spesso, la quota maggiore che concorre all’errore viene innescata dallo stesso progettista, per mancanza di dati accurati di input necessari al progetto (come ad esempio il grado di riflessione delle superfici di un ambiente).

Per visionare le schede dei differenti software

 

[contact-form-7 404 "Not Found"]

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here