Programmazione.it è lieta di ospitare l'Oracle Developer's
Point, sito nato in collaborazione con Oracle.
Bioinformatica ed Intelligenza Artificiale
inserito da Ignazio Licata
-licata«@»programmazione.it- il 25-12-2004 ore 01:35
lingua:
Italiano tipologia:
News
In termini generali, l'intelligenza può essere
definita come la capacità di connettere in un quadro concettuale
unitario una serie di dati, in modo da formare un frame dove ogni
elemento è legato ad un altro in una sequenza suscettibile di
giustificazione razionale ed aderente a dati osservativi in modo
inter-soggettivo. Utilizzando una definizione volutamente "ampia", è
possibile trovare una nuova e più moderna accezione dell'IA, come la
disciplina dei modelli formali di produzione della conoscenza.
Abbiamo più volte sottolineato come questa concezione
dell'IA rappresenta il suo aspetto autenticamente innovativo
rispetto alla vecchia idea di "macchina intelligente", in voga nel
primo periodo "promozionale" dell'IA "forte". Anzi, la possibilità
di considerare interazioni uomo-macchina sempre più flessibili ed
efficienti dipende proprio dalla capacità degli scienziati
cognitivi, di fornire buone teorie sul modo di procedere della mente
umana.
Una disciplina che in questi ultimi anni chiama in
causa l'IA nei suoi aspetti teorici ed applicativi è la biologia.
Sotto il profilo teorico sono state proprio le difficoltà a far
rientrare la biologia all'interno di un approccio riduzionistico, a
guidare anche lo studio della mente verso la nozione di apertura
logica, ossia l'insufficienza di poter comprendere le strutture
viventi- e dunque anche i processi cognitivi- considerando soltanto
l'apertura termodinamica; è necessario invece considerare i molti
livelli di interazione sistema-ambiente ed il gioco di vincoli
legati all'inter-relazione tra i due. I fenomeni genuinamente
emergenti, non riconducibili ad una semplice "somma" lineare delle
parti in gioco, hanno a che fare con un livello molto alto di
apertura logica, in grado di considerare esplicitamente il gran
numero di stimoli-risposte di un sistema biologico situato in un
ambiente. Un esempio si trova nella robotica evolutiva, dove il
"sistema cognitivo" del robot cresce in complessità man mano che
l'interazione con il mondo diventa sempre più ampia, fino a produrre
comportamenti impredicibili a partire dall'analisi dello stato
iniziale robot + mondo.
Un tentativo teorico interessante di
cogliere questi aspetti peculiari dei sistemi viventi è stato fatto
da Maturana e Varela con la loro teoria dell'autopoiesi, centrata su
due punti fondamentali: 1) il vivente è una forma di
organizzazione caratterizzata da relazioni a più livelli tra gli
elementi che costituiscono il sistema; b) un sistema vivente ha
un hardware in grado di sostenere tramite dissipazione ed
accrescimento della struttura materiale i vari livelli di
organizzazione.
E' interessante notare la convergenza tra
questa visione e la nozione di apertura logica, poiché è ben
rimarcato che un processo vivente non è la sua struttura materiale,
ma questa piuttosto è il "supporto" di una complessa rete di
relazioni dinamiche. Queste teoria oggi sono messe alla prova
dal gran numero di dati sperimentali che costituisce il "cuore"
della biologia moderna, e che è esemplificato dalle varie aree in
rapida espansione, le cosiddette "omics": genomics, proteomics,
metabolomics, e così via. In tutti questi casi si pone il problema
di comprendere in che modo un sistema, ad esempio il DNA, è
funzionalmente connesso ad altri sistemi, come la rete di
interazioni proteiche, e questi ultimi, a loro volta, sono aspetti
di reti ancora più complesse, come i processi metabolici.
Ogni modello matematico "chiuso", per quanto raffinato esso
sia, che non tiene conto di questo "interfacciamento" tra sistemi
diversi, è destinato a successi parziali che progressivamente
possono trasformarsi facilmente in false piste. Come è stato notato
da Leroy Hood e Hwa Lim, oggi la biologia sta passando da una fase
di acquisizione di dati a quella dell'organizzazione degli stessi in
contesti teorici coerenti; passo necessario anche dal punto di vista
di applicativo, che richiede lo sviluppo di nuovi strumenti di
lavoro teorici.
In questa attività l'informatica ed i
modelli computazionali sono chiamati a più livelli, assieme ad un
approccio sistemico-cibernetico più maturo. Si tratta essenzialmente
di studiare dei flussi informativi distribuiti tra domini diversi e
questo rende necessaria una mentalità inter-disciplinare assai
raffinata. Si pone il problema delle banche dati, dei motori di
ricerca e di linguaggi più "agili", in grado di selezionare
velocemente il tipo di dati, in relazione non soltanto all'oggetto
studiato, ma soprattutto al contesto in cui questo è significativo.
Codesto problema è strettamente connesso con quello ben noto in
informatica della "composizionalità", ossia la possibilità di
definire la semantica di una proposizione "composta" in termini
della semantica dei suoi elementi e così via in una catena top-down
fino agli elementi atomici, senza ambiguità.
Abbiamo visto
che le nozioni di apertura logica ed emergenza rende insoddisfacente
questa definizione riduzionista di composizionalità, e questo ha
stimolato nuovi indirizzi di ricerca nello sviluppo di linguaggi di
programmazione, manipolazione e simulazione orientati agli oggetti.
Ad esempio, la possibilità di definire nuovi "profili" in ULM
(Unified Modeling Language), ha reso il linguaggio interessante nel
modellare i processi biologici e ideale per supportare dei modelli
matematici molto promettenti in questo tipo di studi, come le
algebre di processo e le reti di Petri.
Altri aspetti
interessanti riguardano lo studio del folding protein, le reti neurali e la statistica.
Com'è noto, per folding protein si intende quel complesso di
trasformazioni strutturali spontanee che portano una macromolecola
da una struttura disordinata a quella struttura tridimensionale in
cui è in grado di svolgere le sue funzioni. E' plausibile ritenere
che queste imprevedibili configurazioni dipendano in modo complesso
dall'ambiente in cui la proteina è immersa. Si tratta dunque di un
classico problema di apertura logica. Non esistono a tutt'oggi
teorie "fondamentali" in grado di fare predizioni efficaci su queste
"aggrovigliate" trasformazioni, teorie basate, ad esempio, sulle
caratteristiche "microscopiche" atomico-molecolari. Bisogna dunque
ricorrere a strumenti "globali" di tipo mesoscopico, basati
essenzialmente su tecniche statistiche in grado di offrire una buona
corrispondenza tra topologie e tempi osservati e calcolo della loro
probabilità di realizzarsi.
Si tratta dunque di stabilire
correlazioni tra pattern e questo è il campo d'eccellenza delle reti
neurali. Ricordiamo che le reti neurali sono strumenti ideali per
trattare situazioni di emergenza, infatti le "deformazioni"
dinamiche dipendono dal gioco di input-output legato ai parametri
della rete ed agli stimoli in ingresso. L'attività teorica e di
simulazione nel campo del folding protein e delle reti neurali è
oggi uno dei punti più avanzati della ricerca in bioinformatica;
oltre ad essere estremamente efficace nei risultati del genere
"omics", favorisce anche lo sviluppo di nuovi modelli di reti
neurali e soprattutto di nuove concezioni nell'usarle.
Da un
punto di vista epistemologico, infatti, si è fatta spesso una
distinzione troppo netta tra teorie "fondamentali" da una parte, in
grado di offrire spiegazioni dettagliate in base ad una ben definita
gerarchia di conoscenza acquisite sui vari livelli della
fenomenologia in studio, e modelli "galleggianti" che fanno uso di
strumenti statistici, i quali suggeriscono "correlazioni" e "vanno
bene finché non si trova qualcosa di meglio".
In realtà,i
fenomeni di emergenza intrinseca tipici dei sistemi viventi e dei
processi cognitivi ci insegnano proprio che una "teoria definitiva",
un singolo modello matematico valido per ogni range, può non
esistere! Ed è dunque utile fare con le reti neurali quello che la
nostra mente fa ogni volta che si trova davanti ad un insieme di
dati, siano essi posizioni dei pezzi su una scacchiera, punti su un
grafico o comportamenti di altri agenti intelligenti: cercare
correlazioni non tanto astrattamente "vere", quanto utili e feconde
per una previsione o una finalità specifica.
La sinergia tra
biologia ed informatica sta rivelando dunque la necessità e
l'utilità di un approccio inter-disciplinare, che ha ricadute enormi
non soltanto sulle discipline "di partenza" (organizzazione dei
campi "omics", sviluppo di nuovi linguaggi orientati agli oggetti ed
ai processi), ma anche sull'intera teoria dei sistemi complessi, di
cui l'intelligenza artificiale è oggi a buon diritto assieme
preludio storico e punta avanzata. Il confronto con i sistemi
logicamente aperti ci ricorda che l'intelligenza non può essere
"catturata" da un'unica teoria, ma è piuttosto lo studio della
pluralità delle strategie cognitive in relazione all'infinita
sorgente di problemi posta dal mondo.
Bravo Ulisse! Sono d'accordo. Secondo me questo e'
un articolo plagiato e ovviamente tradotto dall'inglese. Questo
articolo e' stato inviato alla redazione con il semplice motivo di
far credere alla gente che l'autore deve essere un tipo con
intelletto da bestia. E' cosi' ovvio!
Il Suo articolo sull'Intelligenza Artificiale mi
fa venire in mente un aneddoto su A.Einstein. "Una cosa l'hai
veramente capita quando sarai capace di spiegarla anche a tua
nonna." Spero che questo non La offenda, con stima i miei piu'
cordiali saluti. Ulisse.
gia'. Io per esempio ce l'ho con il mio capo che
mi da sempre lavori del cavolo. L'altrio giorno mi ha chiesto di
scrivere un rapporto sull'efficienza delle farfalle.
pubblicità | chi siamo | dicono di noi | copyright | privacy | contatti Copyright Programmazione.it 1999-2004. Tutti i
diritti riservati. Testata giornalistica registrata col N. 569 presso il
Tribunale di Milano in data 14/10/2002. Il nomi "Programmazione.it" e "Pit"
unitamente al logo sono marchi registrati da Filippo Fadda. Pagina generata
in 0.176 secondi. Sito ottimizzato per Mozilla
Firefox.