L'intelligenza artificiale a reti neurali nei veicoli a guida autonoma, ed il ruolo della finanza straordinaria nell'innovazione tecnologica

L’entusiasmo ed il fervore che si registrano  intorno ai veicoli a guida autonoma (AV) fanno venire in mente la corsa all’oro della seconda metà del XIX secolo negli Stati Uniti, e questo renderebbe già l’argomento estremamente interessante per dedicarvi una Newsletter, ma non è questa la sola ragione.

Questa breve rassegna finalizzata a dare un’idea generale sull’argomento, indicando alcuni dei player che hanno deciso di cimentarsi nella sfida, pur senza avere la benché minima pretesa di essere esaustivi, ci dà l’opportunità di fornire esempi molto concreti di come la finanza straordinaria possa giocare un ruolo estremamente rilevante per lo sviluppo dell’impresa, a maggior ragione in un contesto come questo, di elevatissima innovazione.

In tutto il mondo sono numerose le startup attive in quest’ambito. Che cosa fanno, di cosa si occupano e come si chiamano?

I veicoli a guida autonoma devono svolgere tutte le attività di guida che ad oggi sono a carico dell’uomo. Innanzitutto quindi “vedere” ed “interpretare” lo spazio circostante: la strada, la segnaletica stradale ed eventuali ostacoli che dovessero occupare la strada quali – solo per citarne alcuni – pedoni, animali, biciclette, moto, scooter, camion, auto …

 Sulla base di questa mappatura dell’ambiente circostante il veicolo dovrebbe poi adottare ed attuare una opportuna condotta di guida, con il fine di raggiungere la destinazione prestabilita, regolando velocità e direzione del veicolo, restando nello spazio a quest’ultimo destinato ed evitando gli ostacoli presenti nel rispetto del codice stradale.

Quindi, perdonateci la semplificazione, si tratta di vedereinterpretare e guidare.

Queste attività richiedono sistemi differenti ad esse dedicati. Partiamo dalla prima, la più intuitiva, lasciateci dire, “Vedere” lo spazio circostante. Per farlo sono necessari sistemi di sensoristica, quali telecamere e simili. Vediamo alcune di queste tecnologie.

La tecnologia più consolidata, quella delle telecamere, ha il vantaggio di poter riconoscere colori e caratteri, permettendo il successivo riconoscimento della segnaletica stradale. Ma le telecamere tradizionali, mono-obiettivo, non sono in grado di fornire una ricostruzione in 3D e la precisa misurazione delle distanze, cosicché a tal fine sono utilizzate tecnologie quali il Radar ed il Lidar. Recentemente però telecamere ad obiettivo multiplo, e come tali in grado di ricostruire un’immagine 3D, sembrano aver raggiunto gradi di precisione simili al Lidar. Un esempio è la telecamera a 16 obiettivi della società Light di Palo Alto; date un’occhiata al loro sito, è una fotocamera destinata anche al mercato consumer con caratteristiche sorprendenti.

I sistemi Lidar tradizionali consistono in uno o più laser infrarossi mobili che “perlustrano” lo spazio circostante rilevando con molta precisione le distanze e realizzando un’immagine 3D di alta precisione. La presenza di queste componenti mobili – anche 128 laser – costituisce un limite in termini di affidabilità e durata del macchinario. L’evoluzione tecnologica sta però portando a nuovi sistemi basati su laser a stato solido fissi anziché mobili, superando questo tipo di problema. Un esempio sono i prodotti di Innovitz, una società Israeliana che ad aprile 2018 ha sottoscritto una partnership con BMW, e di Robosense, una startup di Shenzhen (Cina) che ad ottobre 2018 ha raccolto $43,3 milioni (Series C) da Cainiao Logistics (la logistica di Alibaba per capirci), SAIC Motor e BAIC Group (entrambe Automotive), od il prototipo di Aeva, società di Mountain View (California).

La tecnologia Radar è una tecnologia consolidata, che utilizza radiofrequenze,  ha il vantaggio di non avere parti in movimento – al contrario del lidar – ma  ad oggi non era in grado di fornire una ricostruzione 3D dell’ambiente circostante sufficientemente precisa. Lo sviluppo di nuove antenne radar, con materiali ingegnerizzati in grado di realizzare dei coni di proiezione delle onde radio molto più stretti, sta consentendo di superare questo gap, come dimostrano i prodotti di Metawave, startup di Palo Alto (California) alla cui raccolta di capitali da $10 milioni a Maggio 2018 hanno partecipato i produttori automobilistici DENSO, Hyundai e Toyota o di Lunewave, startup di Tucson (Arizona) al cui seed funding da $5 milioni a settembre 2018 hanno partecipato BMW e Baidu.

Grazie a software appositi - denominati Sensor Fusion – tutte le informazioni provenienti da ciascuno dei sistemi di sensoristica, alcuni qui citati, sono integrate in un’unica rappresentazione dello spazio circostante, che il veicolo deve a questo punto essere in grado di “interpretare”.

Veniamo quindi al secondo aspetto, quello della ”interpretazione”, denominata Computer Vision. Sono oramai alcuni anni che sistemi di questo tipo sono silenziosamente entrati nell’uso quotidiano, si pensi ai sistemi di riconoscimento dei volti nelle macchine fotografiche digitali, o di autenticazione facciale nei computer, solo per citare i più comuni.

Anche in questo ambito la ricerca prosegue ed uno dei rami che paiono più promettenti è quello dell’intelligenza artificiale basata sulle Deep Neural Networks, software che simulano reti neurali multistrato il cui più grande ed eclatante successo è stato probabilmente conseguito da Google Deepmind, la società  di Google – frutto in realtà dell’acquisizione nel 2014 di un’azienda britannica fondata nel 2010 e denominata DeepMind Technologies – il cui algoritmo AlphaGo basato sull’approccio Reinforced deep learning nel 2016 ha battuto Lee Sedol – secondo giocatore di Go al mondo - con una quindicina di anni di anticipo rispetto alle più rosee previsioni.

Uno degli approcci utilizzati nella computer vision è quello della segmentazione semantica, che frammenta le immagini nelle loro componenti (Pedone, semaforo, automobili, biciclette, edifici, …). Di questo tipo è il software sviluppato da Mighty AI, una start up di Boston (Massachusetts), che a gennaio del 2017 aveva raccolto $14,3 milioni (Series B) per totali $27,3 milioni. Un sistema simile denominato ApolloScape è stato sviluppato da Baidù – la società proprietaria del principale motore di ricerca cinese. Citiamo inoltre Deepscale, di Berkeley (California), che ad Aprile 2018 ha raccolto capitali per $15 milioni (Series A) da fondi di venture capital specializzati nell’industria automobilistica e dell’autotrasporto, e Prophesee, di Parigi (Francia).

Per questa newsletter ci fermiamo qui, se volete che in una delle prossime newsletter affrontiamo brevemente i sistemi che si occupano della guida ed altri aspetti relativi alla guida autonoma segnalatecelo scrivendoci.

Vi lasciamo con un quesito: in tutto questo fervore le aziende italiane a che punto sono?

A febbraio 2018 è stato firmato il decreto che autorizza e disciplina in Italia i test di auto a guida autonoma e che all’ultimo capoverso dell’art. 14 comma 1 recita: “Nei casi in cui la domanda è presentata da un soggetto diverso dal costruttore, il richiedente presenta il nulla osta alla sperimentazione rilasciato dal costruttore del veicolo”, ossia una startup innovativa che volesse cimentarsi dovrebbe chiedere l’autorizzazione per le sperimentazioni ad un proprio concorrente; un bel modo di incentivare le nuove iniziative …

Scarsa lungimiranza dei nostri legislatori a parte, chi sono i giocatori che la nazionale italiana ha messo in campo?

A quanto ci risulta ST Microelectronics produce componentistica per i sistemi radar e lidar.

FCA, GM, TIM e l’Associazione Nazionale Filiera Industria Automobilistica (ANFIA) sono congiuntamente al lavoro su di un progetto che a fine 2018 prevedeva la sperimentazione di demo car a Torino e in Campania per valutare se le prove avrebbero potuto essere poi svolte nelle strade aperte al traffico. Purtroppo sembra vi siano dei ritardi imputabili al ministero dei trasporti; si slitterà probabilmente al 2019.

Il gruppo di ricerca del professor Alberto Broggi dell’Università di Parma era stato tra i pionieri della disciplina, con una Lancia Thema che nel 1994 guidò da sola sul 94% del tracciato della Mille Miglia. Una troupe del TG1 seguì una delle tappe del veicolo e nel TG della sera la notizia, ricorda il professor Broggi, fu data “come ultima notizia del giorno, dopo quella sul gatto più grasso del mondo”. A quanto pare anche alla RAI non brillavano in lungimiranza …

Da quell’esperienza nacque VisLab, acquisita nel 2015 dall’americana Albarella per $30 milioni. Le sperimentazioni sino al 2018 erano rimaste a Parma, ma dopo il decreto Smart Road prima citato saranno con buona probabilità trasferite in California … se le strade sono Smart, il decreto e chi lo ha scritto lo sono evidentemente meno, a meno di modifiche al testo che al momento non ci risultano!

Se avete informazioni su Startup e gruppi di ricerca italiani che lavorano in questo campo scriveteci, cercheremo di fare degli approfondimenti ed inserirli nella prossima newsletter che dedicheremo all’argomento. Se nel frattempo premete il pulsante "Mi Piace " che si trova qui sotto a destra, o quello per iscriversi alla nostra Newsletter, potrete essere informati ogni qualvolta uscirà un nostro nuovo articolo

Metti Mi Piace alla pagina facebook di Atlhas Finance


  • +39 0438 173 66 96
  • Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.
  • Lun - Ven 9:00 - 19:00