Dizionario ICT

Un insieme di istruzioni definite per una sequenza di azioni semplici o sempre più complesse da eseguire. Può trattarsi di calcoli, elaborazione dati o automazione di attività ripetitive.
Un algoritmo adattivo rappresenta il passo successivo e può adattarsi a qualsiasi cambiamento nelle informazioni.

È chiamata anche modellazione predittiva. Utilizza l’analisi dei dati passati per elaborare una previsione dei risultati futuri. È basata su una combinazione di apprendimento automatico, statistiche e data mining. Può aiutare i brand a prevedere i problemi relativi ai marchi stessi o a rilevare i trend significativi non appena si verificano.

Macchine progettate in modo da comprendere, risolvere problemi e completare attività prendendo a modello i processi cognitivi umani. L’AI è stata sviluppata per consentire di automatizzare attività complesse sempre più ripetitive. Si tratta di attività per cui è comunque necessario prendere decisioni e comprendere la situazione. L’automazione lascia le persone libere di concentrarsi su attività più astratte, che una macchina non è in grado di svolgere.

Termine utilizzato per descrivere la crescita esponenziale dei dati. I requisiti dei big data sono in genere superiori alle capacità degli strumenti software comunemente utilizzati. È in ogni caso necessario riconsiderare le modalità di circolazione, raccolta, memorizzazione e analisi dei dati.

Un documento che introduce una proposta di cambiamento del protocollo Bitcoin, o l’aggiunta di una nuova caratteristica. Esso è il metodo standard e ufficiale per comunicare idee e proposte alla community Bitcoin.

Al livello base la blockchain è un tipo di database altamente specializzato, esso si inserisce nella più ampia classe dei ledger distribuiti. La blockchain differisce dai precedessori perché costruita come una catena di blocchi e perché, permettendo a parti non fidate di collaborare insieme, risolve il problema della doppia spesa con il Consenso di Nakamoto.

Tecnologia basata sulla ricerca relativa ai processi cognitivi umani. Studia come migliorare l’efficienza dell’AI e dei computer.

Un chatbot, denominato anche entità conversazionale artificiale (Artificial Conversational Entity, ACE), chat robot, talk bot, chatterbot o chatterbox, è un programma AI che imita la conversazione umana interattiva.
Automatizzando i processi aziendali, queste soluzioni si sono ampiamente diffuse per il servizio Clienti di base, la messaggistica istantanea e come assistenti virtuali intelligenti.

È il processo di individuazione dei pattern in enormi quantità di dati, ovvero nei big data. Si basa su una combinazione di AI, apprendimento automatico e database.

L’ambito di studio dedicato all’estrazione di conoscenze e insight dai dati tramite processi, algoritmi, sistemi e metodi scientifici.

Un supercomputer realizzato nel 1997 da IBM per giocare a scacchi. Venne progettato espressamente per battere, come notoriamente fece, l’allora campione mondiale e grande maestro di scacchi Garry Kasparov. All’epoca fu considerato una pietra miliare nello sviluppo dell’intelligenza artificiale.

Il deep learning (o apprendimento profondo) è attualmente l’evoluzione più recente dell’AI. L’apprendimento è basato sull’esempio e utilizza vari layer di unità di elaborazione non lineari per ottenere risultati eccezionali.

È un sistema di intelligenza artificiale progettato per replicare le capacità decisionali di un esperto in carne ed ossa. È costituito da una combinazione di due elementi: una base di conoscenze contenente regole e fatti prestabiliti e un motore inferenziale che applica le regole a fatti noti per stabilire nuovi fatti. È in grado di risolvere problemi specifici facendo riferimento a una libreria delle conoscenze disponibili.

L’HCI si occupa delle interazioni tra gli utenti e la tecnologia informatica. Combinando elementi di progettazione, psicologia e informatica, analizza il modo in cui gli esseri umani e i computer interagiscono.

La tecnologia di riconoscimento delle immagini è stata progettata per riconoscere loghi, persone, animali, paesaggi o oggetti. Come le soluzioni OCR, converte una fonte di dati insolita in risultati concreti.

Un elemento che percepisce l’ambiente circostante attraverso i sensori per poi agire su quell’ambiente. Questi sistemi AI possono essere complessi, come nel caso delle funzioni di riconoscimento di diversi volti disponibili su alcuni smartphone, oppure semplici, come un sensore della luce che rileva la luce ambientale e reagisce di conseguenza.

Tecnologie che ruotano intorno alla connettività dei diversi dispositivi, utilizzando internet e le reti come canale di comunicazione. Esempi di queste tecnologie sono la condivisione di documenti tra i dispositivi tramite il cloud computing e l’uso di un’app per accendere a distanza le luci in casa mentre si è in vacanza.

Abbreviazione di “List processing” (elaborazione di liste). È un linguaggio di programmazione sviluppato alla fine degli anni Cinquanta. È alla base dei diversi linguaggi di programmazione (ad esempio Common Lisp, Standard Lisp e molti altri) ed è ora ampiamente utilizzato nell’ambito dello sviluppo dell’intelligenza artificiale.

È il processo di automiglioramento (apprendimento) dell’AI, senza una programmazione esplicita. Spesso l’intelligenza artificiale avrà accesso a dati e li utilizzerà per apprendere autonomamente.

L’utilizzo di metodi di apprendimento automatico permette ai computer di apprendere e capire il linguaggio naturale parlato o scritto.

Settore dell’apprendimento automatico che si occupa della rilevazione di pattern o regolarità nei dati per facilitarne la classificazione. Viene utilizzato spesso come sinonimo di apprendimento automatico.

L’apprendimento per rinforzo è un tipo di data mining che ha scopi meno specifici. Gli obiettivi sono infatti più astratti, ad esempio “massimizzare le menzioni del brand”. Durante l’addestramento, l’AI apprende eseguendo delle azioni per raggiungere l’obiettivo e valutando il proprio contributo dopo ogni sforzo.

Due reti neurali congiunte e addestrate insieme per migliorare l’accuratezza dei dati attraverso la competizione reciproca. Una rete crea nuovi esempi, mentre l’altra cerca di sfidare gli esempi creati.

Ricerca e sviluppo di tecnologie che utilizzano il cervello umano come modello per creare sistemi di apprendimento automatico più efficienti e precisi.

La capacità di una macchina di interpretare i pattern del linguaggio vocale umano naturale e tradurli in un formato leggibile dalla macchina. È noto anche come riconoscimento vocale automatico (Automatic Speech Recognition, ASR), riconoscimento vocale del computer e conversione dell’audio in testo (Speech To Test, STT).

La capacità di una macchina di interpretare i pattern del linguaggio vocale umano naturale e tradurli in un formato leggibile dalla macchina. È noto anche come riconoscimento vocale automatico (Automatic Speech Recognition, ASR), riconoscimento vocale del computer e conversione dell’audio in testo (Speech To Test, STT).

È basata su una combinazione di elaborazione di linguaggio naturale (NLP), linguistica computazionale e analisi testuale, che permette di identificare ed estrarre informazioni soggettive da un contenuto. Permette di comprendere l’atteggiamento di una persona.

Sviluppato da Alan Turing negli anni Cinquanta, il test è stato ideato per vedere se le persone erano in grado di distinguere le interazioni con una macchina o con un essere umano. L’interpretazione standard prevede che un intervistatore ponga una domanda a un computer e a un essere umano, senza conoscerne l’identità. In seguito, si verifica se l’intervistatore è in grado di indicare correttamente quale interlocutore corrisponde all’AI in base ai risultati ottenuti.

Algoritmo addestrato per acquisire conoscenze in relazione a un’attività. Le conoscenze acquisite vengono poi applicate per completare un’attività diversa, ma correlata. Si potrebbe, ad esempio, addestrare un algoritmo per fargli riconoscere le immagini delle auto. In seguito, si potrebbero trasferire queste conoscenze utilizzandole per riconoscere dei veicoli simili (ad esempio, i camion).

L’unità di elaborazione visiva (VPU) è un tipo di microprocessore che accelera l’apprendimento automatico e le tecnologie AI. È stata creata per supportare alcune attività, quali l’elaborazione e il riconoscimento delle immagini.

Questo sito fa uso di cookie per migliorare l’esperienza di navigazione degli utenti e per raccogliere informazioni sull’utilizzo del sito stesso.