Riduzione della dimensionalità non lineare: Tecniche avanzate per migliorare la rappresentazione dei dati nei sistemi robotici

1: Riduzione della dimensionalità non lineare: esplora i concetti fondamentali e l'importanza di ridurre i dati ad alta dimensionalità per un'analisi più semplice.


2: Mappa lineare: introduce le basi della mappatura lineare e il suo ruolo nella riduzione della dimensionalità dei dati nell'apprendimento automatico.


3: Macchina a vettori di supporto: scopri come le macchine a vettori di supporto applicano la riduzione della dimensionalità nelle attività di classificazione e nel riconoscimento di pattern.


4: Analisi delle componenti principali: approfondisci la tecnica PCA per trasformare i dati in un set di variabili linearmente non correlate.


5: Isometria: esamina come le tecniche isometriche preservano le distanze tra i punti riducendo al contempo le dimensioni dei dati.


6: Riduzione della dimensionalità: comprendi l'ambito più ampio della riduzione della dimensionalità e le sue applicazioni in vari campi.


7: Incorporamento semidefinito: studia la programmazione semidefinita e la sua connessione ai metodi di riduzione della dimensionalità.


8: Metodo kernel: scopri la potenza dei metodi kernel nella gestione delle relazioni non lineari nella riduzione dei dati.


9: Analisi delle componenti principali del kernel: esplora la capacità di KPCA di eseguire la riduzione della dimensionalità in uno spazio di feature ad alta dimensionalità.


10: Continuazione numerica: scopri come le tecniche di continuazione numerica aiutano a comprendere i sistemi ad alta dimensionalità.


11: Clustering spettrale: scopri come il clustering spettrale sfrutta la riduzione della dimensionalità per raggruppare punti dati simili.


12: Isomap: uno sguardo a Isomap, una tecnica che combina il ridimensionamento multidimensionale con distanze geodetiche per la riduzione della dimensionalità.


13: Lemma di Johnson-Lindenstrauss: approfondisci la matematica del lemma di Johnson-Lindenstrauss, che assicura che la riduzione della dimensionalità mantenga le proprietà geometriche.


14: Modello a cascata lineare-non lineare di Poisson: studia come questo modello integra metodi lineari e non lineari nella riduzione della dimensionalità.


15: Allineamento di collettori: scopri l'allineamento di collettori e la sua importanza nell'allineamento dei dati da diversi domini nella riduzione della dimensionalità.


16: Mappa di diffusione: comprendere come le mappe di diffusione utilizzano il processo di diffusione per la riduzione della dimensionalità in set di dati complessi.


17: Incorporamento stocastico di vicini Tdistributed: esplorare la capacità di tSNE di ridurre la dimensionalità preservando le strutture locali nei dati.


18: Incorporamento kernel delle distribuzioni: studiare come l'incorporamento kernel consente la riduzione della dimensionalità sulle distribuzioni, non solo sui set di dati.


19: Proiezione casuale: un approccio pratico alla riduzione della dimensionalità che si basa su proiezioni casuali per un calcolo rapido.


20: Regolarizzazione manifold: apprendere le tecniche di regolarizzazione manifold e il loro impatto sull'apprendimento da dati ad alta dimensionalità.


21: Modellazione dinamica empirica: scoprire come la modellazione dinamica empirica aiuta nella riduzione della dimensionalità tramite l'analisi dei dati delle serie temporali.

1146722385
Riduzione della dimensionalità non lineare: Tecniche avanzate per migliorare la rappresentazione dei dati nei sistemi robotici

1: Riduzione della dimensionalità non lineare: esplora i concetti fondamentali e l'importanza di ridurre i dati ad alta dimensionalità per un'analisi più semplice.


2: Mappa lineare: introduce le basi della mappatura lineare e il suo ruolo nella riduzione della dimensionalità dei dati nell'apprendimento automatico.


3: Macchina a vettori di supporto: scopri come le macchine a vettori di supporto applicano la riduzione della dimensionalità nelle attività di classificazione e nel riconoscimento di pattern.


4: Analisi delle componenti principali: approfondisci la tecnica PCA per trasformare i dati in un set di variabili linearmente non correlate.


5: Isometria: esamina come le tecniche isometriche preservano le distanze tra i punti riducendo al contempo le dimensioni dei dati.


6: Riduzione della dimensionalità: comprendi l'ambito più ampio della riduzione della dimensionalità e le sue applicazioni in vari campi.


7: Incorporamento semidefinito: studia la programmazione semidefinita e la sua connessione ai metodi di riduzione della dimensionalità.


8: Metodo kernel: scopri la potenza dei metodi kernel nella gestione delle relazioni non lineari nella riduzione dei dati.


9: Analisi delle componenti principali del kernel: esplora la capacità di KPCA di eseguire la riduzione della dimensionalità in uno spazio di feature ad alta dimensionalità.


10: Continuazione numerica: scopri come le tecniche di continuazione numerica aiutano a comprendere i sistemi ad alta dimensionalità.


11: Clustering spettrale: scopri come il clustering spettrale sfrutta la riduzione della dimensionalità per raggruppare punti dati simili.


12: Isomap: uno sguardo a Isomap, una tecnica che combina il ridimensionamento multidimensionale con distanze geodetiche per la riduzione della dimensionalità.


13: Lemma di Johnson-Lindenstrauss: approfondisci la matematica del lemma di Johnson-Lindenstrauss, che assicura che la riduzione della dimensionalità mantenga le proprietà geometriche.


14: Modello a cascata lineare-non lineare di Poisson: studia come questo modello integra metodi lineari e non lineari nella riduzione della dimensionalità.


15: Allineamento di collettori: scopri l'allineamento di collettori e la sua importanza nell'allineamento dei dati da diversi domini nella riduzione della dimensionalità.


16: Mappa di diffusione: comprendere come le mappe di diffusione utilizzano il processo di diffusione per la riduzione della dimensionalità in set di dati complessi.


17: Incorporamento stocastico di vicini Tdistributed: esplorare la capacità di tSNE di ridurre la dimensionalità preservando le strutture locali nei dati.


18: Incorporamento kernel delle distribuzioni: studiare come l'incorporamento kernel consente la riduzione della dimensionalità sulle distribuzioni, non solo sui set di dati.


19: Proiezione casuale: un approccio pratico alla riduzione della dimensionalità che si basa su proiezioni casuali per un calcolo rapido.


20: Regolarizzazione manifold: apprendere le tecniche di regolarizzazione manifold e il loro impatto sull'apprendimento da dati ad alta dimensionalità.


21: Modellazione dinamica empirica: scoprire come la modellazione dinamica empirica aiuta nella riduzione della dimensionalità tramite l'analisi dei dati delle serie temporali.

6.49 In Stock
Riduzione della dimensionalità non lineare: Tecniche avanzate per migliorare la rappresentazione dei dati nei sistemi robotici

Riduzione della dimensionalità non lineare: Tecniche avanzate per migliorare la rappresentazione dei dati nei sistemi robotici

Riduzione della dimensionalità non lineare: Tecniche avanzate per migliorare la rappresentazione dei dati nei sistemi robotici

Riduzione della dimensionalità non lineare: Tecniche avanzate per migliorare la rappresentazione dei dati nei sistemi robotici

eBook

$6.49 

Available on Compatible NOOK devices, the free NOOK App and in My Digital Library.
WANT A NOOK?  Explore Now

Related collections and offers

LEND ME® See Details

Overview

1: Riduzione della dimensionalità non lineare: esplora i concetti fondamentali e l'importanza di ridurre i dati ad alta dimensionalità per un'analisi più semplice.


2: Mappa lineare: introduce le basi della mappatura lineare e il suo ruolo nella riduzione della dimensionalità dei dati nell'apprendimento automatico.


3: Macchina a vettori di supporto: scopri come le macchine a vettori di supporto applicano la riduzione della dimensionalità nelle attività di classificazione e nel riconoscimento di pattern.


4: Analisi delle componenti principali: approfondisci la tecnica PCA per trasformare i dati in un set di variabili linearmente non correlate.


5: Isometria: esamina come le tecniche isometriche preservano le distanze tra i punti riducendo al contempo le dimensioni dei dati.


6: Riduzione della dimensionalità: comprendi l'ambito più ampio della riduzione della dimensionalità e le sue applicazioni in vari campi.


7: Incorporamento semidefinito: studia la programmazione semidefinita e la sua connessione ai metodi di riduzione della dimensionalità.


8: Metodo kernel: scopri la potenza dei metodi kernel nella gestione delle relazioni non lineari nella riduzione dei dati.


9: Analisi delle componenti principali del kernel: esplora la capacità di KPCA di eseguire la riduzione della dimensionalità in uno spazio di feature ad alta dimensionalità.


10: Continuazione numerica: scopri come le tecniche di continuazione numerica aiutano a comprendere i sistemi ad alta dimensionalità.


11: Clustering spettrale: scopri come il clustering spettrale sfrutta la riduzione della dimensionalità per raggruppare punti dati simili.


12: Isomap: uno sguardo a Isomap, una tecnica che combina il ridimensionamento multidimensionale con distanze geodetiche per la riduzione della dimensionalità.


13: Lemma di Johnson-Lindenstrauss: approfondisci la matematica del lemma di Johnson-Lindenstrauss, che assicura che la riduzione della dimensionalità mantenga le proprietà geometriche.


14: Modello a cascata lineare-non lineare di Poisson: studia come questo modello integra metodi lineari e non lineari nella riduzione della dimensionalità.


15: Allineamento di collettori: scopri l'allineamento di collettori e la sua importanza nell'allineamento dei dati da diversi domini nella riduzione della dimensionalità.


16: Mappa di diffusione: comprendere come le mappe di diffusione utilizzano il processo di diffusione per la riduzione della dimensionalità in set di dati complessi.


17: Incorporamento stocastico di vicini Tdistributed: esplorare la capacità di tSNE di ridurre la dimensionalità preservando le strutture locali nei dati.


18: Incorporamento kernel delle distribuzioni: studiare come l'incorporamento kernel consente la riduzione della dimensionalità sulle distribuzioni, non solo sui set di dati.


19: Proiezione casuale: un approccio pratico alla riduzione della dimensionalità che si basa su proiezioni casuali per un calcolo rapido.


20: Regolarizzazione manifold: apprendere le tecniche di regolarizzazione manifold e il loro impatto sull'apprendimento da dati ad alta dimensionalità.


21: Modellazione dinamica empirica: scoprire come la modellazione dinamica empirica aiuta nella riduzione della dimensionalità tramite l'analisi dei dati delle serie temporali.


Product Details

BN ID: 2940180971555
Publisher: Un Miliardo Di Ben Informato [Italian]
Publication date: 12/18/2024
Series: Scienza Della Robotica [Italian] , #42
Sold by: PUBLISHDRIVE KFT
Format: eBook
Pages: 320
File size: 2 MB
Language: Italian
From the B&N Reads Blog

Customer Reviews