Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. t-distributed stochastic neighbor embedding - Teknopedia
t-distributed stochastic neighbor embedding - Teknopedia

t-distributed stochastic neighbor embedding (t-SNE) è un algoritmo di riduzione della dimensionalità sviluppato da Geoffrey Hinton e Laurens van der Maaten, ampiamente utilizzato come strumento di apprendimento automatico in molti ambiti di ricerca.[1][2][3][4][5][6][7] È una tecnica di riduzione della dimensionalità non lineare che si presta particolarmente all'embedding di dataset ad alta dimensionalità in uno spazio a due o tre dimensioni, nel quale possono essere visualizzati tramite un grafico di dispersione. L'algoritmo modella i punti in modo che oggetti vicini nello spazio originale risultino vicini nello spazio a dimensionalità ridotta, e oggetti lontani risultino lontani, cercando di preservare la struttura locale.

L'algoritmo si articola in due fasi principali. Nella prima fase viene costruita una distribuzione di probabilità che ad ogni coppia di punti nello spazio originale ad alta dimensionalità associa un valore di probabilità elevato se i due punti sono simili, basso se sono dissimili. Quindi viene definita una seconda distribuzione di probabilità analoga, nello spazio a dimensione ridotta. L'algoritmo quindi minimizza la divergenza di Kullback-Leibler delle due distribuzioni tramite discesa del gradiente, riorganizzando i punti nello spazio a dimensione ridotta.

Algoritmo

[modifica | modifica wikitesto]

Dato un insieme di N {\displaystyle N} {\displaystyle N} oggetti x 1 , … , x N {\displaystyle \mathbf {x} _{1},\dots ,\mathbf {x} _{N}} {\displaystyle \mathbf {x} _{1},\dots ,\mathbf {x} _{N}} in uno spazio ad alta dimensionalità, t-SNE costruisce una distribuzione di probabilità p i j {\displaystyle p_{ij}} {\displaystyle p_{ij}}, simmetrica nelle due variabili e proporzionale alla similarità tra i punti x i {\displaystyle \mathbf {x} _{i}} {\displaystyle \mathbf {x} _{i}} e x j {\displaystyle \mathbf {x} _{j}} {\displaystyle \mathbf {x} _{j}}, definita come:[8][1]

p i j = p j ∣ i + p i ∣ j 2 N {\displaystyle p_{ij}={\frac {p_{j\mid i}+p_{i\mid j}}{2N}}} {\displaystyle p_{ij}={\frac {p_{j\mid i}+p_{i\mid j}}{2N}}}

dove

p j ∣ i = exp ⁡ ( − ‖ x i − x j ‖ 2 / 2 σ i 2 ) ∑ k ≠ i exp ⁡ ( − ‖ x i − x k ‖ 2 / 2 σ i 2 ) , {\displaystyle p_{j\mid i}={\frac {\exp(-\lVert \mathbf {x} _{i}-\mathbf {x} _{j}\rVert ^{2}/2\sigma _{i}^{2})}{\sum _{k\neq i}\exp(-\lVert \mathbf {x} _{i}-\mathbf {x} _{k}\rVert ^{2}/2\sigma _{i}^{2})}},} {\displaystyle p_{j\mid i}={\frac {\exp(-\lVert \mathbf {x} _{i}-\mathbf {x} _{j}\rVert ^{2}/2\sigma _{i}^{2})}{\sum _{k\neq i}\exp(-\lVert \mathbf {x} _{i}-\mathbf {x} _{k}\rVert ^{2}/2\sigma _{i}^{2})}},}

L'ampiezza delle gaussiane σ i {\displaystyle \sigma _{i}} {\displaystyle \sigma _{i}} è scelta in maniera tale che la perplessità della distribuzione condizionale uguagli un valore di perplessità fornito come iperparametro dell'algoritmo. In questo modo, l'ampiezza si adatta alla densità dei punti, con valori di σ i {\displaystyle \sigma _{i}} {\displaystyle \sigma _{i}} minori in aree ad alta densità.

t-SNE cerca di costruire una mappa d {\displaystyle d} {\displaystyle d}-dimensionale y 1 , … , y N {\displaystyle \mathbf {y} _{1},\dots ,\mathbf {y} _{N}} {\displaystyle \mathbf {y} _{1},\dots ,\mathbf {y} _{N}} (con y i ∈ R d {\displaystyle \mathbf {y} _{i}\in \mathbb {R} ^{d}} {\displaystyle \mathbf {y} _{i}\in \mathbb {R} ^{d}}) i cui punti riflettano il meglio possibile la similarità p i j {\displaystyle p_{ij}} {\displaystyle p_{ij}} nello spazio di partenza. Allo scopo, la similarità q i j {\displaystyle q_{ij}} {\displaystyle q_{ij}} tra due punti y i {\displaystyle \mathbf {y} _{i}} {\displaystyle \mathbf {y} _{i}} e y j {\displaystyle \mathbf {y} _{j}} {\displaystyle \mathbf {y} _{j}} nello spazio a dimensionalità ridotta viene definita come:

q i j = ( 1 + ‖ y i − y j ‖ 2 ) − 1 ∑ k ≠ m ( 1 + ‖ y k − y m ‖ 2 ) − 1 {\displaystyle q_{ij}={\frac {(1+\lVert \mathbf {y} _{i}-\mathbf {y} _{j}\rVert ^{2})^{-1}}{\sum _{k\neq m}(1+\lVert \mathbf {y} _{k}-\mathbf {y} _{m}\rVert ^{2})^{-1}}}} {\displaystyle q_{ij}={\frac {(1+\lVert \mathbf {y} _{i}-\mathbf {y} _{j}\rVert ^{2})^{-1}}{\sum _{k\neq m}(1+\lVert \mathbf {y} _{k}-\mathbf {y} _{m}\rVert ^{2})^{-1}}}}

La differenza principale è l'uso nello spazio a dimensionalità ridotta di una distribuzione t di Student con un grado di libertà al posto della gaussiana, le cui code pesanti consentono di modellare meglio la dissimilarità tra oggetti distanti. La posizione y i {\displaystyle \mathbf {y} _{i}} {\displaystyle \mathbf {y} _{i}} dei punti nello spazio a dimensione ridotta è quindi calcolata minimizzando tramite discesa del gradiente la divergenza di Kullback-Leibler della distribuzione Q {\displaystyle Q} {\displaystyle Q} rispetto a P {\displaystyle P} {\displaystyle P}:

K L ( P | | Q ) = ∑ i ≠ j p i j log ⁡ p i j q i j {\displaystyle KL(P||Q)=\sum _{i\neq j}p_{ij}\log {\frac {p_{ij}}{q_{ij}}}} {\displaystyle KL(P||Q)=\sum _{i\neq j}p_{ij}\log {\frac {p_{ij}}{q_{ij}}}}

L'uso della divergenza di Kullback-Leibler come funzione obiettivo consente di avere penalità elevate se punti vicini nello spazio originale ( p i j {\displaystyle p_{ij}} {\displaystyle p_{ij}} elevato) vengono considerati lontani nello spazio a dimensionalità ridotta ( q i j {\displaystyle q_{ij}} {\displaystyle q_{ij}} piccolo), mentre il viceversa ha un'influenza minore, tendendo quindi a preservare la struttura locale della distribuzione dei punti. Il risultato è una mappa a bassa dimensionalità che riflette le similarità tra i punti nello spazio ad alta dimensionalità.

Note

[modifica | modifica wikitesto]
  1. ^ a b L.J.P. van der Maaten e Hinton, G.E., Visualizing High-Dimensional Data Using t-SNE (PDF), in Journal of Machine Learning Research, vol. 9, Nov 2008, pp. 2579-2605.
  2. ^ I. Gashi, Stankovic, V., Leita, C. e Thonnard, O., An Experimental Study of Diversity with Off-the-shelf AntiVirus Engines, in Proceedings of the IEEE International Symposium on Network Computing and Applications, 2009, pp. 4-11.
  3. ^ P. Hamel e Eck, D., Learning Features from Music Audio with Deep Belief Networks, in Proceedings of the International Society for Music Information Retrieval Conference, 2010, pp. 339-344.
  4. ^ A.R. Jamieson, Giger, M.L., Drukker, K., Lui, H., Yuan, Y. e Bhooshan, N., Exploring Nonlinear Feature Space Dimension Reduction and Data Representation in Breast CADx with Laplacian Eigenmaps and t-SNE, in Medical Physics, vol. 37, n. 1, 2010, pp. 339-351, DOI:10.1118/1.3267037.
  5. ^ I. Wallach e Liliean, R., The Protein-Small-Molecule Database, A Non-Redundant Structural Resource for the Analysis of Protein-Ligand Binding, in Bioinformatics, vol. 25, n. 5, 2009, pp. 615-620, DOI:10.1093/bioinformatics/btp035, PMID 19153135.
  6. ^ J. Birjandtalab, M. B. Pouyan e M. Nourani, Nonlinear dimension reduction for EEG-based epileptic seizure detection, in 2016 IEEE-EMBS International Conference on Biomedical and Health Informatics (BHI), 1º febbraio 2016, pp. 595-598, DOI:10.1109/BHI.2016.7455968.
  7. ^ Visualizing Representations: Deep Learning and Human Beings Christopher Olah's blog, 2015
  8. ^
    (inglese)
    «The similarity of datapoint x j {\displaystyle x_{j}} {\displaystyle x_{j}} to datapoint x i {\displaystyle x_{i}} {\displaystyle x_{i}} is the conditional probability, p j | i {\displaystyle p_{j|i}} {\displaystyle p_{j|i}}, that x i {\displaystyle x_{i}} {\displaystyle x_{i}} would pick x j {\displaystyle x_{j}} {\displaystyle x_{j}} as its neighbor if neighbors were picked in proportion to their probability density under a Gaussian centered at x i {\displaystyle x_{i}} {\displaystyle x_{i}}.»
    (italiano)
    «La similarità del punto x j {\displaystyle x_{j}} {\displaystyle x_{j}} rispetto al punto x i {\displaystyle x_{i}} {\displaystyle x_{i}} è la probabilità condizionata, p j | i {\displaystyle p_{j|i}} {\displaystyle p_{j|i}}, che x i {\displaystyle x_{i}} {\displaystyle x_{i}} scelga x j {\displaystyle x_{j}} {\displaystyle x_{j}} come suo vicino se i vicini venissero generati casualmente secondo una distribuzione di probabilità Gaussiana centrata in x i {\displaystyle x_{i}} {\displaystyle x_{i}}.»

Altri progetti

[modifica | modifica wikitesto]

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file sul t-distributed stochastic neighbor embedding

Collegamenti esterni

[modifica | modifica wikitesto]
  • Laurens van der Maaten, t-Distributed Stochastic Neighbor Embedding, su lvdmaaten.github.io.
  • (EN) Implementazione di t-SNE in C++ realizzata da Laurens van der Maaten (approssimazione con il metodo di Barnes-Hut), su GitHub.
  • Filmato audio Google Tech Talk, Visualizing Data Using t-SNE, su YouTube.
  • (EN) Implementazione di t-SNE nel framework ELKI (approssimazione con il metodo di Barnes-Hut), su GitHub.
V · D · M
Apprendimento automatico
ProblemiTeoria dell'apprendimento statistico · Classificazione · Regressione · Classificazione a singola classe · Ranking · Regole di associazione · Apprendimento non supervisionato · Apprendimento semi-supervisionato · Apprendimento supervisionato · Apprendimento auto-supervisionato · Apprendimento per rinforzo · Apprendimento profondo · Apprendimento online · Apprendimento incrementale · Apprendimento trasduttivo

Apprendimento non supervisionatoClustering · Clustering gerarchico · K-means · Algoritmo EM · DBSCAN · Mean shift · Rete generativa avversaria (cGAN · VAE-GAN · cycleGAN)
Apprendimento supervisionatoAlbero di decisione · Foresta casuale · Conditional random field CRF · Modello di Markov nascosto · Algoritmo k-nearest neighbors (k-NN) · Ragionamento basato su casi (CBR) · Classificatore bayesiano · Rete neurale artificiale · Regressione lineare · Regressione logistica · Modello grafico · Rete bayesiana · Macchine a vettori di supporto (SVM) · Processo gaussiano · Modello ensemble · Boosting · Bagging · Stacking · Voting · Cascading · Error correcting output code (ECOC)
Apprendimento per rinforzoQ-learning · SARSA · TD
Riduzione della dimensionalitàAnalisi fattoriale · Analisi della correlazione canonica (CCA) · Analisi delle componenti indipendenti (ICA) · Analisi discriminante lineare (LDA) · Analisi delle componenti principali (PCA) · Selezione delle caratteristiche · Estrazione di caratteristiche · t-distributed stochastic neighbor embedding (t-SNE)
Reti neurali artificialiPercettrone · Percettrone basato su kernel · Rete neurale a funzioni base radiali (RBF net) · Rete neurale feed-forward · Rete di Hopfield · Percettrone multistrato · Rete neurale ricorrente (LSTM) · Macchina di Boltzmann ristretta · Mappa auto-organizzata · Rete neurale convoluzionale · Rete neurale a ritardo · Rete neurale spiking · Rete neurale grafica · Trasformatore
SoftwareKeras · Microsoft Cognitive Toolkit · Scikit-learn · TensorFlow · Theano · PyTorch · Weka
AltroAlgoritmo genetico · Particle Swarm Optimization · Caratteristica · Compromesso bias-varianza · Minimizzazione del rischio empirico
  Portale Informatica
  Portale Statistica
Estratto da "https://it.wikipedia.org/w/index.php?title=T-distributed_stochastic_neighbor_embedding&oldid=144056569"

  • Indonesia
  • English
  • Français
  • 日本語
  • Deutsch
  • Italiano
  • Español
  • Русский
  • فارسی
  • Polski
  • 中文
  • Nederlands
  • Português
  • العربية
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022