1月2日,人工智能系列讀書班活動繼續開展,張曉亮博士主持了“降維與度量學習”内容,先介紹了K近鄰學習、低維嵌入中的多維縮放MDS算法;然後着重介紹了常用的降維算法中的主成分分析PCA、核化線性降維中的核主成分分析KPCA,流形學習的等度量映射Isomap、局部線性嵌入LLE以及度量學習中的近鄰成分分析NCA等:
圖1 張曉亮博士主持“降維與度量學習”讨論會
自由讨論環節,大家集中讨論了同胚(拓撲空間之間的連續性與開閉集的保持;是研究流形性質的重要工具)與同構(結構之間的代數性質的完全一緻性)的區别;大家又分析了常用的幾種核函數(線性核、多項式核、高斯核、徑向基核、Sigmoid核、複合核等),指出預先定義核函數的局限性,着重讨論了從數據中學習到核函數的可能性。
(會議總結:沈來信)