欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費電子書(shū)等14項超值服

開(kāi)通VIP
學(xué)習數學(xué) - Bati's eHome of Tech - 博客園

感覺(jué)數學(xué)似乎總是不夠的。這些日子為了解決research中的一些問(wèn)題,又在圖書(shū)館捧起了數學(xué)的教科書(shū)。

從大學(xué)到現在,課堂上學(xué)的和自學(xué)的數學(xué)其實(shí)不算少了,可是在研究的過(guò)程中總是發(fā)現需要補充新的數學(xué)知識。Learning和Vision都是很多種數學(xué)的交匯場(chǎng)??粗?zhù)不同的理論體系的交匯,對于一個(gè)researcher來(lái)說(shuō),往往是非常exciting的enjoyable的事情。不過(guò),這也代表著(zhù)要充分了解這個(gè)領(lǐng)域并且取得有意義的進(jìn)展是很艱苦的。

記得在兩年前的一次blog里面,提到過(guò)和learning有關(guān)的數學(xué)。今天看來(lái),我對于數學(xué)在這個(gè)領(lǐng)域的作用有了新的思考。

對于Learning的研究,

Linear Algebra (線(xiàn)性代數) 和 Statistics (統計學(xué)) 是最重要和不可缺少的。這代表了Machine Learning中最主流的兩大類(lèi)方法的基礎。一種是以研究函數和變換為重點(diǎn)的代數方法,比如Dimension reduction,feature extraction,Kernel等,一種是以研究統計模型和樣本分布為重點(diǎn)的統計方法,比如Graphical model, Information theoretical models等。它們側重雖有不同,但是常常是共同使用的,對于代數方法,往往需要統計上的解釋?zhuān)瑢τ诮y計模型,其具體計算則需要代數的幫助。

以代數和統計為出發(fā)點(diǎn),繼續往深處走,我們會(huì )發(fā)現需要更多的數學(xué)。

Calculus (微積分),只是數學(xué)分析體系的基礎。其基礎性作用不言而喻。Learning研究的大部分問(wèn)題是在連續的度量空間進(jìn)行的,無(wú)論代數還是統計,在研究?jì)?yōu)化問(wèn)題的時(shí)候,對一個(gè)映射的微分或者梯度的分析總是不可避免。而在統計學(xué)中,Marginalization和積分更是密不可分——不過(guò),以解析形式把積分導出來(lái)的情況則不多見(jiàn)。

Partial Differential Equation (偏微分方程),這主要用于描述動(dòng)態(tài)過(guò)程,或者仿動(dòng)態(tài)過(guò)程。這個(gè)學(xué)科在Vision中用得比Learning多,主要用于描述連續場(chǎng)的運動(dòng)或者擴散過(guò)程。比如Level set, Optical flow都是這方面的典型例子。

Functional Analysis (泛函分析), 通俗地,可以理解為微積分從有限維空間到無(wú)限維空間的拓展——當然了,它實(shí)際上遠不止于此。在這個(gè)地方,函數以及其所作用的對象之間存在的對偶關(guān)系扮演了非常重要的角色。Learning發(fā)展至今,也在向無(wú)限維延伸——從研究有限維向量的問(wèn)題到以無(wú)限維的函數為研究對象。Kernel Learning 和 Gaussian Process 是其中典型的例子——其中的核心概念都是Kernel。很多做Learning的人把Kernel簡(jiǎn)單理解為Kernel trick的運用,這就把kernel的意義嚴重弱化了。在泛函里面,Kernel (Inner Product) 是建立整個(gè)博大的代數體系的根本,從metric, transform到spectrum都根源于此。

Measure Theory (測度理論),這是和實(shí)分析關(guān)系非常密切的學(xué)科。但是測度理論并不限于此。從某種意義上說(shuō),Real Analysis可以從Lebesgue Measure(勒貝格測度)推演,不過(guò)其實(shí)還有很多別的測度體系——概率本身就是一種測度。測度理論對于Learning的意義是根本的,現代統計學(xué)整個(gè)就是建立在測度理論的基礎之上——雖然初級的概率論教科書(shū)一般不這樣引入。在看一些統計方面的文章的時(shí)候,你可能會(huì )發(fā)現,它們會(huì )把統計的公式改用測度來(lái)表達,這樣做有兩個(gè)好處:所有的推導和結論不用分別給連續分布和離散分布各自寫(xiě)一遍了,這兩種東西都可以用同一的測度形式表達:連續分布的積分基于Lebesgue測度,離散分布的求和基于計數測度,而且還能推廣到那種既不連續又不離散的分布中去(這種東西不是數學(xué)家的游戲,而是已經(jīng)在實(shí)用的東西,在Dirchlet Process或者Pitman-Yor Process里面會(huì )經(jīng)??吹?。而且,即使是連續積分,如果不是在歐氏空間進(jìn)行,而是在更一般的拓撲空間(比如微分流形或者變換群),那么傳統的黎曼積分(就是大學(xué)一年級在微積分課學(xué)的那種)就不work了,你可能需要它們的一些推廣,比如Haar Measure或者Lebesgue-Stieltjes積分。

Topology(拓撲學(xué)),這是學(xué)術(shù)中很基礎的學(xué)科。它一般不直接提供方法,但是它的很多概念和定理是其它數學(xué)分支的基石??春芏鄤e的數學(xué)的時(shí)候,你會(huì )經(jīng)常接觸這樣一些概念:Open set / Closed set,set basis,Hausdauf,  continuous function,metric space,  Cauchy sequence, neighborhood,  compactness, connectivity。很多這些也許在大學(xué)一年級就學(xué)習過(guò)一些,當時(shí)是基于極限的概念獲得的。如果,看過(guò)拓撲學(xué)之后,對這些概念的認識會(huì )有根本性的拓展。比如,連續函數,當時(shí)是由epison法定義的,就是無(wú)論取多小的正數epsilon,都存在xxx,使得xxx。這是需要一種metric去度量距離的,在general topology里面,對于連續函數的定義連坐標和距離都不需要——如果一個(gè)映射使得開(kāi)集的原像是開(kāi)集,它就是連續的——至于開(kāi)集是基于集合論定義的,不是通常的開(kāi)區間的意思。這只是最簡(jiǎn)單的例子。當然,我們研究learning也許不需要深究這些數學(xué)概念背后的公理體系,但是,打破原來(lái)定義的概念的局限在很多問(wèn)題上是必須的——尤其是當你研究的東西它不是在歐氏空間里面的時(shí)候——正交矩陣,變換群,流形,概率分布的空間,都屬于此。

Differential Manifold (微分流形), 通俗地說(shuō)它研究的是平滑的曲面。一個(gè)直接的印象是它是不是可以用來(lái)fitting一個(gè)surface什么的——當然這算是一種應用,但是這是非常初步的。本質(zhì)上說(shuō),微分流形研究的是平滑的拓撲結構。一個(gè)空間構成微分流形的基本要素是局部平滑:從拓撲學(xué)來(lái)理解,就是它的任意局部都同胚于歐氏空間,從解析的角度來(lái)看,就是相容的局部坐標系統。當然,在全局上,它不要求和歐氏空間同胚。它除了可以用于刻畫(huà)集合上的平滑曲面外,更重要的意義在于,它可以用于研究很多重要的集合。一個(gè)n-維線(xiàn)性空間的全部k-維子空間(k < n)就構成了一個(gè)微分流形——著(zhù)名的Grassman Manifold。所有的標準正交陣也構成一個(gè)流形。一個(gè)變換群作用于一個(gè)空間形成的軌跡(Orbit) 也是通常會(huì )形成流形。在流形上,各種的分析方法,比如映射,微分,積分都被移植過(guò)來(lái)了。前一兩年在Learning里面火了好長(cháng)時(shí)間的Manifold Learning其實(shí)只是研究了這個(gè)分支的其中一個(gè)概念的應用: embedding。其實(shí),它還有很多可以發(fā)掘的空間。

Lie Group Theory (李群論),一般意義的群論在Learning中被運用的不是很多,群論在Learning中用得較多的是它的一個(gè)重要方向Lie group。定義在平滑流行上的群,并且其群運算是平滑的話(huà),那么這就叫李群。因為L(cháng)earning和編碼不同,更多關(guān)注的是連續空間,因為L(cháng)ie group在各種群中對于Learning特別重要。各種子空間,線(xiàn)性變換,非奇異矩陣都基于通常意義的矩陣乘法構成李群。在李群中的映射,變換,度量,劃分等等都對于Learning中代數方法的研究有重要指導意義。

Graph Theory(圖論),圖,由于它在表述各種關(guān)系的強大能力以及優(yōu)雅的理論,高效的算法,越來(lái)越受到Learning領(lǐng)域的歡迎。經(jīng)典圖論,在Learning中的一個(gè)最重要應用就是graphical models了,它被成功運用于分析統計網(wǎng)絡(luò )的結構和規劃統計推斷的流程。Graphical model所取得的成功,圖論可謂功不可沒(méi)。在Vision里面,maxflow (graphcut)算法在圖像分割,Stereo還有各種能量?jì)?yōu)化中也廣受應用。另外一個(gè)重要的圖論分支就是Algebraic graph theory (代數圖論),主要運用于圖的譜分析,著(zhù)名的應用包括Normalized Cut和Spectral Clustering。近年來(lái)在semi-supervised learning中受到特別關(guān)注。

本站僅提供存儲服務(wù),所有內容均由用戶(hù)發(fā)布,如發(fā)現有害或侵權內容,請點(diǎn)擊舉報。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
Learning中的代數結構的建立
計算機科學(xué)與技術(shù)專(zhuān)業(yè)推薦書(shū)目
《普林斯頓數學(xué)指引》讀書(shū)筆記——I.1 數學(xué)是關(guān)于什么的
關(guān)于數學(xué)學(xué)習,推薦一篇好文(博士生必讀) -
數學(xué)系離散數學(xué)的幾大核心領(lǐng)域
人工智能的數學(xué)基石:揭秘人工智能十大數學(xué)基礎
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導長(cháng)圖 關(guān)注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久