首先我們來定義流的概念,一個流可以是文件,socket,pipe等等可以進行I/O操作的內核對象。
? ? 不管是文件,還是套接字,還是管道,我們都可以把他們看作流。
? ? 之后我們來討論I/O的操作,通過read,我們可以從流中讀入數據;通過write,我們可以往流寫入數據。現在假定一個情形,我們需要從流中讀數據,但是流中還沒有數據,(典型的例子為,客戶端要從socket讀如數據,但是服務器還沒有把數據傳回來),這時候該怎么辦?
阻塞:阻塞是個什么概念呢?比如某個時候你在等快遞,但是你不知道快遞什么時候過來,而且你沒有別的事可以干(或者說接下來的事要等快遞來了才能做);那么你可以去睡覺了,因為你知道快遞把貨送來時一定會給你打個電話(假定一定能叫醒你)。
非阻塞忙輪詢:接著上面等快遞的例子,如果用忙輪詢的方法,那么你需要知道快遞員的手機號,然后每分鐘給他掛個電話:“你到了沒?”
? ? 很明顯一般人不會用第二種做法,不僅顯很無腦,浪費話費不說,還占用了快遞員大量的時間。
? ? 大部分程序也不會用第二種做法,因為第一種方法經濟而簡單,經濟是指消耗很少的CPU時間,如果線程睡眠了,就掉出了系統的調度隊列,暫時不會去瓜分CPU寶貴的時間片了。
? ? 為了了解阻塞是如何進行的,我們來討論緩沖區,以及內核緩沖區,最終把I/O事件解釋清楚。緩沖區的引入是為了減少頻繁I/O操作而引起頻繁的系統調用(你知道它很慢的),當你操作一個流時,更多的是以緩沖區為單位進行操作,這是相對于用戶空間而言。對于內核來說,也需要緩沖區。
假設有一個管道,進程A為管道的寫入方,B為管道的讀出方。
假設一開始內核緩沖區是空的,B作為讀出方,被阻塞著。然后首先A往管道寫入,這時候內核緩沖區由空的狀態變到非空狀態,內核就會產生一個事件告訴B該醒來了,這個事件姑且稱之為“緩沖區非空”。
? ? 但是“緩沖區非空”事件通知B后,B卻還沒有讀出數據;且內核許諾了不能把寫入管道中的數據丟掉這個時候,A寫入的數據會滯留在內核緩沖區中,如果內核也緩沖區滿了,B仍未開始讀數據,最終內核緩沖區會被填滿,這個時候會產生一個I/O事件,告訴進程A,你該等等(阻塞)了,我們把這個事件定義為“緩沖區滿”。
假設后來B終于開始讀數據了,于是內核的緩沖區空了出來,這時候內核會告訴A,內核緩沖區有空位了,你可以從長眠中醒來了,繼續寫數據了,我們把這個事件叫做“緩沖區非滿”
? ? 也許事件Y1已經通知了A,但是A也沒有數據寫入了,而B繼續讀出數據,知道內核緩沖區空了。這個時候內核就告訴B,你需要阻塞了!,我們把這個時間定為“緩沖區空”。
這四個情形涵蓋了四個I/O事件,緩沖區滿,緩沖區空,緩沖區非空,緩沖區非滿(注都是說的內核緩沖區,且這四個術語都是我生造的,僅為解釋其原理而造)。這四個I/O事件是進行阻塞同步的根本。(如果不能理解“同步”是什么概念,請學習操作系統的鎖,信號量,條件變量等任務同步方面的相關知識)。
? ? 然后我們來說說阻塞I/O的缺點。但是阻塞I/O模式下,一個線程只能處理一個流的I/O事件。如果想要同時處理多個流,要么多進程(fork),要么多線程(pthread_create),很不幸這兩種方法效率都不高。
? ? 于是再來考慮非阻塞忙輪詢的I/O方式,我們發現我們可以同時處理多個流了(把一個流從阻塞模式切換到非阻塞模式再此不予討論):
while?true?{
????for?i?in?stream[];?{
????????if?i?has?data
????????????read?until?unavailable
????}
}
? ? 我們只要不停的把所有流從頭到尾問一遍,又從頭開始。這樣就可以處理多個流了,但這樣的做法顯然不好,因為如果所有的流都沒有數據,那么只會白白浪費CPU。這里要補充一點,阻塞模式下,內核對于I/O事件的處理是阻塞或者喚醒,而非阻塞模式下則把I/O事件交給其他對象(后文介紹的select以及epoll)處理甚至直接忽略。
? ? 為了避免CPU空轉,可以引進了一個代理(一開始有一位叫做select的代理,后來又有一位叫做poll的代理,不過兩者的本質是一樣的)。這個代理比較厲害,可以同時觀察許多流的I/O事件,在空閑的時候,會把當前線程阻塞掉,當有一個或多個流有I/O事件時,就從阻塞態中醒來,于是我們的程序就會輪詢一遍所有的流(于是我們可以把“忙”字去掉了)。代碼長這樣:
while?true?{
????select(streams[])
????for?i?in?streams[]?{
????????if?i?has?data
????????????read?until?unavailable
????}
}
? ? 于是,如果沒有I/O事件產生,我們的程序就會阻塞在select處。但是依然有個問題,我們從select那里僅僅知道了,有I/O事件發生了,但卻并不知道是那幾個流(可能有一個,多個,甚至全部),我們只能無差別輪詢所有流,找出能讀出數據,或者寫入數據的流,對他們進行操作。
? ? 但是使用select,我們有O(n)的無差別輪詢復雜度,同時處理的流越多,沒一次無差別輪詢時間就越長。再次
說了這么多,終于能好好解釋epoll了
? ? epoll可以理解為event poll,不同于忙輪詢和無差別輪詢,epoll之會把哪個流發生了怎樣的I/O事件通知我們。此時我們對這些流的操作都是有意義的。(復雜度降低到了O(1))
? ? 在討論epoll的實現細節之前,先把epoll的相關操作列出:
epoll_create 創建一個epoll對象,一般epollfd = epoll_create()
epoll_ctl (epoll_add/epoll_del的合體),往epoll對象中增加/刪除某一個流的某一個事件
比如
epoll_ctl(epollfd, EPOLL_CTL_ADD, socket, EPOLLIN);//注冊緩沖區非空事件,即有數據流入
epoll_ctl(epollfd, EPOLL_CTL_DEL, socket, EPOLLOUT);//注冊緩沖區非滿事件,即流可以被寫入
epoll_wait(epollfd,...)等待直到注冊的事件發生
(注:當對一個非阻塞流的讀寫發生緩沖區滿或緩沖區空,write/read會返回-1,并設置errno=EAGAIN。而epoll只關心緩沖區非滿和緩沖區非空事件)。
一個epoll模式的代碼大概的樣子是:
while?true?{
????active_stream[]?=?epoll_wait(epollfd)
????for?i?in?active_stream[]?{
????????read?or?write?till
????}
}
? ? 限于篇幅,我只說這么多,以揭示原理性的東西,至于epoll的使用細節,請參考man和google,實現細節,請參閱linux kernel source。
?
------
文章來源:http://blog.csdn.net/xiajun07061225/article/details/9250579
?
什么是epoll
?
epoll是什么?按照man手冊的說法:是為處理大批量句柄而作了改進的poll。當然,這不是2.6內核才有的,它是在2.5.44內核中被引進的(epoll(4) is a new API introduced in Linux kernel 2.5.44),它幾乎具備了之前所說的一切優點,被公認為Linux2.6下性能最好的多路I/O就緒通知方法。
?
epoll的相關系統調用
epoll只有epoll_create,epoll_ctl,epoll_wait 3個系統調用。
?
1. int epoll_create(int size);
創建一個epoll的句柄。自從linux2.6.8之后,size參數是被忽略的。需要注意的是,當創建好epoll句柄后,它就是會占用一個fd值,在linux下如果查看/proc/進程id/fd/,是能夠看到這個fd的,所以在使用完epoll后,必須調用close()關閉,否則可能導致fd被耗盡。
?
2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
epoll的事件注冊函數 ,它不同于select()是在監聽事件時告訴內核要監聽什么類型的事件,而是在這里先注冊要監聽的事件類型。
第一個參數是epoll_create()的返回值。
第二個參數表示動作,用三個宏來表示:
EPOLL_CTL_ADD:注冊新的fd到epfd中;
EPOLL_CTL_MOD:修改已經注冊的fd的監聽事件;
EPOLL_CTL_DEL:從epfd中刪除一個fd;
?
第三個參數是需要監聽的fd。
第四個參數是告訴內核需要監聽什么事,struct epoll_event結構如下:
?
[cpp] ?view plain?copy
?
//保存觸發事件的某個文件描述符相關的數據(與具體使用方式有關)?? ?? typedef?union?epoll_data?{?? ????void?*ptr;?? ????int?fd;?? ????__uint32_t?u32;?? ????__uint64_t?u64;?? }?epoll_data_t;?? ?//感興趣的事件和被觸發的事件?? struct?epoll_event?{?? ????__uint32_t?events;?/*?Epoll?events?*/?? ????epoll_data_t?data;?/*?User?data?variable?*/?? };??
?
?
events可以是以下幾個宏的集合:
EPOLLIN?:表示對應的文件描述符可以讀(包括對端SOCKET正常關閉);
EPOLLOUT:表示對應的文件描述符可以寫;
EPOLLPRI:表示對應的文件描述符有緊急的數據可讀(這里應該表示有帶外數據到來);
EPOLLERR:表示對應的文件描述符發生錯誤;
EPOLLHUP:表示對應的文件描述符被掛斷;
EPOLLET:?將EPOLL設為邊緣觸發(Edge Triggered)模式,這是相對于水平觸發(Level Triggered)來說的。
EPOLLONESHOT:只監聽一次事件,當監聽完這次事件之后,如果還需要繼續監聽這個socket的話,需要再次把這個socket加入到EPOLL隊列里
?
?
3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
收集在epoll監控的事件中已經發送的事件。參數events是分配好的epoll_event結構體數組,epoll將會把發生的事件賦值到events數組中(events不可以是空指針,內核只負責把數據復制到這個events數組中,不會去幫助我們在用戶態中分配內存)。maxevents告之內核這個events有多大,這個?maxevents的值不能大于創建epoll_create()時的size,參數timeout是超時時間(毫秒,0會立即返回,-1將不確定,也有說法說是永久阻塞)。如果函數調用成功,返回對應I/O上已準備好的文件描述符數目,如返回0表示已超時。
?
epoll工作原理
epoll同樣只告知那些就緒的文件描述符,而且當我們調用epoll_wait()獲得就緒文件描述符時,返回的不是實際的描述符,而是一個代表就緒描述符數量的值,你只需要去epoll指定的一個數組中依次取得相應數量的文件描述符即可,這里也使用了內存映射(mmap)技術,這樣便徹底省掉了這些文件描述符在系統調用時復制的開銷。
?
另一個本質的改進在于epoll采用基于事件的就緒通知方式。在select/poll中,進程只有在調用一定的方法后,內核才對所有監視的文件描述符進行掃描,而epoll事先通過epoll_ctl()來注冊一個文件描述符,一旦基于某個文件描述符就緒時,內核會采用類似callback的回調機制,迅速激活這個文件描述符,當進程調用epoll_wait()時便得到通知。
?
Epoll的2種工作方式-水平觸發(LT)和邊緣觸發(ET)
?
假如有這樣一個例子:
1. 我們已經把一個用來從管道中讀取數據的文件句柄(RFD)添加到epoll描述符
2. 這個時候從管道的另一端被寫入了2KB的數據
3. 調用epoll_wait(2),并且它會返回RFD,說明它已經準備好讀取操作
4. 然后我們讀取了1KB的數據
5. 調用epoll_wait(2)......
?
Edge Triggered 工作模式:
如果我們在第1步將RFD添加到epoll描述符的時候使用了EPOLLET標志,那么在第5步調用epoll_wait(2)之后將有可能會掛起,因為剩余的數據還存在于文件的輸入緩沖區內,而且數據發出端還在等待一個針對已經發出數據的反饋信息。只有在監視的文件句柄上發生了某個事件的時候 ET 工作模式才會匯報事件。因此在第5步的時候,調用者可能會放棄等待仍在存在于文件輸入緩沖區內的剩余數據。在上面的例子中,會有一個事件產生在RFD句柄上,因為在第2步執行了一個寫操作,然后,事件將會在第3步被銷毀。因為第4步的讀取操作沒有讀空文件輸入緩沖區內的數據,因此我們在第5步調用 epoll_wait(2)完成后,是否掛起是不確定的。epoll工作在ET模式的時候,必須使用非阻塞套接口,以避免由于一個文件句柄的阻塞讀/阻塞寫操作把處理多個文件描述符的任務餓死。最好以下面的方式調用ET模式的epoll接口,在后面會介紹避免可能的缺陷。
? ?i ? ?基于非阻塞文件句柄
? ?ii ? 只有當read(2)或者write(2)返回EAGAIN時才需要掛起,等待。但這并不是說每次read()時都需要循環讀,直到讀到產生一個EAGAIN才認為此次事件處理完成,當read()返回的讀到的數據長度小于請求的數據長度時,就可以確定此時緩沖中已沒有數據了,也就可以認為此事讀事件已處理完成。
?
Level Triggered 工作模式
相反的,以LT方式調用epoll接口的時候,它就相當于一個速度比較快的poll(2),并且無論后面的數據是否被使用,因此他們具有同樣的職能。因為即使使用ET模式的epoll,在收到多個chunk的數據的時候仍然會產生多個事件。調用者可以設定EPOLLONESHOT標志,在 epoll_wait(2)收到事件后epoll會與事件關聯的文件句柄從epoll描述符中禁止掉。因此當EPOLLONESHOT設定后,使用帶有 EPOLL_CTL_MOD標志的epoll_ctl(2)處理文件句柄就成為調用者必須作的事情。
?
?
LT(level triggered)是epoll缺省的工作方式 ,并且同時支持block和no-block socket.在這種做法中,內核告訴你一個文件描述符是否就緒了,然后你可以對這個就緒的fd進行IO操作。如果你不作任何操作,內核還是會繼續通知你?的,所以,這種模式編程出錯誤可能性要小一點。傳統的select/poll都是這種模型的代表.
?
ET (edge-triggered)是高速工作方式,只支持no-block socket,它效率要比LT更高。ET與LT的區別在于,當一個新的事件到來時,ET模式下當然可以從epoll_wait調用中獲取到這個事件,可是如果這次沒有把這個事件對應的套接字緩沖區處理完,在這個套接字中沒有新的事件再次到來時,在ET模式下是無法再次從epoll_wait調用中獲取這個事件的。而LT模式正好相反,只要一個事件對應的套接字緩沖區還有數據,就總能從epoll_wait中獲取這個事件。
因此,LT模式下開發基于epoll的應用要簡單些,不太容易出錯。而在ET模式下事件發生時,如果沒有徹底地將緩沖區數據處理完,則會導致緩沖區中的用戶請求得不到響應。
圖示說明:
?
Nginx默認采用ET模式來使用epoll。
?
epoll的優點:
1.支持一個進程打開大數目的socket描述符(FD)
??? select?最不能忍受的是一個進程所打開的FD是有一定限制的,由FD_SETSIZE設置,默認值是2048。對于那些需要支持的上萬連接數目的IM服務器來說顯然太少了。這時候你一是可以選擇修改這個宏然后重新編譯內核,不過資料也同時指出這樣會帶來網絡效率的下降,二是可以選擇多進程的解決方案(傳統的?Apache方案),不過雖然linux上面創建進程的代價比較小,但仍舊是不可忽視的,加上進程間數據同步遠比不上線程間同步的高效,所以也不是一種完美的方案。不過?epoll則沒有這個限制,它所支持的FD上限是最大可以打開文件的數目,這個數字一般遠大于2048,舉個例子,在1GB內存的機器上大約是10萬左右,具體數目可以cat /proc/sys/fs/file-max察看,一般來說這個數目和系統內存關系很大。
?
2.IO效率不隨FD數目增加而線性下降
????傳統的select/poll另一個致命弱點就是當你擁有一個很大的socket集合,不過由于網絡延時,任一時間只有部分的socket是"活躍"的,但是select/poll每次調用都會線性掃描全部的集合,導致效率呈現線性下降。但是epoll不存在這個問題,它只會對"活躍"的socket進行操作---這是因為在內核實現中epoll是根據每個fd上面的callback函數實現的。那么,只有"活躍"的socket才會主動的去調用?callback函數,其他idle狀態socket則不會,在這點上,epoll實現了一個"偽"AIO,因為這時候推動力在os內核。在一些?benchmark中,如果所有的socket基本上都是活躍的---比如一個高速LAN環境,epoll并不比select/poll有什么效率,相反,如果過多使用epoll_ctl,效率相比還有稍微的下降。但是一旦使用idle connections模擬WAN環境,epoll的效率就遠在select/poll之上了。
?
3.使用mmap加速內核與用戶空間的消息傳遞
????這點實際上涉及到epoll的具體實現了。無論是select,poll還是epoll都需要內核把FD消息通知給用戶空間,如何避免不必要的內存拷貝就很重要,在這點上,epoll是通過內核于用戶空間mmap同一塊內存實現的。而如果你想我一樣從2.5內核就關注epoll的話,一定不會忘記手工?mmap這一步的。
?
4.內核微調
這一點其實不算epoll的優點了,而是整個linux平臺的優點。也許你可以懷疑linux平臺,但是你無法回避linux平臺賦予你微調內核的能力。比如,內核TCP/IP協議棧使用內存池管理sk_buff結構,那么可以在運行時期動態調整這個內存pool(skb_head_pool)的大小---?通過echo XXXX>/proc/sys/net/core/hot_list_length完成。再比如listen函數的第2個參數(TCP完成3次握手的數據包隊列長度),也可以根據你平臺內存大小動態調整。更甚至在一個數據包面數目巨大但同時每個數據包本身大小卻很小的特殊系統上嘗試最新的NAPI網卡驅動架構。
?
linux下epoll如何實現高效處理百萬句柄的
開發高性能網絡程序時,windows開發者們言必稱iocp,linux開發者們則言必稱epoll。大家都明白epoll是一種IO多路復用技術,可以非常高效的處理數以百萬計的socket句柄,比起以前的select和poll效率高大發了。我們用起epoll來都感覺挺爽,確實快,那么,它到底為什么可以高速處理這么多并發連接呢?
?
使用起來很清晰,首先要調用epoll_create建立一個epoll對象。參數size是內核保證能夠正確處理的最大句柄數,多于這個最大數時內核可不保證效果。
?
epoll_ctl可以操作上面建立的epoll,例如,將剛建立的socket加入到epoll中讓其監控,或者把?epoll正在監控的某個socket句柄移出epoll,不再監控它等等。
?
epoll_wait在調用時,在給定的timeout時間內,當在監控的所有句柄中有事件發生時,就返回用戶態的進程。
?
從上面的調用方式就可以看到epoll比select/poll的優越之處:因為后者每次調用時都要傳遞你所要監控的所有socket給select/poll系統調用,這意味著需要將用戶態的socket列表copy到內核態,如果以萬計的句柄會導致每次都要copy幾十幾百KB的內存到內核態,非常低效。而我們調用epoll_wait時就相當于以往調用select/poll,但是這時卻不用傳遞socket句柄給內核,因為內核已經在epoll_ctl中拿到了要監控的句柄列表。
?
所以,實際上在你調用epoll_create后,內核就已經在內核態開始準備幫你存儲要監控的句柄了,每次調用epoll_ctl只是在往內核的數據結構里塞入新的socket句柄。
?當一個進程調用epoll_creaqte方法時,Linux內核會創建一個eventpoll結構體,這個結構體中有兩個成員與epoll的使用方式密切相關:
[cpp] ?view plain?copy
?
/*? ? ?171?*?This?structure?is?stored?inside?the?"private_data"?member?of?the?file? ? ?172?*?structure?and?represents?the?main?data?structure?for?the?eventpoll? ? ?173?*?interface.? ? ?174?*/?? ?? ?175struct?eventpoll?{?? ?? ?176????????/*?Protect?the?access?to?this?structure?*/?? ?? ?177????????spinlock_t?lock;?? ?? ?178?? ?? ?179????????/*? ? ?180?????????*?This?mutex?is?used?to?ensure?that?files?are?not?removed? ? ?181?????????*?while?epoll?is?using?them.?This?is?held?during?the?event? ? ?182?????????*?collection?loop,?the?file?cleanup?path,?the?epoll?file?exit? ? ?183?????????*?code?and?the?ctl?operations.? ? ?184?????????*/?? ?? ?185????????struct?mutex?mtx;?? ?? ?186?? ?? ?187????????/*?Wait?queue?used?by?sys_epoll_wait()?*/?? ?? ?188????????wait_queue_head_t?wq;?? ?? ?189?? ?? ?190????????/*?Wait?queue?used?by?file->poll()?*/?? ?? ?191????????wait_queue_head_t?poll_wait;?? ?? ?192?? ?? ?193????????/*?List?of?ready?file?descriptors?*/?? ?? ?194????????struct?list_head?rdllist;?? ?? ?195?? ?? ?196????????/*?RB?tree?root?used?to?store?monitored?fd?structs?*/?? ?? ?197????????struct?rb_root?rbr;//紅黑樹根節點,這棵樹存儲著所有添加到epoll中的事件,也就是這個epoll監控的事件?? ?198?? ?199????????/*? ?200?????????*?This?is?a?single?linked?list?that?chains?all?the?"struct?epitem"?that? ?201?????????*?happened?while?transferring?ready?events?to?userspace?w/out? ?202?????????*?holding?->lock.? ?203?????????*/?? ?204????????struct?epitem?*ovflist;?? ?205?? ?206????????/*?wakeup_source?used?when?ep_scan_ready_list?is?running?*/?? ?207????????struct?wakeup_source?*ws;?? ?208?? ?209????????/*?The?user?that?created?the?eventpoll?descriptor?*/?? ?210????????struct?user_struct?*user;?? ?211?? ?212????????struct?file?*file;?? ?213?? ?214????????/*?used?to?optimize?loop?detection?check?*/?? ?215????????int?visited;?? ?216????????struct?list_head?visited_list_link;//雙向鏈表中保存著將要通過epoll_wait返回給用戶的、滿足條件的事件?? ?217};??
?
每一個epoll對象都有一個獨立的eventpoll結構體,這個結構體會在內核空間中創造獨立的內存,用于存儲使用epoll_ctl方法向epoll對象中添加進來的事件。這樣,重復的事件就可以通過紅黑樹而高效的識別出來。
?
在epoll中,對于每一個事件都會建立一個epitem結構體:
[cpp] ?view plain?copy
?
/*? ?130?*?Each?file?descriptor?added?to?the?eventpoll?interface?will? ?131?*?have?an?entry?of?this?type?linked?to?the?"rbr"?RB?tree.? ?132?*?Avoid?increasing?the?size?of?this?struct,?there?can?be?many?thousands? ?133?*?of?these?on?a?server?and?we?do?not?want?this?to?take?another?cache?line.? ?134?*/?? ?135struct?epitem?{?? ?136????????/*?RB?tree?node?used?to?link?this?structure?to?the?eventpoll?RB?tree?*/?? ?137????????struct?rb_node?rbn;?? ?138?? ?139????????/*?List?header?used?to?link?this?structure?to?the?eventpoll?ready?list?*/?? ?140????????struct?list_head?rdllink;?? ?141?? ?142????????/*? ?143?????????*?Works?together?"struct?eventpoll"->ovflist?in?keeping?the? ?144?????????*?single?linked?chain?of?items.? ?145?????????*/?? ?146????????struct?epitem?*next;?? ?147?? ?148????????/*?The?file?descriptor?information?this?item?refers?to?*/?? ?149????????struct?epoll_filefd?ffd;?? ?150?? ?151????????/*?Number?of?active?wait?queue?attached?to?poll?operations?*/?? ?152????????int?nwait;?? ?153?? ?154????????/*?List?containing?poll?wait?queues?*/?? ?155????????struct?list_head?pwqlist;?? ?156?? ?157????????/*?The?"container"?of?this?item?*/?? ?158????????struct?eventpoll?*ep;?? ?159?? ?160????????/*?List?header?used?to?link?this?item?to?the?"struct?file"?items?list?*/?? ?161????????struct?list_head?fllink;?? ?162?? ?163????????/*?wakeup_source?used?when?EPOLLWAKEUP?is?set?*/?? ?164????????struct?wakeup_source?__rcu?*ws;?? ?165?? ?166????????/*?The?structure?that?describe?the?interested?events?and?the?source?fd?*/?? ?167????????struct?epoll_event?event;?? ?168};??
?
此外,epoll還維護了一個雙鏈表,用戶存儲發生的事件。當epoll_wait調用時,僅僅觀察這個list鏈表里有沒有數據即eptime項即可。有數據就返回,沒有數據就sleep,等到timeout時間到后即使鏈表沒數據也返回。所以,epoll_wait非常高效。
?
而且,通常情況下即使我們要監控百萬計的句柄,大多一次也只返回很少量的準備就緒句柄而已,所以,epoll_wait僅需要從內核態copy少量的句柄到用戶態而已,如何能不高效?!
?
那么,這個準備就緒list鏈表是怎么維護的呢?當我們執行epoll_ctl時,除了把socket放到epoll文件系統里file對象對應的紅黑樹上之外,還會給內核中斷處理程序注冊一個回調函數,告訴內核,如果這個句柄的中斷到了,就把它放到準備就緒list鏈表里。所以,當一個socket上有數據到了,內核在把網卡上的數據copy到內核中后就來把socket插入到準備就緒鏈表里了。
?
如此,一顆紅黑樹,一張準備就緒句柄鏈表,少量的內核cache,就幫我們解決了大并發下的socket處理問題。執行epoll_create時,創建了紅黑樹和就緒鏈表,執行epoll_ctl時,如果增加socket句柄,則檢查在紅黑樹中是否存在,存在立即返回,不存在則添加到樹干上,然后向內核注冊回調函數,用于當中斷事件來臨時向準備就緒鏈表中插入數據。執行epoll_wait時立刻返回準備就緒鏈表里的數據即可。
?
epoll的使用方法
那么究竟如何來使用epoll呢?其實非常簡單。
?
通過在包含一個頭文件#include <sys/epoll.h>?以及幾個簡單的API將可以大大的提高你的網絡服務器的支持人數。
?
首先通過create_epoll(int maxfds)來創建一個epoll的句柄。這個函數會返回一個新的epoll句柄,之后的所有操作將通過這個句柄來進行操作。在用完之后,記得用close()來關閉這個創建出來的epoll句柄。
?
之后在你的網絡主循環里面,每一幀的調用epoll_wait(int epfd, epoll_event events, int max events, int timeout)來查詢所有的網絡接口,看哪一個可以讀,哪一個可以寫了。基本的語法為:
nfds = epoll_wait(kdpfd, events, maxevents, -1);
?
其中kdpfd為用epoll_create創建之后的句柄,events是一個epoll_event*的指針,當epoll_wait這個函數操作成功之后,epoll_events里面將儲存所有的讀寫事件。max_events是當前需要監聽的所有socket句柄數。最后一個timeout是?epoll_wait的超時,為0的時候表示馬上返回,為-1的時候表示一直等下去,直到有事件返回,為任意正整數的時候表示等這么長的時間,如果一直沒有事件,則返回。一般如果網絡主循環是單獨的線程的話,可以用-1來等,這樣可以保證一些效率,如果是和主邏輯在同一個線程的話,則可以用0來保證主循環的效率。
?
epoll_wait返回之后應該是一個循環,遍歷所有的事件。
?
?
幾乎所有的epoll程序都使用下面的框架:
[cpp] ?view plain?copy
?
for(?;?;?)?? ???{?? ???????nfds?=?epoll_wait(epfd,events,20,500);?? ???????for(i=0;i<nfds;++i)?? ???????{?? ???????????if(events[i].data.fd==listenfd)?//有新的連接?? ???????????{?? ???????????????connfd?=?accept(listenfd,(sockaddr?*)&clientaddr,?&clilen);?//accept這個連接?? ???????????????ev.data.fd=connfd;?? ???????????????ev.events=EPOLLIN|EPOLLET;?? ???????????????epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);?//將新的fd添加到epoll的監聽隊列中?? ???????????}?? ?? ???????????else?if(?events[i].events&EPOLLIN?)?//接收到數據,讀socket?? ???????????{?? ???????????????n?=?read(sockfd,?line,?MAXLINE))?<?0????//讀?? ???????????????ev.data.ptr?=?md;?????//md為自定義類型,添加數據?? ???????????????ev.events=EPOLLOUT|EPOLLET;?? ???????????????epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);//修改標識符,等待下一個循環時發送數據,異步處理的精髓?? ???????????}?? ???????????else?if(events[i].events&EPOLLOUT)?//有數據待發送,寫socket?? ???????????{?? ???????????????struct?myepoll_data*?md?=?(myepoll_data*)events[i].data.ptr;????//取數據?? ???????????????sockfd?=?md->fd;?? ???????????????send(?sockfd,?md->ptr,?strlen((char*)md->ptr),?0?);????????//發送數據?? ???????????????ev.data.fd=sockfd;?? ???????????????ev.events=EPOLLIN|EPOLLET;?? ???????????????epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);?//修改標識符,等待下一個循環時接收數據?? ???????????}?? ???????????else?? ???????????{?? ???????????????//其他的處理?? ???????????}?? ???????}?? ???}??
?
epoll的程序實例
?
[cpp] ?view plain?copy
?
?#include?<stdio.h>?? #include?<stdlib.h>?? #include?<unistd.h>?? #include?<errno.h>?? #include?<sys/socket.h>?? #include?<netdb.h>?? #include?<fcntl.h>?? #include?<sys/epoll.h>?? #include?<string.h>?? ?? #define?MAXEVENTS?64?? ?? //函數:?? //功能:創建和綁定一個TCP?socket?? //參數:端口?? //返回值:創建的socket?? static?int?? create_and_bind?(char?*port)?? {?? ??struct?addrinfo?hints;?? ??struct?addrinfo?*result,?*rp;?? ??int?s,?sfd;?? ?? ??memset?(&hints,?0,?sizeof?(struct?addrinfo));?? ??hints.ai_family?=?AF_UNSPEC;?????/*?Return?IPv4?and?IPv6?choices?*/?? ??hints.ai_socktype?=?SOCK_STREAM;?/*?We?want?a?TCP?socket?*/?? ??hints.ai_flags?=?AI_PASSIVE;?????/*?All?interfaces?*/?? ?? ??s?=?getaddrinfo?(NULL,?port,?&hints,?&result);?? ??if?(s?!=?0)?? ????{?? ??????fprintf?(stderr,?"getaddrinfo:?%s\n",?gai_strerror?(s));?? ??????return?-1;?? ????}?? ?? ??for?(rp?=?result;?rp?!=?NULL;?rp?=?rp->ai_next)?? ????{?? ??????sfd?=?socket?(rp->ai_family,?rp->ai_socktype,?rp->ai_protocol);?? ??????if?(sfd?==?-1)?? ????????continue;?? ?? ??????s?=?bind?(sfd,?rp->ai_addr,?rp->ai_addrlen);?? ??????if?(s?==?0)?? ????????{?? ??????????/*?We?managed?to?bind?successfully!?*/?? ??????????break;?? ????????}?? ?? ??????close?(sfd);?? ????}?? ?? ??if?(rp?==?NULL)?? ????{?? ??????fprintf?(stderr,?"Could?not?bind\n");?? ??????return?-1;?? ????}?? ?? ??freeaddrinfo?(result);?? ?? ??return?sfd;?? }?? ?? ?? //函數?? //功能:設置socket為非阻塞的?? static?int?? make_socket_non_blocking?(int?sfd)?? {?? ??int?flags,?s;?? ?? ??//得到文件狀態標志?? ??flags?=?fcntl?(sfd,?F_GETFL,?0);?? ??if?(flags?==?-1)?? ????{?? ??????perror?("fcntl");?? ??????return?-1;?? ????}?? ?? ??//設置文件狀態標志?? ??flags?|=?O_NONBLOCK;?? ??s?=?fcntl?(sfd,?F_SETFL,?flags);?? ??if?(s?==?-1)?? ????{?? ??????perror?("fcntl");?? ??????return?-1;?? ????}?? ?? ??return?0;?? }?? ?? //端口由參數argv[1]指定?? int?? main?(int?argc,?char?*argv[])?? {?? ??int?sfd,?s;?? ??int?efd;?? ??struct?epoll_event?event;?? ??struct?epoll_event?*events;?? ?? ??if?(argc?!=?2)?? ????{?? ??????fprintf?(stderr,?"Usage:?%s?[port]\n",?argv[0]);?? ??????exit?(EXIT_FAILURE);?? ????}?? ?? ??sfd?=?create_and_bind?(argv[1]);?? ??if?(sfd?==?-1)?? ????abort?();?? ?? ??s?=?make_socket_non_blocking?(sfd);?? ??if?(s?==?-1)?? ????abort?();?? ?? ??s?=?listen?(sfd,?SOMAXCONN);?? ??if?(s?==?-1)?? ????{?? ??????perror?("listen");?? ??????abort?();?? ????}?? ?? ??//除了參數size被忽略外,此函數和epoll_create完全相同?? ??efd?=?epoll_create1?(0);?? ??if?(efd?==?-1)?? ????{?? ??????perror?("epoll_create");?? ??????abort?();?? ????}?? ?? ??event.data.fd?=?sfd;?? ??event.events?=?EPOLLIN?|?EPOLLET;//讀入,邊緣觸發方式?? ??s?=?epoll_ctl?(efd,?EPOLL_CTL_ADD,?sfd,?&event);?? ??if?(s?==?-1)?? ????{?? ??????perror?("epoll_ctl");?? ??????abort?();?? ????}?? ?? ??/*?Buffer?where?events?are?returned?*/?? ??events?=?calloc?(MAXEVENTS,?sizeof?event);?? ?? ??/*?The?event?loop?*/?? ??while?(1)?? ????{?? ??????int?n,?i;?? ?? ??????n?=?epoll_wait?(efd,?events,?MAXEVENTS,?-1);?? ??????for?(i?=?0;?i?<?n;?i++)?? ????????{?? ??????????if?((events[i].events?&?EPOLLERR)?||?? ??????????????(events[i].events?&?EPOLLHUP)?||?? ??????????????(!(events[i].events?&?EPOLLIN)))?? ????????????{?? ??????????????/*?An?error?has?occured?on?this?fd,?or?the?socket?is?not? ?????????????????ready?for?reading?(why?were?we?notified?then?)?*/?? ??????????????fprintf?(stderr,?"epoll?error\n");?? ??????????????close?(events[i].data.fd);?? ??????????????continue;?? ????????????}?? ?? ??????????else?if?(sfd?==?events[i].data.fd)?? ????????????{?? ??????????????/*?We?have?a?notification?on?the?listening?socket,?which? ?????????????????means?one?or?more?incoming?connections.?*/?? ??????????????while?(1)?? ????????????????{?? ??????????????????struct?sockaddr?in_addr;?? ??????????????????socklen_t?in_len;?? ??????????????????int?infd;?? ??????????????????char?hbuf[NI_MAXHOST],?sbuf[NI_MAXSERV];?? ?? ??????????????????in_len?=?sizeof?in_addr;?? ??????????????????infd?=?accept?(sfd,?&in_addr,?&in_len);?? ??????????????????if?(infd?==?-1)?? ????????????????????{?? ??????????????????????if?((errno?==?EAGAIN)?||?? ??????????????????????????(errno?==?EWOULDBLOCK))?? ????????????????????????{?? ??????????????????????????/*?We?have?processed?all?incoming? ?????????????????????????????connections.?*/?? ??????????????????????????break;?? ????????????????????????}?? ??????????????????????else?? ????????????????????????{?? ??????????????????????????perror?("accept");?? ??????????????????????????break;?? ????????????????????????}?? ????????????????????}?? ?? ??????????????????????????????????//將地址轉化為主機名或者服務名?? ??????????????????s?=?getnameinfo?(&in_addr,?in_len,?? ???????????????????????????????????hbuf,?sizeof?hbuf,?? ???????????????????????????????????sbuf,?sizeof?sbuf,?? ???????????????????????????????????NI_NUMERICHOST?|?NI_NUMERICSERV);//flag參數:以數字名返回?? ??????????????????????????????????//主機地址和服務地址?? ?? ??????????????????if?(s?==?0)?? ????????????????????{?? ??????????????????????printf("Accepted?connection?on?descriptor?%d?"?? ?????????????????????????????"(host=%s,?port=%s)\n",?infd,?hbuf,?sbuf);?? ????????????????????}?? ?? ??????????????????/*?Make?the?incoming?socket?non-blocking?and?add?it?to?the? ?????????????????????list?of?fds?to?monitor.?*/?? ??????????????????s?=?make_socket_non_blocking?(infd);?? ??????????????????if?(s?==?-1)?? ????????????????????abort?();?? ?? ??????????????????event.data.fd?=?infd;?? ??????????????????event.events?=?EPOLLIN?|?EPOLLET;?? ??????????????????s?=?epoll_ctl?(efd,?EPOLL_CTL_ADD,?infd,?&event);?? ??????????????????if?(s?==?-1)?? ????????????????????{?? ??????????????????????perror?("epoll_ctl");?? ??????????????????????abort?();?? ????????????????????}?? ????????????????}?? ??????????????continue;?? ????????????}?? ??????????else?? ????????????{?? ??????????????/*?We?have?data?on?the?fd?waiting?to?be?read.?Read?and? ?????????????????display?it.?We?must?read?whatever?data?is?available? ?????????????????completely,?as?we?are?running?in?edge-triggered?mode? ?????????????????and?won't?get?a?notification?again?for?the?same? ?????????????????data.?*/?? ??????????????int?done?=?0;?? ?? ??????????????while?(1)?? ????????????????{?? ??????????????????ssize_t?count;?? ??????????????????char?buf[512];?? ?? ??????????????????count?=?read?(events[i].data.fd,?buf,?sizeof(buf));?? ??????????????????if?(count?==?-1)?? ????????????????????{?? ??????????????????????/*?If?errno?==?EAGAIN,?that?means?we?have?read?all? ?????????????????????????data.?So?go?back?to?the?main?loop.?*/?? ??????????????????????if?(errno?!=?EAGAIN)?? ????????????????????????{?? ??????????????????????????perror?("read");?? ??????????????????????????done?=?1;?? ????????????????????????}?? ??????????????????????break;?? ????????????????????}?? ??????????????????else?if?(count?==?0)?? ????????????????????{?? ??????????????????????/*?End?of?file.?The?remote?has?closed?the? ?????????????????????????connection.?*/?? ??????????????????????done?=?1;?? ??????????????????????break;?? ????????????????????}?? ?? ??????????????????/*?Write?the?buffer?to?standard?output?*/?? ??????????????????s?=?write?(1,?buf,?count);?? ??????????????????if?(s?==?-1)?? ????????????????????{?? ??????????????????????perror?("write");?? ??????????????????????abort?();?? ????????????????????}?? ????????????????}?? ?? ??????????????if?(done)?? ????????????????{?? ??????????????????printf?("Closed?connection?on?descriptor?%d\n",?? ??????????????????????????events[i].data.fd);?? ?? ??????????????????/*?Closing?the?descriptor?will?make?epoll?remove?it? ?????????????????????from?the?set?of?descriptors?which?are?monitored.?*/?? ??????????????????close?(events[i].data.fd);?? ????????????????}?? ????????????}?? ????????}?? ????}?? ?? ??free?(events);?? ?? ??close?(sfd);?? ?? ??return?EXIT_SUCCESS;?? }??
?
?
運行方式:
在一個終端運行此程序:epoll.out PORT
另一個終端:telnet ?127.0.0.1 PORT
截圖:
?
?
參考資料:
?
http://man7.org/linux/man-pages/man2/epoll_create.2.html
https://banu.com/blog/2/how-to-use-epoll-a-complete-example-in-c/
總結
以上是生活随笔 為你收集整理的读过的最好的epoll讲解 的全部內容,希望文章能夠幫你解決所遇到的問題。
如果覺得生活随笔 網站內容還不錯,歡迎將生活随笔 推薦給好友。