<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      socket I/O模型詳解【轉(zhuǎn)】


      作  者: flyinwuhan (制怒?三思而后行) 

       

      本文簡(jiǎn)單介紹了當(dāng)前Windows支持的各種Socket I/O模型,如果你發(fā)現(xiàn)其中存在什么錯(cuò)誤請(qǐng)務(wù)必賜教。

      一:select模型
      二:WSAAsyncSelect模型
      三:WSAEventSelect模型
      四:Overlapped I/O 事件通知模型
      五:Overlapped I/O 完成例程模型
      六:IOCP模型

      老陳有一個(gè)在外地工作的女兒,不能經(jīng)常回來,老陳和她通過信件聯(lián)系。他們的信會(huì)被郵遞員投遞到他們的信箱里。
      這和Socket模型非常類似。下面我就以老陳接收信件為例講解Socket I/O模型~~~

      一:select模型

      老陳非常想看到女兒的信。以至于他每隔10分鐘就下樓檢查信箱,看是否有女兒的信~~~~~
      在這種情況下,"下樓檢查信箱"然后回到樓上耽誤了老陳太多的時(shí)間,以至于老陳無法做其他工作。
      select模型和老陳的這種情況非常相似:周而復(fù)始地去檢查......如果有數(shù)據(jù)......接收/發(fā)送.......

      使用線程來select應(yīng)該是通用的做法:
      procedure TListenThread.Execute;
      var
      addr : TSockAddrIn;
      fd_read : TFDSet;
      timeout : TTimeVal;
      ASock,
      MainSock : TSocket;
      len, i : Integer;
      begin
      MainSock := socket( AF_INET, SOCK_STREAM, IPPROTO_TCP );
      addr.sin_family := AF_INET;
      addr.sin_port := htons(5678);
      addr.sin_addr.S_addr := htonl(INADDR_ANY);
      bind( MainSock, @addr, sizeof(addr) );
      listen( MainSock, 5 );

      while (not Terminated) do
      begin
      FD_ZERO( fd_read );
      FD_SET( MainSock, fd_read );
      timeout.tv_sec := 0;
      timeout.tv_usec := 500;
      if select( 0, @fd_read, nil, nil, @timeout ) > 0 then //至少有1個(gè)等待Accept的connection
      begin
      if FD_ISSET( MainSock, fd_read ) then
      begin
      for i:=0 to fd_read.fd_count-1 do //注意,fd_count <= 64,也就是說select只能同時(shí)管理最多64個(gè)連接
      begin
      len := sizeof(addr);
      ASock := accept( MainSock, addr, len );
      if ASock <> INVALID_SOCKET then
      ....//為ASock創(chuàng)建一個(gè)新的線程,在新的線程中再不停地select
      end; 
      end; 
      end; 
      end; //while (not self.Terminated)

      shutdown( MainSock, SD_BOTH );
      closesocket( MainSock );
      end;

      二:WSAAsyncSelect模型

      后來,老陳使用了微軟公司的新式信箱。這種信箱非常先進(jìn),一旦信箱里有新的信件,蓋茨就會(huì)給老陳打電話:喂,大爺,你有新的信件了!從此,老陳再也不必頻繁上下樓檢查信箱了,牙也不疼了,你瞅準(zhǔn)了,藍(lán)天......不是,微軟~~~~~~~~
      微軟提供的WSAAsyncSelect模型就是這個(gè)意思。

      WSAAsyncSelect模型是Windows下最簡(jiǎn)單易用的一種Socket I/O模型。使用這種模型時(shí),Windows會(huì)把網(wǎng)絡(luò)事件以消息的形勢(shì)通知應(yīng)用程序。
      首先定義一個(gè)消息標(biāo)示常量:
      const WM_SOCKET = WM_USER + 55;
      再在主Form的private域添加一個(gè)處理此消息的函數(shù)聲明:
      private
      procedure WMSocket(var Msg: TMessage); message WM_SOCKET;
      然后就可以使用WSAAsyncSelect了:
      var
      addr : TSockAddr;
      sock : TSocket;

      sock := socket( AF_INET, SOCK_STREAM, IPPROTO_TCP );
      addr.sin_family := AF_INET;
      addr.sin_port := htons(5678);
      addr.sin_addr.S_addr := htonl(INADDR_ANY);
      bind( m_sock, @addr, sizeof(SOCKADDR) );

      WSAAsyncSelect( m_sock, Handle, WM_SOCKET, FD_ACCEPT or FD_CLOSE );

      listen( m_sock, 5 );
      ....

      應(yīng)用程序可以對(duì)收到WM_SOCKET消息進(jìn)行分析,判斷是哪一個(gè)socket產(chǎn)生了網(wǎng)絡(luò)事件以及事件類型:

      procedure TfmMain.WMSocket(var Msg: TMessage);
      var
      sock : TSocket;
      addr : TSockAddrIn;
      addrlen : Integer;
      buf : Array [0..4095] of Char;
      begin
      //Msg的WParam是產(chǎn)生了網(wǎng)絡(luò)事件的socket句柄,LParam則包含了事件類型
      case WSAGetSelectEvent( Msg.LParam ) of
      FD_ACCEPT :
      begin
      addrlen := sizeof(addr);
      sock := accept( Msg.WParam, addr, addrlen );
      if sock <> INVALID_SOCKET then
      WSAAsyncSelect( sock, Handle, WM_SOCKET, FD_READ or FD_WRITE or FD_CLOSE );
      end;

      FD_CLOSE : closesocket( Msg.WParam );
      FD_READ : recv( Msg.WParam, buf[0], 4096, 0 );
      FD_WRITE : ;
      end; 
      end;

      三:WSAEventSelect模型

      后來,微軟的信箱非常暢銷,購買微軟信箱的人以百萬計(jì)數(shù)......以至于蓋茨每天24小時(shí)給客戶打電話,累得腰酸背痛,喝蟻力神都不好使~~~~~~
      微軟改進(jìn)了他們的信箱:在客戶的家中添加一個(gè)附加裝置,這個(gè)裝置會(huì)監(jiān)視客戶的信箱,每當(dāng)新的信件來臨,此裝置會(huì)發(fā)出"新信件到達(dá)"聲,提醒老陳去收信。蓋茨終于可以睡覺了。

      同樣要使用線程:
      procedure TListenThread.Execute;
      var
      hEvent : WSAEvent;
      ret : Integer;
      ne : TWSANetworkEvents;
      sock : TSocket;
      adr : TSockAddrIn;
      sMsg : String;
      Index,
      EventTotal : DWORD;
      EventArray : Array [0..WSA_MAXIMUM_WAIT_EVENTS-1] of WSAEVENT;
      begin
      ...socket...bind...
      hEvent := WSACreateEvent();
      WSAEventSelect( ListenSock, hEvent, FD_ACCEPT or FD_CLOSE );
      ...listen...

      while ( not Terminated ) do
      begin
      Index := WSAWaitForMultipleEvents( EventTotal, @EventArray[0], FALSE, WSA_INFINITE, FALSE );
      FillChar( ne, sizeof(ne), 0 );
      WSAEnumNetworkEvents( SockArray[Index-WSA_WAIT_EVENT_0], EventArray[Index-WSA_WAIT_EVENT_0], @ne );

      if ( ne.lNetworkEvents and FD_ACCEPT ) > 0 then
      begin
      if ne.iErrorCode[FD_ACCEPT_BIT] <> 0 then
      continue;

      ret := sizeof(adr);
      sock := accept( SockArray[Index-WSA_WAIT_EVENT_0], adr, ret );
      if EventTotal > WSA_MAXIMUM_WAIT_EVENTS-1 then//這里WSA_MAXIMUM_WAIT_EVENTS同樣是64
      begin
      closesocket( sock );
      continue;
      end;

      hEvent := WSACreateEvent();
      WSAEventSelect( sock, hEvent, FD_READ or FD_WRITE or FD_CLOSE );
      SockArray[EventTotal] := sock;
      EventArray[EventTotal] := hEvent;
      Inc( EventTotal );
      end;

      if ( ne.lNetworkEvents and FD_READ ) > 0 then
      begin
      if ne.iErrorCode[FD_READ_BIT] <> 0 then
      continue;
      FillChar( RecvBuf[0], PACK_SIZE_RECEIVE, 0 );
      ret := recv( SockArray[Index-WSA_WAIT_EVENT_0], RecvBuf[0], PACK_SIZE_RECEIVE, 0 );
      ......
      end;
      end;
      end;

       

      四:Overlapped I/O 事件通知模型

      后來,微軟通過調(diào)查發(fā)現(xiàn),老陳不喜歡上下樓收發(fā)信件,因?yàn)樯舷聵瞧鋵?shí)很浪費(fèi)時(shí)間。于是微軟再次改進(jìn)他們的信箱。新式的信箱采用了更為先進(jìn)的技術(shù),只要用戶告訴微軟自己的家在幾樓幾號(hào),新式信箱會(huì)把信件直接傳送到用戶的家中,然后告訴用戶,你的信件已經(jīng)放到你的家中了!老陳很高興,因?yàn)樗槐卦儆H自收發(fā)信件了!

      Overlapped I/O 事件通知模型和WSAEventSelect模型在實(shí)現(xiàn)上非常相似,主要區(qū)別在"Overlapped",Overlapped模型是讓應(yīng)用程序使用重疊數(shù)據(jù)結(jié)構(gòu)(WSAOVERLAPPED),一次投遞一個(gè)或多個(gè)Winsock I/O請(qǐng)求。這些提交的請(qǐng)求完成后,應(yīng)用程序會(huì)收到通知。什么意思呢?就是說,如果你想從socket上接收數(shù)據(jù),只需要告訴系統(tǒng),由系統(tǒng)為你接收數(shù)據(jù),而你需要做的只是為系統(tǒng)提供一個(gè)緩沖區(qū)~~~~~
      Listen線程和WSAEventSelect模型一模一樣,Recv/Send線程則完全不同:
      procedure TOverlapThread.Execute;
      var
      dwTemp : DWORD;
      ret : Integer;
      Index : DWORD;
      begin
      ......

      while ( not Terminated ) do
      begin
      Index := WSAWaitForMultipleEvents( FLinks.Count, @FLinks.Events[0], FALSE, RECV_TIME_OUT, FALSE );
      Dec( Index, WSA_WAIT_EVENT_0 );
      if Index > WSA_MAXIMUM_WAIT_EVENTS-1 then //超時(shí)或者其他錯(cuò)誤
      continue;

      WSAResetEvent( FLinks.Events[Index] );
      WSAGetOverlappedResult( FLinks.Sockets[Index], FLinks.pOverlaps[Index], @dwTemp, FALSE, FLinks.pdwFlags[Index]^ );

      if dwTemp = 0 then //連接已經(jīng)關(guān)閉
      begin
      ......
      continue;
      end else
      begin
      fmMain.ListBox1.Items.Add( FLinks.pBufs[Index]^.buf );
      end;

      //初始化緩沖區(qū)
      FLinks.pdwFlags[Index]^ := 0;
      FillChar( FLinks.pOverlaps[Index]^, sizeof(WSAOVERLAPPED), 0 );
      FLinks.pOverlaps[Index]^.hEvent := FLinks.Events[Index];
      FillChar( FLinks.pBufs[Index]^.buf^, BUFFER_SIZE, 0 );

      //遞一個(gè)接收數(shù)據(jù)請(qǐng)求
      WSARecv( FLinks.Sockets[Index], FLinks.pBufs[Index], 1, FLinks.pdwRecvd[Index]^, FLinks.pdwFlags[Index]^, FLinks.pOverlaps[Index], nil );
      end;
      end;

      五:Overlapped I/O 完成例程模型

      老陳接收到新的信件后,一般的程序是:打開信封----掏出信紙----閱讀信件----回復(fù)信件......為了進(jìn)一步減輕用戶負(fù)擔(dān),微軟又開發(fā)了一種新的技術(shù):用戶只要告訴微軟對(duì)信件的操作步驟,微軟信箱將按照這些步驟去處理信件,不再需要用戶親自拆信/閱讀/回復(fù)了!老陳終于過上了小資生活!

      Overlapped I/O 完成例程要求用戶提供一個(gè)回調(diào)函數(shù),發(fā)生新的網(wǎng)絡(luò)事件的時(shí)候系統(tǒng)將執(zhí)行這個(gè)函數(shù):
      procedure WorkerRoutine( const dwError, cbTransferred : DWORD; const
      lpOverlapped : LPWSAOVERLAPPED; const dwFlags : DWORD ); stdcall;
      然后告訴系統(tǒng)用WorkerRoutine函數(shù)處理接收到的數(shù)據(jù):
      WSARecv( m_socket, @FBuf, 1, dwTemp, dwFlag, @m_overlap, WorkerRoutine );
      然后......沒有什么然后了,系統(tǒng)什么都給你做了!微軟真實(shí)體貼!
      while ( not Terminated ) do//這就是一個(gè)Recv/Send線程要做的事情......什么都不用做啊!!!
      begin
      if SleepEx( RECV_TIME_OUT, True ) = WAIT_IO_COMPLETION then //
      begin
      ;
      end else
      begin
      continue;
      end;
      end;

      六:IOCP模型

      微軟信箱似乎很完美,老陳也很滿意。但是在一些大公司情況卻完全不同!這些大公司有數(shù)以萬計(jì)的信箱,每秒鐘都有數(shù)以百計(jì)的信件需要處理,以至于微軟信箱經(jīng)常因超負(fù)荷運(yùn)轉(zhuǎn)而崩潰!需要重新啟動(dòng)!微軟不得不使出殺手锏......
      微軟給每個(gè)大公司派了一名名叫"Completion Port"的超級(jí)機(jī)器人,讓這個(gè)機(jī)器人去處理那些信件!

      "Windows NT小組注意到這些應(yīng)用程序的性能沒有預(yù)料的那么高。特別的,處理很多同時(shí)的客戶請(qǐng)求意味著很多線程并發(fā)地運(yùn)行在系統(tǒng)中。因?yàn)樗羞@些線程都是可運(yùn)行的[沒有被掛起和等待發(fā)生什么事],Microsoft意識(shí)到NT內(nèi)核花費(fèi)了太多的時(shí)間來轉(zhuǎn)換運(yùn)行線程的上下文[Context],線程就沒有得到很多CPU時(shí)間來做它們的工作。大家可能也都感覺到并行模型的瓶頸在于它為每一個(gè)客戶請(qǐng)求都創(chuàng)建了一個(gè)新線程。創(chuàng)建線程比起創(chuàng)建進(jìn)程開銷要小,但也遠(yuǎn)不是沒有開銷的。我們不妨設(shè)想一下:如果事先開好N個(gè)線程,讓它們?cè)谀莌old[堵塞],然后可以將所有用戶的請(qǐng)求都投遞到一個(gè)消息隊(duì)列中去。然后那N個(gè)線程逐一從消息隊(duì)列中去取出消息并加以處理。就可以避免針對(duì)每一個(gè)用戶請(qǐng)求都開線程。不僅減少了線程的資源,也提高了線程的利用率。理論上很不錯(cuò),你想我等泛泛之輩都能想出來的問題,Microsoft又怎會(huì)沒有考慮到呢?"-----摘自nonocast的《理解I/O Completion Port》

      先看一下IOCP模型的實(shí)現(xiàn):

      //創(chuàng)建一個(gè)完成端口
      FCompletPort := CreateIoCompletionPort( INVALID_HANDLE_value, 0,0,0 );

      //接受遠(yuǎn)程連接,并把這個(gè)連接的socket句柄綁定到剛才創(chuàng)建的IOCP上
      AConnect := accept( FListenSock, addr, len);
      CreateIoCompletionPort( AConnect, FCompletPort, nil, 0 );

      //創(chuàng)建CPU數(shù)*2 + 2個(gè)線程
      for i:=1 to si.dwNumberOfProcessors*2+2 do
      begin
      AThread := TRecvSendThread.Create( false );
      AThread.CompletPort := FCompletPort;//告訴這個(gè)線程,你要去這個(gè)IOCP去訪問數(shù)據(jù)
      end;

      OK,就這么簡(jiǎn)單,我們要做的就是建立一個(gè)IOCP,把遠(yuǎn)程連接的socket句柄綁定到剛才創(chuàng)建的IOCP上,最后創(chuàng)建n個(gè)線程,并告訴這n個(gè)線程到這個(gè)IOCP上去訪問數(shù)據(jù)就可以了。

      再看一下TRecvSendThread線程都干些什么:

      procedure TRecvSendThread.Execute;
      var
      ......
      begin
      while (not self.Terminated) do
      begin
      //查詢IOCP狀態(tài)(數(shù)據(jù)讀寫操作是否完成)
      GetQueuedCompletionStatus( CompletPort, BytesTransd, CompletKey, POVERLAPPED(pPerIoDat), TIME_OUT );

      if BytesTransd <> 0 then
      ....;//數(shù)據(jù)讀寫操作完成

      //再投遞一個(gè)讀數(shù)據(jù)請(qǐng)求
      WSARecv( CompletKey, @(pPerIoDat^.BufData), 1, BytesRecv, Flags, @(pPerIoDat^.Overlap), nil );
      end;
      end;

      讀寫線程只是簡(jiǎn)單地檢查IOCP是否完成了我們投遞的讀寫操作,如果完成了則再投遞一個(gè)新的讀寫請(qǐng)求。
      應(yīng)該注意到,我們創(chuàng)建的所有TRecvSendThread都在訪問同一個(gè)IOCP(因?yàn)槲覀冎粍?chuàng)建了一個(gè)IOCP),并且我們沒有使用臨界區(qū)!難道不會(huì)產(chǎn)生沖突嗎?不用考慮同步問題嗎?
      呵呵,這正是IOCP的奧妙所在。IOCP不是一個(gè)普通的對(duì)象,不需要考慮線程安全問題。它會(huì)自動(dòng)調(diào)配訪問它的線程:如果某個(gè)socket上有一個(gè)線程A正在訪問,那么線程B的訪問請(qǐng)求會(huì)被分配到另外一個(gè)socket。這一切都是由系統(tǒng)自動(dòng)調(diào)配的,我們無需過問。

       

      posted @ 2006-02-20 13:29  紅心李  閱讀(159)  評(píng)論(0)    收藏  舉報(bào)
      主站蜘蛛池模板: 亚洲国产高清第一第二区| 国产69精品久久久久久妇女迅雷| 腾冲县| 无码专区视频精品老司机| 中文亚洲成A人片在线观看| 特级做a爰片毛片免费看无码| 强伦人妻一区二区三区| 亚洲偷自拍国综合| 丰满熟妇人妻中文字幕| 色综合网天天综合色中文| 久热久精久品这里在线观看| 国产激情一区二区三区不卡| 国产精品中文字幕观看| 激情综合网激情五月伊人| 亚洲欧美牲交| 波多野结衣在线播放| 亚洲综合网国产精品一区| 久久综合九色综合欧洲98| 国产一区二区三区怡红院| 欧美做受视频播放| 国产精品福利自产拍久久 | 日韩av日韩av在线| 国产精品爆乳奶水无码视频免费| 国产熟睡乱子伦视频在线播放| 忻城县| 国产一区二区三区黄色片 | 国产精品自在线拍国产| 汝阳县| 成人午夜视频一区二区无码| 乱人伦中文视频在线| 日韩中文字幕人妻一区| 成人一区二区人妻不卡视频| 蜜臀av人妻国产精品建身房| 亚洲第一香蕉视频啪啪爽| 国产亚洲av人片在线播放| 免费人成在线观看网站| 国产成人不卡一区二区| 国产精品无码a∨麻豆| 亚洲成人午夜排名成人午夜| 欧美性受xxxx黑人猛交| 国产高清乱码又大又圆|