使用場景: 搜索服務啟動100個進程 定時器觸發(fā)任務調(diào)度系統(tǒng),向搜素服務投遞任務(tcp) 搜索服務不間斷的接受任務發(fā)起curl請求去第三方請求數(shù)據(jù)(返回的數(shù)據(jù)包很大),調(diào)試發(fā)現(xiàn)在json_decode的時候 fork出來的進程分配內(nèi)存會暴漲,很快吃光系統(tǒng)內(nèi)存 ? 請問這種情況要怎么處理?
ps auxf 看下,是不是無限創(chuàng)建了進程哦。 ? workerman可以動態(tài)fork進程?
后臺調(diào)試發(fā)現(xiàn) 這個可能是我返回的報文太大的原因 只能少開一點進程處理了