本文原创文章,转载注明出处,博客地址 https://segmentfault.com/u/to... 第一时间看后续精彩文章。觉得好的话,顺手分享到朋友圈吧,感谢支持。

笔者目前处于失业状态,之前一直对Golang如何处理高并发http请求的一头雾水,这几天也查了很多相关博客,似懂非懂,不知道具体代码怎么写

下午偶然在开发者头条APP上看到一篇国外技术人员的一篇文章用Golang处理每分钟百万级请求,看完文章中的代码,自己写了一遍代码,下面自己写下自己的体会

核心要点

将请求放入队列,通过一定数量(例如CPU核心数)goroutine组成一个worker池(pool),workder池中的worker读取队列执行任务,最理想的状况下,CPU的所有核并行执行任务

实例代码

以下代码笔者根据自己的理解进行了简化,主要是表达出个人的思路,实际后端开发中,根据实际场景修改

func doTask() {

//耗时炒作(模拟)

time.Sleep(1 * time.Second)

}

//这里模拟的http接口,每次请求抽象为一个job

func handle() {

for i := 0; i < 10; i++ {

job := Job{}

JobQueue

}

}

var (

MaxWorker = runtime.NumCPU() //CPU核心数是最大并行数,worker多余并加快不了任务的执行速度,反而会增加切换的负担

MaxQueue = 200000

)

type Worker struct {

quit chan bool

}

func NewWorker() Worker {

return Worker{

quit: make(chan bool)}

}

// Start method starts the run loop for the worker, listening for a quit channel in

// case we need to stop it

func (w Worker) Start() {

go func() {

for {

select {

case

// we have received a work request.

doTask()

case

// we have received a signal to stop

return

}

}

}()

}

// Stop signals the worker to stop listening for work requests.

func (w Worker) Stop() {

go func() {

w.quit

}()

}

type Job struct {

}

var JobQueue chan Job = make(chan Job, MaxQueue)

type Dispatcher struct {

}

func NewDispatcher() *Dispatcher {

return &Dispatcher{}

}

func (d *Dispatcher) Run() {

// starting n number of workers

for i := 0; i < MaxWorker; i++ {

worker := NewWorker()

worker.Start()

}

}

笔者认为,CPU核心数是程序运行时的最大并行数量,所以worker数量多于CPU核心数,并不能提高任务执行速度

以上只是笔者的个人看法,不知道对Golang并发编程的理解是否正确,有错误的地方,希望高手指点一二,在此谢过

有疑问加站长微信联系(非本文作者)