<div dir="ltr">Hi Frank,<div><br></div><div>I think some context would help us to better understand your problem. For example what kind of problems do these lock conflicts cause in your system? Are there some Erlang processes that got stuck for several seconds? What are they trying to do at that time? Or is it only that the throughput you experience stays below your expectations?</div><div><br></div><div>The lock stats in the gists don't seem that wrong to me. I don't have much experience with lock counters and can't figure out from the gists what do these ports are (the image files? tcp connections?) and how they are used, but my guess is they are the tcp connections. Each port lock is tried 4 or 5 times and there's only 1 (albeit often very long) collision. This is how I'd expect a web server to handle a tcp connection: do one read, one write, close it - a handful of operations only. And if you have an unresponsive client or bad network, one operation may easily take 6-7 seconds, blocking the next one. So just a guess, but is it possible you attempt to use the same tcp socket from two different processes?</div><div><br></div><div>Cheers,</div><div>Daniel</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, 3 Jan 2020 at 00:40, Frank Muller <<a href="mailto:frank.muller.erl@gmail.com">frank.muller.erl@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div dir="auto">The more load we have, the more locks contention we get:</div></div><div dir="auto"><br></div><div><div><a href="https://gist.github.com/frankmullerl/7fb9470e22869312d97011c0faf0046b" target="_blank">https://gist.github.com/frankmullerl/7fb9470e22869312d97011c0faf0046b</a></div><div dir="auto"><br></div><div dir="auto">/Frank</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto">Hi Mikael</div><div dir="auto"><br></div><div dir="auto">Thanks for pointing out prim_inet. To my knowledge, it’s undocumented I can be changed by the OTP team. That’s why I’ve avoided it at the first place. </div><div dir="auto"><br></div><div dir="auto">By the way, you probably mean prim_inet:sendfile/4 not 8, correct?</div><div dir="auto"><br></div><div dir="auto">I made a quick the change to my app and found that the throughput is a little bit better (3% faster).</div><div dir="auto"><br></div><div dir="auto">But these port locks are still there :-/</div><div dir="auto">Any other ideas?</div><div dir="auto"><br></div><div dir="auto">/Frank</div><div dir="auto"><br></div><div>On Thu, Jan 2, 2020 at 5:38 PM Frank Muller <<a href="mailto:frank.muller.erl@gmail.com" target="_blank">frank.muller.erl@gmail.com</a>> wrote:<br></div><div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
><br>
> Thanks to @Peti Gömöri, I was able to identify these Port locks:<br>
> <a href="https://gist.github.com/frankmullerl/008174c6594ca27584ac7f4e6724bee5" rel="noreferrer" target="_blank">https://gist.github.com/frankmullerl/008174c6594ca27584ac7f4e6724bee5</a><br>
><br>
> Some of them are taking up to 6.7sec (6707846 usec) :-/<br>
><br>
> My application is serving static images by calling file:sendfile/2 (<a href="https://erlang.org/doc/man/file.html#sendfile-2" rel="noreferrer" target="_blank">https://erlang.org/doc/man/file.html#sendfile-2</a>).<br>
><br>
> Can someone please explain how I can avoid these locks or at least make their impact lesser?<br>
<br>
Using the file module has been known to cause synchronization<br>
overheads.  Often we (Klarna) use prim_file instead,<br>
but it has sendfile/8 not /2.  Anyway, that may be an avenue worth<br>
investigating.<br>
</blockquote></div></div>
</blockquote></div></div>
</blockquote></div>