<div dir="ltr">Kenneth,<br><br>Thank you very much for answering many, if not all, of my questions. It is extremely useful to get an authoritative answer like yours, upon which one can base objective performance-related decisions.<br>
<br>For example, as you stated, <br><br>
>> Of course the running<br>>> of several VM's require that the application can run<br>>> in many parallel tasks which has no or very little communication with<br>>> each other.<br>
<br>If using -smp disable (not +S 1, which I mistakenly thought was equivalent to -smp disable), there are applications that could benefit considerably, such as those that have many thousands of concurrent TCP/IP-initiated processes (what Joe Armstrong calls "naturally concurrent") that are not related to each other and therefore have no significant cross-VM IPC. A non-database backed content-serving web site is one example. Partitioning what would amount to numerous HTTP GET requests across multiple Erlang -smp disabled VMs, one per core, using a hardware load balancer, is likely to show performance benefits over the homogeneous SMP approach. Note that this scenario is consistent with your requirements of (a) little or no cross-VM IPC and (b) little or no heavy Mnesia or ETS table sharing.<br>
<br>One could potentially make good use of a CPU affinity command such as taskset (as you mentioned). This would have applicability where, for example, one wanted to "reserve" some CPUs for non-Erlang usage, such as to run some special-purpose high-priority application that would suffer performance-wise if it were to be preempted by the OS. If using -smp disable, then the single thread of a VM can safely be affinitied to a specific CPU or core and will not "migrate" to other processors. In addition, it is arguably possible that in this and similar scenarios, keeping a VM on a single core will benefit from improved processor and data cache hit rates and reduced or eliminated cache coherency storms. The part that is arguable is that if the VM itself is preempted, the contents of the processor cache may become invalidated anyway. This suggests that the VM should be run at an elevated priority and be kept busy so that it is always the top contender for the OS run queue and seldom gets rescheduled.<br>
<br>Of course, this is advanced performance tweaking and will probably be unnecessary for the majority of Erlang applications. However, for those who are trying to wring the last iota of performance out of their applications, this information can be invaluable.<br>
<br>In more common situations, this information can help Erlang-based system designers avoid lock contention by taking it into account when designing around database and ETS tables. In some cases it may make sense to have a process that owns a private table, and have all other processes interact with the table via this "gatekeeper". Careful measurement and thought will be needed to establish whether the bottleneck created by serializing access through an Erlang gen_server-style process is better or worse than the bottleneck created by serializing access through an ETS table lock, for example. <br>
<br>One final thought is that whenever some product is invented for a specific purpose, and excels at that purpose, as it becomes more popular it begins to get used in ways that its original designers never anticipated. Some of these uses are in line with the original design intent, but push the envelope and need improvements to the product implementation, and others are simply stretching the capabilities of the product in inappropriate directions. This has been seen in numerous cases, and seems to stem from the desire to have one tool that can do everything, and not have to know and support multiple tools. Then we have a hammer, and the world starts to look like a collection of nails.<br>
<br>As far as I can see, the answer is always the same: use the tool that is right for the job. Don't fall into the trap of "100% Pure Erlang" everywhere. It's less convenient, but if you want performance, offload the heavy crunching stuff to 'C' drivers. For example, instead of using xmerl for heavy XML processing, do what ejabberd does: use the 'C' expat parser via a linked-in driver. The Ruby community had exactly the same issue with XML parsing. Need heavy use of regular expressions? Use re, not regexp. Need heavy database processing? Maybe Mnesia is not the right tool for this particular job, although it may excel in the dimension for which it was designed: soft real-time telecomms applications. And so on. True, it is less convenient to have to step outside the environment in which one has become comfortable, and have architecture-specific applications (and risks to the robustness of the VM if the LID has any crashworthy bugs), but sometimes if you need the performance, and your algorithms are already appropriate, you have to use the right tool for the job and take the risks.<br>
<br>As support for this argument, the AXD301 project has "a couple of million" lines of Erlang code, and at one point had over 1 million lines of C/C++ code. The exact numbers seem to be elusive or outdated (the Erlang FAQ is way out of date, and other documents I found are vague as to how much C/C++ is currently used); if someone (e.g. Ulf Wiger) could provide more accurate information I'd appreciate it. How much of the C/C++ code is used for device interfaces and is hence unavoidable, how much for efficiency considerations, and how much for other purposes is not known to me. Still, the point is that this is not a "100% pure Erlang" implementation, and I would be very surprised if at least some of that C/C++ code was not there for efficiency.<br>
<br>Thank you again.<br><br>Regards,<br>Edwin Fine<br><br><br><br><div class="gmail_quote">On Tue, Sep 16, 2008 at 5:34 AM, Kenneth Lundin <span dir="ltr"><<a href="mailto:kenneth.lundin@gmail.com">kenneth.lundin@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Here are some short facts about how the Erlang SMP implementation<br>
works and how it<br>
relates to performance and scalability.<br>
There will be a more detailed description of how multi core works and<br>
on the future plans available<br>
in a couple of weeks. I plan to include some of this in my<br>
presentation at the ICFP2008, Erlang Workshop in Victoria BC,<br>
September 27<br>
The Erlang VM without SMP support has 1 scheduler which runs in the<br>
main process thread. The scheduler<br>
picks runnable Erlang processes and IO-jobs from the run-queue and<br>
there is no need to lock data structures since<br>
there is only one thread accessing them.<br>
The Erlang VM with SMP support can have 1 to many schedulers which are<br>
run in 1 thread each. The schedulers pick runnable Erlang processes<br>
and IO-jobs from one common run-queue. In the SMP VM all shared data<br>
structures are<br>
protected with locks, the run-queue is one example of a data structure<br>
protected with locks.<br>
>From OTP R12B the SMP version of the VM is automatically started as<br>
default if the OS reports more than 1 CPU (or Core) and with the same<br>
number of schedulers as CPU's or Cores.<br>
You can see what was chosen at the first line of printout from the<br>
"erl" command. E.g.<br>
Erlang (BEAM) emulator version 5.6.4 [source] [smp:4] [asynch-threads:0] .....<br>
The "[smp:4]" above tells that the SMP VM is run and with 4 schedulers.<br>
The default behaviour can be overridden with the<br>
 "-smp [enable|disable|auto]"  auto is default<br>
and to set the number of schedulers, if smp is set to enable or auto<br>
"+S Number"         where Number is the number of schedulers (1..1024)<br>
Note ! that it is normally nothing to gain from running with more<br>
schedulers than the number of CPU's or Cores.<br>
Note2 ! On some operating systems the number of CPU's or Cores to be<br>
used by a process can be restricted<br>
with commands. For example on Linux the command "taskset" can be used<br>
for this. The Erlang VM will<br>
currently only detect number of available CPU's or Cores and will not<br>
take the mask set by "taskset" into account.<br>
Because of this it can happen and has happened that e.g. only 2 Cores<br>
are used even if the Erlang VM<br>
runs with 4 schedulers. It is the OS that limits this because it take<br>
the mask from "taskset" into account.<br>
The schedulers in the Erlang VM are run on one OS-thread each and it<br>
is the OS that decides if the threads are<br>
executed on different Cores. Normally the OS will do this just fine<br>
and will also keep the thread on the same Core throughout the<br>
The Erlang processes will be run by different schedulers because they<br>
are picked from a common run-queue by<br>
the first scheduler that becomes available.<br>
Performance and scalability<br>
- The SMP VM with only one scheduler is slightly slower than the non<br>
SMP VM. The SMP VM need to to use all the locks inside but as long as<br>
there are no lock-conflicts the overhead caused by locking is not<br>
significant (it is the lock conflicts that takes time). This explains<br>
why it in some cases can be more efficient to run several SMP VM's<br>
with one scheduler each<br>
instead on one SMP VM with several schedulers. Of course the running<br>
of several VM's require that the application can run<br>
in many parallel tasks which has no or very little communication with<br>
each other.<br>
- If a program scale well with the SMP VM over many cores depends very<br>
much on the characteristics of the program, some programs scale<br>
linearly up to 8 and even 16 cores while other programs barely scale<br>
at all even on 2 cores.<br>
This might sound bad, but in practice many real programs scale well on<br>
the number of cores that are common on the<br>
market today, see below.<br>
- Real telecoms products supporting a massive number if simultaneously<br>
ongoing "calls" represented as one or several<br>
Erlang processes per core have shown very good scalability on dual and<br>
quad core processors. Note, that these products<br>
was written in the normal Erlang style long before the SMP VM and<br>
multi core processors where available and they<br>
could benefit from the Erlang SMP VM without changes and even without<br>
need to recompile the code.<br>
SMP performance is continually improved<br>
The SMP implementation is continually improved in order to get better<br>
performance and scalability. In each service release<br>
R12B-1, 2, 3, 4, 5 , ..., R13B etc. you will find new optimizations.<br>
Some known bottlenecks<br>
- The single common run-queue will become a dominant bottleneck when<br>
the number of CPU's or Cores increase.<br>
Will be visible from 4 cores and upwards, but 4 cores will probably<br>
still give ok performance for many applications.<br>
We are working on a solution with one run-queue per scheduler as the<br>
most important improvement right now.<br>
- Ets tables involves locking. Before R12B-4 there was 2 locks<br>
involved in every access to an ets-table, but<br>
in R12B-4 the locking of the meta-table is optimized to reduce the<br>
conflicts significantly (as mentioned earlier it is the conflicts that<br>
are expensive).<br>
If many Erlang processes access the same table there will be a lot of<br>
lock conflicts causing bad performance especially if these processes<br>
spend a majority of their work accessing ets-tables.<br>
The locking is on table-level not on record level.<br>
Note! that this will have impact on Mnesia as well since Mnesia is a<br>
heavy user of ets-tables.<br>
Our strategy with SMP<br>
Already from the beginning when we started implementation of the SMP<br>
VM we decided on the strategy:<br>
"First make it work, then measure, then optimize".<br>
We are still following this strategy consistently since the first<br>
stable working SMP VM that we released in May 2006 (R11B).<br>
There are more known things to improve and we address them one by one<br>
taking the one we think gives most<br>
performance per implementation effort first and so on.<br>
We are putting most focus on getting consistent better scaling on many<br>
cores (more than 4).<br>
Best in class<br>
Even if there are a number of known bottlenecks<br>
the SMP system already has good overall performance and scalability<br>
and I believe we are best in class<br>
when it comes to letting the programmer utilize multi -core machines<br>
in an easy productive way.<br>
/Kenneth Erlang/OTP team, Ericsson<br>
erlang-questions mailing list<br>
<a href="mailto:erlang-questions@erlang.org">erlang-questions@erlang.org</a><br>
<a href="http://www.erlang.org/mailman/listinfo/erlang-questions" target="_blank">http://www.erlang.org/mailman/listinfo/erlang-questions</a><br>