<font color='black' size='2' face='Arial, Helvetica, sans-serif'>Hello Michal, <br>
<font color="black" face="Arial, Helvetica, sans-serif" size="2">
<div><br>
first of all, thanks a lot for your feedback. <br>
<br>
I must admit though, that I get the feeling, that you did either not fully comprehend my intention, <br>
or else, have not read some of the latest research results on multi sensory input evaluation?!<br>
Maybe I just expressed myself not well enough.<br>
<br>
<tt></tt>&gt; For multitouch tablets this is already well covered by multitouch gestures.<tt><br>
<br>
</tt><font><font color="black" face="Arial, Helvetica, sans-serif" size="2">I should have made it clear, that I do not work on multi touch approaches, I apologize for that.</font></font><br>
(Even though multi touch would profit as well ^^)<br>
<br>
&gt; For single-touch devices some mechanism could be handy. Multiple clicks/knocks aren't very useful. <br>
&gt; The distinction between click and doubleclick (multiclick) is usually reasonably clear but it is easy to <br>
&gt; confuse different multiclicks (2, 3, more) due to user error or input analysis error.
<br>
<br>
Actually, through correlation the touch events with sound recognition, confusion is reduced to almost<br>
nonexistence, since touching the screen on its own, does not trigger anything but normal clicks. Only<br>
if further information is at hand (analyzed audio feeds) different events would be triggered.<br>
<br>
&gt; However, if you can detect the user moving their finger towards or
away from the microphone over a <br>
&gt; surface already present on the device
or added for the purpose you could get additional input that <br>
&gt; could be
used for scrolling or zooming.

<br>
<br>
This would actually be very challenging. An audio analysis that is detailed enough to do that, would <br>
most likely produce delays that are not acceptable with input events. If this is possible, it would <br>
present some interesting possibilities, you are right.<br>
<br>
&gt; The problem with adding other clicks is that touchdown is the only way
to move the pointer but <br>
&gt; also a click already. In absence of multitouch
adding a right-click is challenging. <br>
<font><font color="black" face="Arial, Helvetica, sans-serif" size="2">&gt; Moving the pointer already causes
left-click. Additional button or other input can technically <br>

&gt; produce a
right-click but you would not get any coordinates associated with it
so it's not very useful.

</font></font><br>
<br>
I'm not sure if I understand the problem you see here. evdev incorporates a method <br>
EvdevProcessButtonEvent, which queries a number of filters as to if some special event is to be <br>
triggered. Only if those filters return false, a normal key event is triggered. Thus I have all the information<br>
about coordinates / click position I would need (The emulation of MB3 works exactly how I intend to <br>
attack the problem).<br>
<br>
&gt; Apple chose to emulate right click with long click (button down and
hold without moving the pointer) <br>
&gt; or using a modifier (eg. to generate
a right click you hold down another button and then left click)<br>
&gt; which
are probably the only reasonable options.

<br>
<font><font color="black" face="Arial, Helvetica, sans-serif" size="2">&gt; The other option is to redesign the interface to not use a right-click
(and middle click) at all.

<br>

&gt; This is not so difficult with touch interfaces as using controls
spread across the screen on various toolbars is cheap. <br>
<br>
</font></font>I own an ipad, the integrated controls feel (for me) crippling at best. If the alternative to further control<br>
elements is clustering the interface with buttons and / or hiding functionality under random surfaces <br>
one must either read up on or touch by accident to find out what it is, I would rather do research on <br>
different methods of input. The new ipad comes with an integrated microphone :D ....<br>
<br>
&gt; I don't think scratching the screen is distinguishable from just
moving the pointer.

Under less than <br>
&gt; ideal conditions using the stylus results in various
odd sounds without any intent, and background <br>
&gt; noise would likely
interfere with distinguishing less prominent sound variations.

<br>
<br>
I see that this may appear to be true, but if you set the properties of your microphone properly, you<br>
could actually scream your lungs out and the spike detector wouldn't even bother to hiccup. <br>
While with the same settings, you scratch the surface of the laptop, perfect spikes are generated. <br>
(I tested that myself a while ago)<br>
<br>
I even did a stress test, tapping my screen while driving close to a construction side where jack-hammers<br>
where used (with an open window). My algorithm could clearly detect every tap I did. The noise did <br>
hardly register at all. It all depends on finding the right setting for microphone gain.<br>
<br>
Again, the distinction between moving the pointer and scratching is the additional info of sound analysis. <br>
Otherwise, you would be right, there would be no stable way to detect a difference.<br>
<br>
If you are very interested in this subject, the Natural User Interface Group has some really awesome <br>
approaches they currently work on. <br>
<br>
<br>
I hope I did a better job expressing myself this time. <br>
<br>
Best regards, <br>
<br>
Janik<br>
<br>
p.s. I hope, that the html errors were due to the fact that I copied parts of my first email from an <br>
odt file. I hope this time no errors occur.<br>
</div>
</font></font>