<font color='black' size='2' face='Arial, Helvetica, sans-serif'><font color="black" face="Arial, Helvetica, sans-serif" size="2">

<div class="de1">Hello everyone, <br>
<br>
as recommended in irc, my proposal via mailing list:<br>
<br>
Based on 
increasing every day use of Convertible-Notebooks, Tablet-PCs and other 
touchscreen controlled devices, the need for more comprehensive control 
elements must be adressed.</div>

<div class="de2"> <br>
Even though Multitouchinteraction and 
Interactive Surfaces present refined control elements, the usability is 
not comparable to the variety of Mouse / Keyboard / etc. input 
possibilities. A user is very limited in the way he or she can interact 
with the machine, once the only input device is a touch sensitive surface.<br>
<br>
Those limitations may be lifted through
 the welcoming of additional sensory input and connecting that input to 
already registered touch triggered events.<br>
I currently work on a bachelor thesis, 
which incorporates microphone feeds using a c standard audio lib and 
reduces that input to a fast queryable format to enable the correlation with xf86-input-evdev events.<br>
<br>
As a GSoC project, I could work on 
writing an abstract driver, that supplies a data structure that can be 
written to from any possible input reader (audio, video, ...), similiar to
 the evdev emulation code for MB3. With the difference, that any event 
can be triggered, depending on the content of the data structure.<br>
<br>
The event flow would be, that 
EvdevProcessButtonEvent calls one more filter method, f.e. 
EvdevEmuTouchInteraction. This method and the underlying code is the interface between evdev.c and whatever code supplies the input.<br>
<br>
In the case of my bachelor thesis, it 
will be a ring buffered feed from the build-in microphone, which is 
concurrently analysed through spike detection. The feedback from the 
spike detection algorithm is posted to the data structure to which 
EvevEmuTouchInteraction queries will be directed.<br>
<br>
The GSoC project in short:<br>
- evdev extension to expand touchscreen control<br>
- abstract driver which works with different sensory input devices<br>
- API interface for interaction with the extension from s.i.d. analysis code</div>


<br>
Best regards, <br>
<br>
Janik aka. Sticks<br>



<div style="clear: both;"></div>

</font></font>