sabato 12 aprile 2008

Protesi acustiche

(Seconda parte)

Vince il digitale

Una protesi si può schematizzare in prima approssimazione come un “microfono” ovvero un dispositivo in grado di captare un segnale acustico e convertirlo in forma elettrica, ma perchè c’è bisogno di tale conversione?

Il senso è quello di poter adattare il segnale sonoro alle caratteristiche quantitative, qualitative e temporali dell’ipoacusia che si va a curare.

Parametri come amplificazione, capacità di limitare il segnale e di modificare la dinamica di applicazione, ampiezza della banda passante e possibilità di filtraggio, rappresentano i criteri fondamentali che consentono di valutare il comportamento elettroacustico di una protesi ed individuarne il campo di applicazione, consentendo di fare una classificazione.

Una protesi acustica dunque è un vero e proprio elaboratore del segnale che realizza il processo di analisi e trasformazione dei suoni secondo tre tipi di strategie:

· Analogica semplice;
· Analogica mista, detta anche analogica digitale o ibrida (protesi programmabili
elettronicamente);
· Analogica prevalentemente digitale che permette di effettuare, oltre ad una
regolazione elettronica, anche un’elaborazione del segnale.

Qualsiasi sia il tipo di strategia, l’energia sonora viene trasformata in elettrica dal microfono.

Una volta trasdotta, tale energia raggiunge l’amplificatore al cui livello subisce i processi di amplificazione, filtraggio, e limitazione.

Il segnale elettrico in uscita dall’amplificatore e così elaborato, è inviato al terzo e ultimo stadio, il ricevitore, dove viene nuovamente convertito in energia sonora.

Si comprende come le componenti circuitali di protesi acustiche non siano poi cosi dissimili da quelle utilizzate nelle sale di incisione per l’elaborazione dei segnali. Come ho detto spesso la matematica che governa i fenomeni è del tutto generale consentendo poi le più svariate applicazioni tecnologiche.

Nelle protesi con trattamento digitale, l’onda sonora viene trasformata dal microfono in analogo elettrico dell’input, un primo stadio di filtraggio passa basso elimina le componenti frequenziali che si pongono al di sopra del campo di udibilità.

Il segnale viene quindi digitalizzato dal convertitore analogico-digitale secondo un’alta frequenza di campionamento, che trasforma la grandezza elettrica analogica in una serie di numeri di tipo binario.

L’unità centrale di elaborazione è un microprocessore che modifica i dati numerici secondo gli algoritmi previsti dalla strategia di programmazione implementata.

Il flusso di dati numerici elaborati viene trasformato dal convertitore digitale analogico in stimolo elettrico che successivamente ad una nuova operazione di filtraggi passa basso viene trasdotto in segnale acustico.

Le protesi digitali dunque, elaborano attivamente il segnale, comportandosi come uno speech processor.

La domanda ora può sorgere spontanea:digitale o analogico?.

Senza alcun ombra di dubbio in ogni applicazione in cui si deve riprodurre una funzionalità naturale nel modo più accurato possibile, l’elaborazione digitale è sempre da preferirsi per vari motivi:

- Da un punto di vista teorico perchè meno soggetta ad errori;
- Da un punto di vista economico in quanto di costo inferiore a parità di prestazioni;
- Spazio occupato nell’orecchio notevolmente ridotto e riducibile, cosa non indifferente dal punto di vista di un portatore di protesi.

Nonostante gli strumenti di base che si utilizzano per la progettazione di protesi acustiche e di schede di elaborazione audio siano simili, differenti scopi portano differenti scelte di progettazione e differenti risultati, basti pensare infatti come nella musica si ricerchi spesso la teconlogia analogica ed addirittura a valvole.

Si sente spesso dire che “La valvola da più calore al suono”.

La tecnologia delle valvole in elettronica, o meglio in tutta l’elettronica dei giorni nostri che non riguarda la musica è stata abbandonata dagli anni 50 circa, allora è vero o no che le valvole generano un suono migliore?

Nonostante la preferenza delle valvole in musica non sia quasi mai supportata da una conoscenza tecnica, quell’affermazione è vera.

In musica ciò che conta a differenza del caso di progettazione di un dispositivo tecnico è riuscire quanto più possibile ad emozionare l’ascoltatore, tale emozione è dovuta all’ascolto di determinate componenti spettrali piuttosto che altre ed evidentemente le valvole enfatizzano certe frequenze gradevoli all’orecchio e perciò spesso sono preferibili alla microelettronica basata sull’uso di transistor.

3 commenti:

Unknown ha detto...

leggendo questo articolo sembra di tornare indietro nel tempo. fortunatamente tutt'oggi nn è più così!!!!!

Anonimo ha detto...

necessita di verificare:)

Anonimo ha detto...

Si, probabilmente lo e