HistoriaNúmero 21

Los comienzos de la metrología de la voz humana para las comunicaciones eléctricas

0

Antonio Moreno Calvo, Juan Mulet Meliá, Félix Pérez  Martínez
Instituto de la Ingeniería de España

RESUMEN

Hace cien años vieron la luz dos revistas, Bell System Technical Journal (BSTJ) y Electrical Communication, singulares por estar patrocinadas por empresas y tener un gran impacto en el ámbito de la ingeniería de telecomunicación. En ellas se difundieron los avances científicos de su campo y se popularizó el uso del método científico para desarrollar estas tecnologías.

En el primer número de la primera -julio de 1922- y curiosamente también en el primer número –agosto de 1922- de la segunda, H. Fletcher publicó el artículo seminal “The Nature of Speech and Its Interpretation” dedicado a la interpretación y medida de la voz humana. En él se realiza un estudio exhaustivo de las propiedades de la voz y se establecen las características más relevantes con vistas a su transmisión por medios eléctricos. El documento pone de manifiesto la importancia de la metrología de la voz para la implementación y optimización de los sistemas de telefonía y define los parámetros eléctricos que deben ser considerados para ello.

En este artículo, tras definir el contexto científico e industrial que rodeó el nacimiento de estas revistas y la publicación del mencionado artículo, tras una breve referencia a la inicial preocupación de la voz humana en el sistema Bell, se describe con detalle la metodología utilizada por H. Fletcher y sus principales contribuciones al desarrollo de la metrología de la voz.

Palabras clave

Articulación, caracterización de la voz, medida de la voz, audición, comunicación, inteligibilidad, logatomos,  telefonometría, comprensión de la voz, electroacústica.

ABSTRACT

One hundred years ago, two journals, Bell System Technical Journal (BSTJ) and Electrical Communication, were published, unique for being sponsored by companies and having a great impact in the field of engineering. Through them, the scientific advances of their field were disseminated and the use of the scientific method to develop these technologies was popularized.

In the first issue of the first journal -July 1922- and curiously also in the first issue -August 1922- of the second, H. Fletcher published the seminal article “The Nature of Speech and Its Interpretation”, dedicated to the interpretation and measurement of the human voice. It carries out an exhaustive study of the properties of the voice and establishes the most relevant characteristics in relation to its transmission by electrical means. The document highlights the importance of voice metrology for the implementation and optimization of telephony systems and defines the electrical parameters that must accordingly be considered.

In this article, after defining the scientific and industrial context that surrounded the birth of these journals and the publication of the aforementioned article, a brief reference to the initial concern of the human voice in the Bell system, the methodology used by H. Fletcher and his main contributions to the development of voice metrology are described in detail.

Keywords

Articulation, voice characterization, voice measurement, hearing, communication, intelligibility, logatoms, telephonometry, voice understanding, electroacoustics.

1. Introducción

En los meses de julio y agosto de 2022 se ha cumplido el centenario del nacimiento de dos revistas emblemáticas para las tecnologías de la comunicación eléctrica. Nacieron por iniciativa de la compañía norteamericana American Telegraph and Telephone Company (AT&T) con la intención de dejar testimonio de los avances tecnológicos que iban generando sus laboratorios. Eran Bell System Technical Journal (BSTJ) y Electrical Communication, la primera editada por la propia AT&T y la segunda por International Western Electric Co., en realidad, la filial de AT&T para actividades internacionales. La primera de estas revistas respondía a la denominación Bell System, que era y fue siempre la “denominación culta” de todas las actividades de este conglomerado de compañías, incluso antes de que se adoptara como cabecera el nombre de AT&T en 1889.

A continuación, como figuras 1 y 2, se reproducen las “portadas” de ambas revistas:

C:\Users\SONY\AppData\Local\Microsoft\Windows\INetCache\Content.Word\Portada de la primera página del primer número de BSTJ b-n.png
FIGURA 1.  Portada de BSTJ, Volumen 1, número 1

C:\Users\SONY\AppData\Local\Microsoft\Windows\INetCache\Content.Word\Portada ENDEREZADA only top de la primera página 1922 de Elec_Comm.png
FIGURA 2.  Portada de ELECTRICAL COMMUNICATION, Volumen 1, número 1

Para el presente artículo es importante señalar que, en el primer número de ambas revistas, aparece la contribución de Harvey Fletcher titulada “The Nature of Speech and Its Interpretation”, en el caso de BSTJ en sus páginas 129-144 (1) y en Electrical Communication en las 41-48 (2), una contribución considerada seminal para la metrología de la voz humana y que testifica el interés que tenían para la comunicación eléctrica las cuestiones metrológicas, y que se mantuvo durante largos años.

El prólogo de estos primeros números muestra también la preocupación de su empresa editora por demostrar que el estado de aquel momento de la ciencia permitía confiar en ella para la concepción y materialización de nuevas ideas, que atenderían mejor las necesidades de la humanidad (3). Dicen que “muchas industrias han demostrado los beneficios que se derivan de la utilidad que proporciona el conocimiento organizado tanto en el campo de las ciencias físicas como en los campos más nuevos que tienen que ver con la psicología y la economía”. Como insisten los prólogos, se había superado la larga etapa en la que los logros industriales se basaban en métodos de desarrollo sencillos y empíricos, en los que la conducta de prueba y error era el procedimiento habitual. Y afirman que “hoy, en muchas industrias, la gerencia no pensaría en embarcarse en un nuevo proyecto sin consultar a sus ingenieros de investigación”.

La historia ha demostrado este hecho. En las primeras décadas del pasado siglo estaban bien establecidas las bases de la ciencia que había sustentado las tres primeras revoluciones industriales. La mecánica y la termodinámica habían fundamentado la tecnología que había hecho posible la primera revolución. El electromagnetismo y la mecánica cuántica permitían entender tanto la propagación electromagnética como la electrónica de tubos de vacío y de los semiconductores. Se había abierto una verdadera carrera para crear una gran variedad de tecnologías que, de hecho, continua hoy en día, porque una tecnología no es más que una técnica (una forma de hacer cosas útiles) que ha sido entendida, mejorada o creada gracias al conocimiento científico. Quedaba en aquel principio de siglo el gran avance de las ciencias de la vida, en el que todavía hoy la humanidad está empeñada. Unas ciencias cuyo desarrollo se hace sentir en muchas tecnologías y, especialmente, en las que se espera que hagan posible la cuarta revolución industrial, en la que la inteligencia artificial (IA) parece llamada a ser una de sus claves, y que precisará de los avances científicos de las neurociencias. 

En aquella segunda decena del pasado siglo, la investigación empresarial, fundamentalmente tecnológica, estaba ya bien asentada en Estados Unidos y en los países avanzados europeos. Hay noticias de que en 1875 la cervecera danesa Carlsberg creó un laboratorio de investigación empresarial. A finales de la década de 1890, General Electric organizó su laboratorio de investigación, que complementaría a los que ya tenía de medidas eléctricas. En 1903, E. I. du Pont de Nemours and Co. crea su DuPont Experimental Station, también adicional a sus actividades investigadoras orientadas a la producción. En 1905, Siemens establece su laboratorio de investigación, independiente de las unidades operativas, en las que ya existían grupos de investigación que atendían a las necesidades tecnológicas de cada una de ellas. Según los registros del US National Research Council de EE. UU., en 1920 había en este país unos trescientos laboratorios empresariales de investigación. 

AT&T había hecho un gran esfuerzo en su investigación, cuyo logro más aprovechado fue haber conseguido llevar en 1915 la comunicación telefónica desde Nueva York hasta San Francisco. Las técnicas que habían hecho posible salvar los 3200 km entre Nueva York y Denver en 1911, no eran capaces de cubrir los 4129 km que separan Nueva York de San Francisco en línea recta, aunque la línea finalmente construida tuvo 5500 km. Fue un empeño personal del entonces presidente de AT&T, Theodore Vail, quien encargó al que más tarde sería el primer presidente de Bell Labs, Frank Jewett, que buscara la tecnología necesaria. Para ello fue preciso que la idea del tubo Audion de Lee de Forest, cuya patente había comprado AT&T en 1912, se convirtiera en una realidad útil y fabricable. Fue el gran trabajo de Harold Arnold, que acabó con la fabricación del tubo triodo, pieza fundamental de los amplificadores que regeneraron la señal en esta primera comunicación eléctrica transcontinental de voz.

2. La medida de la voz humana en el Sistema Bell de los años veinte del siglo XX

Siendo la provisión de servicio telefónico a toda la nación norteamericana el verdadero negocio de AT&T, y de todo el Sistema Bell que respaldaba, es muy lógico que preocupara entender las características de la voz, la señal base de su actividad. Es más, la convicción de que la Ciencia iba a ser el origen de las futuras soluciones industriales, como confesaban los prólogos comentados, explica que en sus laboratorios se dedicaran recursos para encontrar las tecnologías adecuadas para su tratamiento y que sus resultados fueran objeto de los artículos de sus revistas.

Cual no debió ser la sorpresa de los ingenieros del Sistema Bell, que trabajaban tanto en los laboratorios de AT&T como en su filial Western Electric, cuando comprobaron que la fonética poco podía ayudarles en sus trabajos. La fonética, definida como el estudio de los sonidos físicos del discurso humano para entender la producción y la percepción de estos sonidos, tenía más de 2000 años de antigüedad, pero sus logros se limitaban a explicar la generación de los sonidos de las vocales, y habían avanzado poco en la comprensión de los mecanismos que generaban la voz humana. Como dice el artículo citado de Fletcher, “la razón principal por la que se han obtenido tan pocos resultados reales en la investigación de los sonidos del habla se debe al hecho de que es extremadamente difícil cambiar el volumen y la distorsión de estos sonidos por medios acústicos”. 

Las tecnologías eléctricas en las que el Sistema Bell trabajaba prometían hacer más fácil esta manipulación de la señal de voz, pero esto será tratado en los apartados siguientes de este artículo. Ahora puede ser momento oportuno para entender por qué el Sistema Bell tenía esta capacidad y por qué uno de sus investigadores, Harvey Fletcher, se pudo sentir atraído por esta investigación.  

Empecemos por nuestro investigador. Harvey Fletcher nació en Provo, Utah (EE.UU.), una pequeña ciudad en el valle de Utah, el 11 de septiembre de 1884, en el seno de una familia mormona. Inició sus estudios de tercer grado en la Brigham Young University (BYU) de esta confesión, para continuar en la Universidad de Chicago, donde fue alumno de doctorado del Profesor Robert A. Millikan, quien, por otra parte, había obtenido el grado de Doctor en la Universidad de Columbia, siendo uno de sus supervisores el profesor Michael Pupin.  

La tesis doctoral de Harvey Fletcher trató de la medida de la carga del electrón y ha existido siempre la duda de la importancia de su participación en este experimento, que fue el motivo por el que le fuera concedido al Prof. Millikan el Premio Nobel de Física de 1923. Para algunos, el cambio de la gota de agua por la de aceite fue una idea de Fletcher. 

Tras unos años de dedicación a la docencia en su Universidad de origen, la Brigham Young University (BYU), a la que volvió al final de su carrera, aceptó en 1916 el ofrecimiento, propiciado por el Prof. Millikan y que había rechazado anteriormente, para incorporarse al equipo que Frank Jewett dirigía en el Sistema Bell, con la intención de trabajar en cuestiones de habla, música y audición. Como parece lógico, Fletcher, consciente de que el negocio telefónico se basaba en “la transmisión del habla de la boca de una persona al oído de otra”, pensó que “una comprensión profunda de las características del habla y la audición debería ser fundamental” y se centró en investigar los mecanismos físicos del cuerpo humano que intervienen en la comunicación telefónica.

Como ya se ha dicho, los métodos existentes en aquella época para evaluar la audición eran rudimentarios y, poco después, se desarrollaron osciladores y amplificadores específicos para acústica. A Fletcher se le atribuye la invención del audífono funcional, al patentar el Audiómetro 2-A, un dispositivo práctico que fue ampliamente utilizado por las escuelas y profesionales para diagnosticar y evaluar la pérdida auditiva. Fletcher realizó significativos trabajos para ayudar a las personas con discapacidad auditiva, entre ellas Thomas A. Edison.

Las contribuciones de Fletcher a la acústica y en especial a sus aplicaciones a la comunicación eléctrica son numerosas. Por ejemplo, el artículo de 1920 en Physical Review titulado “On the Relative Difficulty of Interpreting the English Speech Sounds” y la serie iniciada en 1921 con el título “The Frequency Sensitivity of Normal Ears” que describen sus descubrimientos sobre el habla y la audición, y que culminarían en 1929 con su libro “Speech and Hearing”, considerada una obra fundamental de la psicoacústica.

Ese mismo año, Fletcher fue elegido miembro de la American Physical Society y, al año siguiente, de la American Association for the Advancement of Science. En 1922 lo fue del American Institute of Electrical Engineers.

En 1928, Fletcher fue nombrado director de investigación acústica de Bell Labs, la empresa de investigación que había creado el Sistema Bell en 1925 uniendo los laboratorios de investigación de Western Electric Co y una parte del departamento de ingeniería de AT&T. Como decía su primer presidente Frank Jewett, porque había en el Sistema Bell “no pocas duplicaciones innecesarias de trabajos y frecuentes problemas personales y contables”.   

Entre las aportaciones de Fletcher figura un mecanismo de laringe artificial, que Western Electric fabricó y comercializó para ayudar a las personas que habían perdido la laringe por una intervención quirúrgica. Con Wilden Munson experimentó y formuló el gráfico conocido como “Curvas de sonoridad de Fletcher-Munson”, que correlacionan la intensidad y el volumen del sonido.  

Fletcher desarrolló equipos de grabación y reproducción capaces de transmitir fielmente todo el rango de frecuencias audibles, haciendo posible sincronizar el sonido con una imagen en movimiento y, en consecuencia, avanzar hacia el cine sonoro. Entre 1931 y 1932, su grupo de investigación acústica desarrolló dos métodos diferentes para la reproducción de sonido, el binaural, o efecto espacial, y el estereofónico. Es conocida su colaboración con el director de orquesta Leopold Stokowski y su orquesta de Filadelfia, para demostrar la transmisión estereofónica de conciertos. 

Los cargos de Fletcher en organizaciones científicas de acústica fueron muchos, entre ellos: miembro de la Comisión de reducción del ruido de Nueva York, presidente de la Acoustical Society of America, presidente de la American Federation of Organizations of the Hard of Hearing, miembro honorario de: American Otological Society, de Audio Engineering Society y de American Speech and Hearing Society.

En 1933, Fletcher asumió en Bell Labs la dirección de toda la investigación, supervisando a prestigiosos personajes, como: William A. Shockley, Walter H. Brattain, John Bardeen, Dean Wooldridge, James Fisk,  Charles Townes… Y en 1945, Fletcher fue nombrado presidente de la American Physical Society.

Pasemos ahora a entender cómo era posible que una empresa mercantil como AT&T fuera capaz de crear un entorno donde la investigación, no solo aplicada, fuera una actividad valorada y generadora de valor añadido para su negocio. Quizá la razón última sea que la empresa que dio origen al Sistema Bell, la Bell Telephone Company, nacida en 1878 para explotar la patente que en 1876 había obtenido Alexander Graham Bell por su teléfono, se creara con la vocación de alquilar equipos telefónicos de abonado. Esto tenía dos grandes exigencias: ofrecer equipos de incuestionable calidad para dar un servicio continuo y universal, y disponer de un capital importante para desplegar y mantener la red que soportara este servicio. Y todo ello en unas circunstancias donde la tecnología necesaria no era, por su relativa facilidad, una barrera de entrada en el nuevo negocio, por lo que la defensa tuvo que ser necesariamente legal, basada en los derechos de propiedad industrial.

Especialmente cuando caducaron los derechos derivados de la patente del teléfono, se hizo más importante que nunca, que AT&T demostrara una capacidad tecnológica indiscutible, que debía venir de su conocimiento científico, y ésta fue la gran baza para conseguir el monopolio de hecho del que AT&T pudo disfrutar durante tantos años. Disponer de la tecnología que hizo posible la comunicación telefónica transcontinental en 1915, fue una enorme ventaja para la vida de este monopolio.

Para mantener esta imagen, no se dudó en propiciar investigaciones como las comentadas en acústica, pero esto fue solo una pequeña aportación. Son bien conocidos los premios Nobel que trabajaron en el Sistema Bell, en disciplinas científicas que van desde la radioastronomía a la física del estado sólido, pasando por la informática o la biología. El sistema operativo UNIX, el lenguaje C, las pinzas ópticas para aplicación a sistemas biológicos, la microscopía de fluorescencia de alta resolución, para obtener imágenes de moléculas desde el interior de las células vivas son algunas de las contribuciones relevantes, y quizá menos conocidas, del Sistema Bell a la tecnología mundial.  

Evidentemente las opiniones sobre el Sistema Bell han sido siempre contradictorias, hasta el punto de que la Justicia norteamericana terminara con él en 1984 después de una larga serie de decisiones, que ya empezaron incluso antes de 1925, cuando AT&T tuvo que deshacerse de sus operaciones internacionales. 

Especialmente después de su desaparición, hubo muchas opiniones sobre la influencia del Sistema Bell en la tecnología mundial. Veamos algunas tomadas de la prensa: 

“Lo relevante de Bell Labs es que durante su vida fue una institución bien administrada, con gerentes que generalmente tenían un sólido historial técnico propio, apreciaban el trabajo científico y pagaban a su personal lo suficiente como para vivir cómodamente, pero no tanto como para simplemente tomar sus millones y renunciar.”

“Las ganancias de AT&T aseguraban que Bell Labs pudieran contratar a los mejores científicos e ingenieros, gracias a altos salarios y excelentes condiciones de trabajo. El entorno era adecuado y obligaba a trabajar, con lo que podía alcanzar una alta productividad.”

“En su apogeo, desde la década de 1940 hasta la de 1970, se decía que un trabajo en Bell Labs era como trabajar en una universidad de investigación, excepto que la paga era mejor, el equipo estaba más actualizado y los talleres estaban disponible para todas las necesidades.”  

Evidentemente, muchas de estas opiniones no están exentas de una agria crítica a su manera de desenvolverse en un mundo realmente competitivo y con una alta sensibilidad al valor del libre mercado.

Más optimista es el capítulo final del libro de Jon Gertner, titulado “The Idea Factory” que para él es Bell Labs, donde se dice: “Ahora se acepta que la innovación y la competitividad están estrechamente vinculadas, pero la historia de Bell Labs demuestra que la verdad es en realidad mucho más complicada… los entornos creativos que fomentan un rico intercambio de ideas son mucho más importantes para obtener nuevos conocimientos que las fuerzas de la competencia”. 

Como es obvio, las ciencias sociales no pueden realizar experimentos para comprobar sus teorías, por lo que siempre nos quedará la duda de que, si el Sistema Bell hubiera seguido activo, los enormes avances en la tecnología de la información y la comunicación (TIC) ocurridos después de su extinción se hubieran desarrollado y de qué manera. Evidentemente, unos defienden que Bell System fue el gran impulsor de grandes avances y, otros un freno a la potencia del mercado. Las circunstancias de cada momento son siempre diferentes y esto anima a una polémica que no conduce a nada.

3. Una exposición (comentada) de los estudios de Harvey Fletcher

La revista BSTJ publicó dos números en el año 1922, incluyendo en cada uno de ellos 9 artículos. De esos 18 y en una siempre muy discutible clasificación, 5 de ellos se pueden considerar “metrológicos”. Y a su vez, uno de ellos se refiere a la medida de capacidades equivalentes de una red, y los otros cuatro dedicados a las características de la voz y un análisis del oído externo, en cuanto canal por el que discurre la señal sonora.

En un artículo como el presente destinado a la sección histórica de e-medida, se ha elegido glosar uno de ellos (THE NATURE OF SPEECH AND ITS INTERPRETATION) por la doble razón de abarcar en conjunto la caracterización de la voz y porque su autor es el científicamente famoso (por su desarrollo, junto con Munson de las curvas de isosonoridad), Harvey Fletcher.

El autor comienza reconociendo que el asunto en cuestión ya ha sido objeto de sesudos estudios por parte, tanto de los especialistas en fonética, como de otorrinos y físicos, a la vez que indica que el conocimiento que se tiene es bastante limitado. Para una empresa como ATT dedicada al transporte de la voz, el conocimiento de la “materia” a transportar es fundamental. Y todavía recalca que el conocimiento del modo en el que el oído reconoce los sonidos es aún más ignorado.

Consciente Fletcher de la necesidad de conocer a fondo la voz, desea que, en sus investigaciones, el volumen que llega al oído sea regulable y que se pueda “distorsionar”, para estimar en cuánto se puede actuar sobre ambos parámetros. Las técnicas disponibles a principios del siglo XX (métodos exclusivamente acústicos), no permitían actuaciones del tipo descrito, pero dada su historia anterior en la que fue ayudante de Millikan en sus trabajos para conocer la carga del electrón (Millikan fue premiado con el Nobel), no dudó en emplear técnicas electrónicas para distorsionar la voz de manera controlada.

El ataque al problema se verifica en dos fases, no por ello secuenciales. ¿Qué tipo de frase se va a usar? ¿Cuál es el sistema adecuado para que esas frases lleguen de los que las pronuncian a los que las oyen e intentan interpretarlas?

En un artículo, firmado por Crandal y McKenzie, ligeramente anterior en el tiempo y también recogido en el primer número del BSTJ, titulado ANALYSIS OF THE ENERGY DISTRIBUTION IN SPEECH, las pruebas se realizaron pronunciando (lentamente) una frase de 50 sílabas. Era una frase con sentido (de hecho, era el “Gettysburg Address” de Abraham Lincoln muy ligeramente modificado). Ni en ese artículo ni en el que se está analizando aparece la palabra “logatomo”, ampliamente utilizada en estudios de fonética, en vez de “sílaba” o “fonema”. Como el objetivo era llegar al conocimiento espectral de las componentes frecuenciales de cada logatomo, la frase se pronunciaba lentamente y un sistema electrónico, a través de filtros resonantes, extraía en cada caso esas componentes. Su energía se aplicaba a la resistencia que calentaba un termopar, y la lectura de su tensión era lo que se registraba.

En el caso del artículo de Fletcher, se huía de frases con sentido, y en su lugar se usaban logatomos. Frente al idioma español, con sus cinco vocales, el inglés ostenta muchas más. Si esas vocales (V) inglesas se combinan con las consonantes (C), se obtienen del orden de 8700 combinaciones del tipo CV, VC o CVC. Así, los que escuchaban no podían atribuir ningún sentido a los logatomos, y el porcentaje de aciertos era una medida de la articulación (articular, producir los sonidos del habla- RAE). Vale la pena comentar que, en un estudio (4) más bien reciente (año 2011) llevado a cabo en Chile para el idioma español, el número de logatomos usados fue de 1200, llegando a la conclusión de que aún podrían haber sido bastantes menos. 

El teatro de operaciones se constituía en dos habitaciones separadas y acústicamente aisladas. En una de ellas estaba el “locutor” y en la otra los que escuchaban (eran dos personas), y en un impreso concebido exprofeso apuntaban lo que creían haber oído.

Ambas habitaciones estaban conectadas por un sistema electrónico de transmisión de la voz, que en el artículo recibe el nombre de “telefónico”. Ese nombre puede llevar a confusión, porque si bien el objetivo era llevar el sonido (fono) a distancia (tele), su realización no tiene nada que ver con los sistemas telefónicos de comienzos de la telefonía, ni de los que le siguieron, ni de los actuales.

En el artículo aparece el esquema electrónico del montaje, que aquí se reproduce como Figura 3 (aunque en el original era la figura 1, como se puede apreciar).

0200 - High Quality Telephone System MOD (PaintShopPro)
FIGURA 3: Sistema “telefónico” de alta calidad

El circuito en cuestión merece una descripción.

Al micrófono de condensador se le denomina “condenser transmitter”, y está alimentado en continua a través de 10 megaohmios. En realidad, el esquema original pone la letra omega en mayúscula (omega mayúscula es el símbolo actual de la unidad de resistencia, el ohmio), pero tal tipo de micrófono alimentado a través de 10 ohmios, simplemente no funciona. Esta interpretación se ve reforzada porque muy cerca, en el esquema, aparece una resistencia de 9 w (que debe interpretarse como la letra omega en minúscula) en el circuito de caldeo del cátodo del primer triodo, y cuyo objetivo es dotar de una polarización negativa a la rejilla respecto al cátodo de ese triodo. El valor de 9 ohmios es perfectamente razonable en este caso. En definitiva, la conclusión es que empleaban esa letra griega tanto para el símbolo de la unidad de resistencia ohmio (omega en minúscula) como para su múltiplo el megaohmio (omega en mayúscula).

Se observa la existencia de una cadena de tres triodos, lo que proporciona una amplificación de unas tres mil veces. Este valor se intuye al leer ese número en la SYNOPSIS del artículo referido de Crandal y McKenzie sobre la distribución espectral de la voz, también con una cadena amplificadora de tres triodos. Son unos 70 dB, y como la tensión que proporciona el micrófono puede ser de unos -70 dB con relación a un voltio, a la salida de la cadena de amplificación habrá tensiones del orden de un voltio. Pero la voz presenta una dinámica tal que son normales picos que excedan en 20 dB o 30 dB al valor eficaz. Luego los picos en esa señal amplificada de un voltio aproximadamente, pueden llegar a 32 voltios. En el amplificador de triodos, cuya tensión de placa resulta ser de 210 voltios, no se presenta problema, por estar muy lejos de la situación de saturación. Parafraseando a Richard P. Feynman, se podría afirmar que there is plenty of room at the top. En palabras del pasado reciente, con respecto a la linealidad se estaría en una situación de ALTA FIDELIDAD.

Tras el paso por el amplificador de los tres triodos, aparece una caja negra, denominada FILTER. Se puede afirmar que la existencia de esta caja es la principal razón de ser del circuito y del experimento en sí mismo. Fletcher deseaba distorsionar la señal audible, básicamente eliminando rangos de frecuencias, y así poder observar cómo esa actuación afectaba a la articulación. Combinando, pues, filtros paso bajo y paso alto ya podía investigar en la nueva situación. Los filtros a los que se refiere Fletcher son los filtros disponibles en 1922, inventados por George A. Campbell. De hecho, en el siguiente número del BSTJ (Noviembre de 1922), el primer artículo es del Dr. Campbell, y su título PHYSICAL THEORY OF THE ELECTRIC WAVE FILTER. Cabe decir que este mismo autor publicó también en el primer número del BSTJ una contribución titulada DIRECT CAPACITY MEASUREMENT, y en ambos demuestra su amplio conocimiento del análisis y síntesis de redes eléctricas.

El hecho de que, a lo largo del artículo, no aparezca referencia a Otto Julius Zobel (que es el inventor de la célula m-derivada y que llamaba a los diseñados por Campbell filtros de k constante), induce a pensar que los empleados por Fletcher no se aprovechaban de esa mejora que “aplanaba” las impedancias de entrada y salida. Y ello era importante, porque como para conseguir la “distorsión” deseada era necesario incluir varias células de filtro en cascada, al no estar las impedancias acopladas se introduce una atenuación adicional. Incluso todavía es más chocante si se tiene en cuenta que Zobel la describió en el primer artículo del volumen 2 del BSTJ, correspondiente a 1923.  

En el artículo comentado, a modo de ejemplo, se incluye la gráfica atenuación-frecuencia para un filtro paso bajo de 1500 Hz de frecuencia de corte. Nunca se expresa la frecuencia en   hercios, unidad que fue adoptada posteriormente, sino en ciclos/segundo. Del mismo modo, la atenuación no se expresa en decibelios, sino en neperios.

A la salida de la caja negra FILTER aparece el potenciómetro atenuador. Probablemente el esquema recogido es sólo de principio, incluido con fines didácticos. Aparecen dos tomas variables (una de variación gruesa y otra fina). La impedancia de entrada (que es la de carga del filtro precedente) de esa estructura potenciométrica no es constante, y ello agravaría aún más la respuesta en frecuencia del filtro. Bien pudiera ser que el atenuador, en realidad, fuera un divisor Kelvin-Varley, cuya impedancia de entrada es constante. O tal vez estructuras atenuadoras en T, de la impedancia característica adecuada a la de salida del filtro, que se insertarían en el circuito mediante conmutadores.

El atenuador (potenciométrico o de células en cascada), independientemente de lo más arriba comentado, también puede considerarse la segunda razón de ser de este montaje, al constituir el elemento clave en el circuito y en el experimento. La “distorsión” anhelada por Campbell también era importante en relación con el volumen que atacaba los oídos de los individuos que escuchaban. Y en el artículo se indica que el potenciómetro era capaz de atenuar la señal hasta una millonésima (se supone que se refiere a potencia).

La señal a la salida del potenciómetro atacaba a un paso amplificador construido con dos triodos. Se le podría denominar el “paso de potencia”, que alimenta a cuatro auriculares, probablemente dos para cada uno de los dos oyentes. Estos auriculares están configurados como una combinación en paralelo de dos de ellos en serie. Este tipo de combinación tiene la ventaja, si los cuatro auriculares son iguales, de que la impedancia que el conjunto presenta a la salida del paso de potencia es igual a la de cada uno de ellos, y ello simplifica el diseño de la red que se comenta a continuación.

Pero en serie con esta combinación de auriculares hay un paso ecualizador. De éste se dice que era un conjunto de resistencias, condensadores e inductancias cuya respuesta en frecuencia era la complementaria del resto del sistema”. Aquí el resto del sistema se ha de interpretar como la respuesta de los auriculares. Porque aunque la respuesta del conjunto electrónico, comenzando por el micrófono e incluyendo la salida del paso de potencia (con los filtros sustituidos por una simple conexión eléctrica), puede ser –y era- muy plana, que es lo que se afirma en el artículo (the telephone system used in this investigation is probably more nearly perfect than any other which has yet been built), la respuesta de los auriculares dista mucho de ser plana y se trata de una curva que presenta múltiples resonancias, que además dependen de la estanqueidad del sistema auricular-oreja y de la estructura del canal auditivo externo del oído de la persona que oye. No en vano, en el segundo número del BSTJ  (Noviembre de 1922), aparece un artículo titulado: THE PHYSICAL CHARACTERISTICS OF AUDITION AND DYNAMICAL ANALYSIS OF THE EXTERNAL EAR. 

El artículo continúa exponiendo las pruebas que se llevaron a cabo, y su estudio estadístico. La conclusión es que la articulación es buena para señales cuyo volumen (la sensación en el oído) sea desde 100 veces mayor hasta una millonésima del original (de nuevo, es necesario suponer que se refiere a “potencia”), y que las frecuencias transmitidas deberían estar comprendidas entre 100 Hz y 5000 Hz. No obstante, desde hace muchos años, las frecuencias efectivamente transmitidas para el servicio de telefonía están limitadas entre 300 Hz y 3400 Hz.

4. El intento de objetivar las sensaciones

Todos los estudios aquí comentados obligaron a realizar pruebas y medidas, obteniendo resultados referidos a niveles de tensión eléctrica y presión sonora conocidos y definidos, esto es, metrología que, en este caso, bien se pudiera llamar telefonometría. Pero las consecuencias que en el mismo artículo se reflejan son sugerencias o recomendaciones. Porque el problema es que los humanos oímos, y eso son sensaciones, que tienen relación con las excitaciones físicas, pero esa relación, no sólo no es lineal, sino que es extremadamente complicada.

Todo lo expuesto en el apartado anterior se desarrolló en los Estados Unidos de América. Como complemento, y con un enfoque histórico, cabe decir que el Comité Consultivo Internacional Telegráfico y Telefónico (CCITT) debió de adoptar un sistema semejante al desarrollado por el Dr. Fletcher. Ese sistema fue denominado SFERT (Système Fondamental Européen de Référence pour la Transmission Téléphonique), y luego sustituido por el NOSFER (Nouveau Sfert), por la sencilla razón de no encontrar repuestos para el ya electrónicamente obsoleto SFERT. La diferencia estriba en que, así como Fletcher se limitaba a hacer recomendaciones, el SFERT proporcionaba una cifra (denominada equivalente de referencia) de la conexión entre los que hablaban y escuchaban. Es evidente que la complejidad de los métodos de experimentación empleados y la variación de los resultados, aconsejaron investigar procedimientos objetivos.

De entre esos procedimientos objetivos, cabe destacar el desarrollado (década de los 70 del siglo XX) por la empresa danesa Brüel and Kjaer, denominado OREM-A. Posteriormente se desarrollaron variantes que recibieron nombres como OREM-B y OREM US. Era un ingenioso sistema que comprendía un generador de señales sinusoidales, variables según el procedimiento, en amplitud y frecuencia, de tal modo que un barrido repetido de ida y vuelta entre 200 Hz y 4000 Hz empleaba alrededor de un segundo. Las frecuencias bajas quedaban más realzadas, ya que el barrido en frecuencia no era lineal sino logarítmico. La señal se aplicaba a una boca artificial que “hablaba” al micrófono del microteléfono bajo prueba, a una distancia no determinada, porque lo especificado era enfrentar el auricular al oído artificial y centrar el micrófono del microteléfono en línea con el eje de la boca artificial. Dentro de la boca existía un micrófono que realimentaba al generador antes mencionado para mantener constante su amplitud. Si se tiene en cuenta (5) que la presión sonora generada por la boca humana (y también por la artificial) se atenúa del orden de 20 dB hasta llegar al micrófono, pequeñas variaciones en la distancia dan lugar a grandes variaciones en los resultados, lo que se compensaba con el mecanismo descrito.

Las especificaciones del sistema OREM definían los niveles de tensiones eléctricas y presión sonora. El sistema incluía internamente una referencia de tensión y un calibrador acústico calibrables externamente; por ello, el sistema OREM cumplía los requisitos para que sus medidas fueran trazables y metrológicamente relevantes.

De esta manera, el micrófono del teléfono bajo prueba quedaba excitado, y en pruebas de emisión daba lugar a dos señales: la que se transmitía a línea (señal puramente eléctrica y de fácil medida) y la señal acústica recuperada en el auricular (lo que se denomina efecto local o sidetone). 

Por otra parte, si con el mismo montaje se excita eléctricamente el teléfono desde línea (lado central – prueba de recepción), en el auricular se recoge la correspondiente señal acústica.

Por lo tanto, el sistema, además del generador y la boca artificial antes comentada, incluía un oído artificial (micrófono dentro de una cavidad, equivalente al tímpano al final del conducto auditivo externo) cuya señal se enviaba a un amplificador microfónico. Falta en esta descripción explicar cómo se energizaba el teléfono bajo prueba, y ello era una fuente de corriente continua de 48 voltios, de muy bajo ruido, con su correspondiente puente de alimentación (feeding bridge), y el llamado Objective Reference Equivalent Meter era el instrumento cuya lectura proporcionaba la salida del sistema. Éste era un galvanómetro con una constante de tiempo muy larga (tal vez más de dos segundos), lo que permitía la observación de su aguja y, subjetivamente, la interpretación del valor medio (la aguja exhibía muy pequeñas excursiones). Abundando en lo antes apuntado de la dificultad de estimar la correlación entre las excitaciones y las respuestas físicas con las sensaciones, cabe destacar que la señal eléctrica que atacaba al galvanómetro había sido sometida, además, a un proceso no lineal (el voltaje era rectificado, y esa señal ya modificada era sometida a la función matemática de exponenciación -mediante una red de diodos y resistencias -siendo el exponente 0,6 para OREM-A, pero 0,45 para OREM USS. Además, la señal aplicada al galvanómetro podía enviarse a un registrador gráfico analógico.

Este sistema permitía caracterizar un modelo de teléfono en unas pruebas (repetidas al menos 10 veces para obtener la media de las inevitables variaciones de los micrófonos de carbón y su posicionamiento frente a la boca artificial) en menos de una hora. Pero no hay que olvidar que la tecnología OREM, con todas sus ventajas, se nutrió de los trabajos seminales del Dr. Fletcher en la segunda década del siglo XX, y que los resultados OREM obtenidos eran interpretables a partir de las conclusiones de sus estudios y experimentos.

5. Conclusiones

En este documento se ha puesto de manifiesto que, en las primeras décadas del siglo XX, los entornos empresariales eran conscientes de que el desarrollo de las telecomunicaciones requería la aplicación del método científico al desarrollo de los futuros sistemas. Aparece una nueva forma de hacer ingeniería, ligada a las actividades científicas, en la que “el ingeniero en comunicaciones se ha convertido en un investigador original y va ampliando los límites del conocimiento humano y complementando los avances de la ciencia pura para encontrar soluciones a sus diversos y variados problemas”. Esta afirmación, tomada del prólogo del primer número de la revista BSTJ, muestra cuál era el objetivo de estas publicaciones centenarias de financiación empresarial, así como el papel que han jugado durante estos años.

La relevancia de estas revistas fue disminuyendo con el tiempo, en la medida que proliferaron un gran número de publicaciones muy especializadas en los diferentes ámbitos de estas tecnologías, publicaciones en muchos casos sostenidas con fondos públicos. En todo caso, la complejidad de los sistemas de telecomunicación ha requerido y requerirá la elaboración y aplicación de sofisticadas herramientas matemáticas y físicas para asegurar su correcto diseño y caracterización experimental.

En los párrafos anteriores también se ha descrito un caso particular de esta forma de hacer ingeniería: el inicio de la metrología de la voz en la transmisión de ésta por medios electromagnéticos. El trabajo seminal de H. Fletcher, incluido en los dos primeros números de las mencionadas revistas, puso las bases de su posterior desarrollo. Sus principales aportaciones están asociadas a las características del habla, que se distribuyen en un amplio rango de frecuencias, estando su inteligibilidad asociada a determinados rangos. Entre otras cosas, descubrió el elevado margen dinámico del oído y desarrolló el índice de articulación para cuantificar aproximadamente la calidad de un canal de voz.

H. Fletcher también demostró las posibilidades de la entonces incipiente tecnología electrónica de tubos de vacío para procesar la información contenida en la voz. Posteriormente realizó importantes aportaciones en el ámbito de la generación, transmisión y grabación de la misma, a lo largo de una larga y productiva trayectoria profesional. Su trabajo permitió que se desarrollaran instrumentos de medida de gran impacto, como el OREM descrito en este artículo.  

El Foro Histórico de las Telecomunicaciones, de la Asociación Española y el Colegio Oficial de Ingenieros de Telecomunicación, conjuntamente con el Comité de Metrología del Instituto de la Ingeniería de España, reconoció el valor de todo lo expuesto en los párrafos anteriores en una Jornada denominada “Dos Centenarios: Nacimiento de la tecnociencia y primeros artículos seminales de metrología eléctrica” celebrada en el Instituto de la Ingeniería de España (6).   Este artículo se puede considerar tanto un resumen como un complemento a dicha jornada.

REFERENCIAS

(1). Fletcher, Harvey. The nature of speech and its interpretation.  Bell System Technical Journal, vol 1, nº 1, pp 129-144, 1922.

https://archive.org/details/bstj1-1-129/mode/2up

(2). Fletcher, Harvey. The nature of speech and its interpretation. Electrical Communication, vol 1, nº 1), pp 41-48, 1922.

https://forohistorico.coit.es/images/biblioteca/revistaselectronicas/com-electricas/Vol01-Num1.pdf

(3). Carty, J. J. et al. Foreword. Bell System Technical Journal, vol 1, nº 1, pp 1-3, 1922. 

https://archive.org/details/bstj1-1-1/page/n1/mode/2up

(4).  J. Hidalgo et al – Elaboración de un Corpus de Logatomos Fonéticamente Balanceados para la Evaluación de la Inteligibilidad de la Palabra en Español,  Síntesis Tecnológica v.4 Nº 2 (2011)

https://www.academia.edu/65044178/Elaboraci%C3%B3n_de_un_corpus_de_logatomos_fon%C3%A9ticamente_balanceados_para_la_evaluaci%C3%B3n_de_la_inteligibilidad_de_la_palabra_en_espa%C3%B1ol

(5). Instructions and Applications – Electroacoustics Telephone Transmission Measuring System 3352 Brüel and Kjaer, January 1973 – page 247.

(6). https://forohistorico.coit.es/index.php/inicio/actividades/870-jornada-dos-centenarios

Sending
User Review
5 (2 votes)

La medida de la gravedad: conceptos básicos, instrumentos, aplicaciones e infraestructuras mantenidas por el Instituto Geográfico Nacional

Previous article

…es la digitalización en metrología?

Next article

Comments

Leave a reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Login/Sign up