Inicio » Tesis Maestría

Archivo de la categoría: Tesis Maestría

Defensa Tesis Maestría : “Reconocimiento automático de configuraciones manuales propias de las lenguas de señas”

Viernes 17 de mayo 14:00hs, Salón Marrón (piso 7, salón 705) – Facultad de Ingeniería, J. Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Ariel Stassi  :  “Reconocimiento automático de configuraciones manuales propias de las lenguas de señas”

Tutores : Mauricio Delbracio y Gregory Randall

Tribunal : Pablo Cancela, Marcelo Fiori, José Lezama y Pablo Musé

Saludos,
Mauricio Delbracio

Resumen :

La lengua de señas constituye el medio de comunicación natural de los sordos e hipoacúsicos severos de todo el mundo. La correcta comunicación mediante esta lengua implica: el conocimiento por parte de los interlocutores, la participación de un intérprete intermediario, o bien el apoyo sobre tecnologías de la información para el reconocimiento automático y la traducción de una lengua a otra. En relación a esta última, el Reconocimiento Automático de una Lengua de Señas (RALS) puede definirse como la “identificación automática del contenido lingüístico presente en un dato o una secuencia de datos de entrada”, el cual es frecuentemente abordado mediante una cadena de procesamiento compuesta por las siguientes etapas: sensado, preprocesamiento, extracción de características y clasificación.

En esta tesis de maestría se estudiaron las principales características de las lenguas de señas y distintas variantes de cada una de las etapas mencionadas para el RALS. Luego, se describió una selección de bases de datos para el RALS a distintos niveles de complejidad del problema. Finalmente, se llevó a cabo la implementación y evaluación de un sistema de RALS basado en técnicas de aprendizaje profundo para la clasificación de 60 configuraciones manuales propias de distintas lenguas de señas. En vista del carácter regional de una lengua de señas, durante esta tesis se conformó una base de datos para el reconocimiento de configuraciones manuales propias de la Lengua de Señas Uruguaya. Asimismo, se sentaron las bases para la adquisición de un conjunto de entrenamiento para el RALS uruguayo a nivel de seña aislada.

Defensa Tesis Maestría : “Herramientas computacionales para el análisis del entorno sonoro urbano”

Lunes 6 de mayo 09:30hs, Salón Marrón (piso 7, salón 705) – Facultad de Ingeniería, J. Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Pablo Zinemanas :  “Herramientas computacionales para el análisis del entorno sonoro urbano”

Tutores : Elizabeth González y Pablo Cancela

Tribunal : Mauricio Delbracio (IIE-FIng-UdelaR), Justin Salamon (Audio Research Group, Adobe Research, San Francisco) y Leonardo Nunes (Microsoft’s Advanced Technology Labs, Rio de Janeiro).

Saludos,
Pablo Cancela

Resumen :

Muchos centros urbanos presentan niveles de ruido que pueden ser molestos para sus habitantes, o incluso nocivos para la salud. Por esta razón el entorno sonoro constituye frecuentemente una problemática en las ciudades presente en los reclamos de las comunidades y grupos ambientalistas, en la planificación gubernamental y en los estudios académicos. En esta tesis se estudian herramientas computacionales para la caracterización de entornos sonoros urbanos. El foco del trabajo es la detección de eventos sonoros, lo que implica la clasificación de las fuentes presentes en el registro sonoro, incluyendo su tiempo de inicio y duración. Se relevan las bases de datos disponibles y se concluye que es necesario crear datos propios de la ciudad de Montevideo. Esto conduce a la creación de la base de datos SonidosMVD, y a la definición de una taxonomía para la misma. Se presentan experimentos de detección de eventos sonoros con distintos algoritmos de clasificación profunda y poco profunda sobre distintos conjuntos de datos. Se diseña un modelo “end-to-end”, cuya entrada es la forma de onda de la señal y la salida es el vector de clasificación, y se muestra su utilidad para este problema. Esto se realiza concatenando dos redes : una para la extracción de características y otra para la clasificación. Se muestra que se pueden diseñar dichos modelos utilizando conocimiento sobre el problema para inicializar el entrenamiento en un punto inicial que ha demostrado brindar buenos resultados. Con este sistema se obtienen resultados de clasificación similares a los del estado el arte mientras que se disminuye el numero de parámetros involucrados.

 

Defensa Tesis Maestría en Ingeniería Matemática : “Compressed sensing : Algoritmo re-weighted l 1 con pesos actualizados resolviendo un problema dual”

Viernes 12 de abril 10:00hs, Salón de seminarios del IMERL (en coordinación con el seminario de álgebra) – Facultad de Ingeniería, Julio Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría en Ingeniería Matemática de Matías Valdés :  “Compressed sensing : Algoritmo re-weighted l 1 con pesos actualizados resolviendo un problema dual”

Tutor : Marcelo Fiori

Tribunal :  Dr Diego Armentano (CMAT), Dr Pablo Musé (IIE), Dr Ignacio Ramírez (IIE)

Saludos,

Marcelo Fiori

Resumen :

En este trabajo se presentan algunos de los resultados más relevantes de la teorı́a vinculada al problema de Compressed Sensing (CS) o Sensado Comprimido. Este consiste en: dado un sistema lineal Φx = b, con infinitas soluciones, hallar una solución con la mayor cantidad de coordenadas nulas posibles. Es decir: la solución más “esparsa”. Se propone además una nueva metodologı́a para actualizar los pesos de un algoritmo Re Weighted l 1 , basada en la relajación lagrangeana, que se traduce en algoritmos con un desempeño comparable al de la metodologı́a usual.
El problema CS resulta de gran interés en la adquisición de señales con caracterı́sticas esparsas, como las imágenes y señales de audio. Esto es ası́ pues, mientras que el proceso usual de adquisición realiza n medidas x* ∈ R n y luego las comprime, CS permite sensar y comprimir x* en un único paso, a partir de m medidas lineales: b = Φx* , con m << n. Cuando la matriz de medida Φ cumple ciertas propiedades, es posible resolver el problema CS de forma eficiente, recuperando de esta forma la señal esparsa x* a partir de b. Para esto se resuelve un problema equivalente de optimización convexa, basado en la norma l_1.
Este proceso de recuperación puede ser mejorado, asignando pesos a las coordenadas de la norma l_1 , en un problema convexo conocido como Weighted l 1 . Resolviendo repetidas veces este problema, a la vez que se actualizan los pesos, se obtiene un algoritmo del tipo Re-Weighted l_1 . La metodologı́a de actualización de pesos propuesta en este trabajo, consiste en considerar dichos pesos como multiplicadores de Lagrange, pudiendo de esta forma utilizar algoritmos clásicos de la relajación lagrangeana para su actualización.

Defensa Tesis Maestría : “Deep learning for the analysis of network traffic measurements”

Jueves 28 de marzo 09:30hs, Salón Azul (piso 5, salón 502) – Facultad de Ingeniería, Julio Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Gonzalo Marín :  “Deep learning for the analysis of network traffic measurements”

Tutor  : Pedro Casas (AIT, Viena, Austria) y Germán Capdehourat

Tribunal :  Pablo Belzarena (IIE), Alberto Castro Casales (InCo), Pablo Sprechmann (Google DeepMind, Londres, Inglaterra) y Pere Barlet-Ros (UPC BarcelonaTech, Barcelona, España)

Saludos,

Germán Capdehourat

Resumen :

En los últimos años, la aplicación de modelos de aprendizaje automático (Machine Learning) al análisis de mediciones de tráfico de red ha aumentado considerablemente. En este dominio, generalmente son utilizados modelos de aprendizaje automático tradicionales, donde es necesario definir, diseñar y construir un conjunto de características, de forma de ajustar los datos de entrada que luego se utilizarán para entrenar los modelos. Existen principalmente dos problemas asociados con este enfoque: en primer lugar, se requiere de conocimiento experto en el dominio para seleccionar un conjunto de características representativo para el problema de estudio; en segundo lugar, usualmente es necesario definir un conjunto de características diferente para abordar cada problema específico (por ejemplo, ciberseguridad, detección de anomalías, clasificación de tráfico, estimación de calidad de experiencia -QoE-, etc.). Por otro lado, la utilización de modelos de aprendizaje profundo (Deep Learning) al análisis de mediciones de tráfico de red aún no ha sido del todo explorado. Estos modelos han tenido gran éxito y popularidad, principalmente en el procesamiento de señales, con aplicaciones en: visión artificial, procesamiento de lenguaje natural, traducción automática y más recientemente en juegos. El objetivo principal de este trabajo de tesis es explorar el poder de los modelos de aprendizaje profundo aplicado al análisis de mediciones de tráfico de red. Con este fin, se aborda el problema específico de detección y clasificación de malware. Como principal ventaja con respecto al estado del arte, se considera la evaluación de diferentes representaciones para la entrada: a nivel de paquetes y a nivel de flujos. A su vez, se exploran diferentes arquitecturas de aprendizaje profundo, utilizando redes neuronales convolucionales y redes neuronales recurrentes de tipo LSTM como capas principales. Además, tres conjuntos de datos son elaborados a partir de capturas de tráfico de red, las cuales son luego utilizadas para construir las representaciones de entrada y para entrenar y validar los modelos. Finalmente, el desempeño de los modelos de aprendizaje profundo es comparado con el de un modelo de aprendizaje automático muy utilizado en la práctica, como el random forest. En el problema de detección de malware, se obtuvo una exactitud del 77,6% y 98,5% utilizando paquetes y flujos, respectivamente. En el caso de clasificación de malware, se obtuvo una exactitud promedio del 76,5%. En todas las evaluaciones, los modelos de aprendizaje profundo propuestos superaron la exactitud obtenida por los random forest. Estos resultados sugieren que es posible utilizar herramientas de aprendizaje profundo para complementar y mejorar el análisis de mediciones de tráfico de red sin necesidad de utilizar conocimiento experto para la construcción de conjuntos de características, dando lugar a un amplio espectro de aplicaciones para la utilización del aprendizaje profundo en redes de telecomunicaciones.

 

Defensa Tesis Maestría : “Procesamiento de señales acústicas aplicado al monitoreo de procesos”

Jueves 7 de marzo 15:00hs, Salón Rojo (piso 7, salón 703) – Facultad de Ingeniería, Julio Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Florencia Blasina :  “Procesamiento de señales acústicas aplicado al monitoreo de procesos”

Tutor : Nicolás Pérez

Tribunal :  Leonardo Steinfeld,  Ismael Nuñez y Gonzalo Cetrangolo

Saludos,

Nicolás Pérez

Resumen :

Esta tesis consiste en conocer el estado del arte de algunas técnicas de procesamiento de señales acústicas de posible aplicación al monitoreo de procesos industriales. Mi interés por el tema surge de que formo parte de un grupo de trabajo en el que utilizamos ultrasonido de baja potencia como herramienta de estudio de procesos. De las técnicas estudiadas, experimenté con aplicaciones de medidas de atenuación, correlación y tiempo de vuelo y con la  focalización mediante inversión temporal. Una aplicación de atenuación y una de correlación dieron lugar a publicaciones, que se anexan al final del documento.

Esta tesis se organiza en nueve capítulos, comenzando por la introducción, luego dos principalmente conceptuales, uno sobre técnicas experimentales y equipos, cuatro experimentales y las conclusiones generales. También presento conclusiones al final de cada capítulo sobre lo visto en él. Los capítulos conceptuales tienen el objetivo de facilitar la lectura de la tesis, por lo que trato únicamente aspectos de interés directo al desarrollo de este trabajo.

En el segundo capítulo, presento conceptos básicos de ondas de ultrasonido.Hago énfasis en las diferencias entre medios de propagación, considerando líquidos y sólidos, pues en ambos se propagan las ondas longitudinales, pero las transversales solamente en los sólidos. Además, los sólidos que se clasifican como anisotrópicos tienen direcciones privilegiadas de propagación, en las que las ondas adquieren mayor velocidad. Planteo el cálculo de dichas velocidades en sólidos y su vínculo con las constantes elásticas que vinculan presión y deformación. Describo las principales características de la propagación de ondas: atenuación, difracción, dispersión y el vínculo de la impedancia acústica de dos medios con la reflexión y transferencia de energía en su interfaz.

En el tercer capítulo presento teoría básica de procesamiento de señales, como la transformada de Fourier, las funciones generalizadas, el principio de superposición, el concepto de muestreo y el cálculo de características como valor medio, varianza, potencia o energía. También presento conceptos como el de sistema, el diagrama de Bode, que es un tipo de representación en frecuencia del comportamiento de un sistema lineal y la relación señal a ruido. Para obtener mejor relación señal a ruido en la adquisición de señales, se puede utilizar el promediado, que puede hacerse por señales completas o sobremuestreando una única señal. El uso de filtros permite también eliminar frecuencias que contienen ruido y no información de interés. En este capítulo describo las ventanas temporales rectangulares y de Hanning, ya que toda señal al ser adquirida es enventanada con una ventana rectangular y la de Hanning permite recortar señales llevándolas a cero suavemente. Presento el concepto de interpolación, tanto en tiempo como en frecuencia, que consiste en predecir valores de los que no se adquirió muestra, explicando las hipótesis necesarias. Presento la función de correlación entre dos señales, que sirve para comparar la similitud de su forma y hago una revisión bibliográfica sobre la aplicación del US de baja potencia en la industria, principalmente la alimentaria, donde se destaca que no causa alteraciones en el material analizado.

También en el tercer capítulo presento dos técnicas más avanzadas de procesamiento de señales. Una de ellas es la transformada de Hilbert, de particular utilidad en el cálculo numérico, por ejemplo para implementar la derivación y hallar la envolvente de una señal. La otra técnica es la inversión temporal, que permite focalizar energía espacial en un instante dado y en un punto dado del espacio. En varias de las técnicas se requiere gran cantidad de transductores, pero una de ellas permite focalizar mediante un emisor y un receptor, al utilizar una cavidad caótica. Hice ensayos experimentales de esta técnica, buscando optimizar parámetros de adquisición.

En el cuarto capítulo presento algunas técnicas experimentales y equipos utilizados. Particularmente, presento los transductores de ultrasonido, de los cuales utilicé cerámicos de inmersión y de contacto, hidrófonos y membranas de PVDF. Explico factores físicos que pueden afectar la  amplitud de la señal, destacando la alineación de transductores cuando se trabaja con un emisor y un receptor independientes o la alineación del transductor con el plano reflector cuando se trabaja en modo pulso-eco. De las técnicas experimentales, doy ejemplos de caracterización de equipos: relevamiento de campo acústico, de la respuesta frecuencial de amplificadores y de estabilidad de la energía entregada por un pulsador. Planteo el procedimiento para comprobar que los amplificadores estén funcionando en zona lineal, cuidado que debe ser tenido en cuenta siempre al comienzo de los experimentos. Planteo las técnicas de medida de atenuación y de tiempo de vuelo, las que desarrollo con experimentos en los capítulos correspondientes. Finalmente, explico el método de Arquímedes para medida de densidad, que utilizo en el experimento de medida de tiempo de vuelo.

En el quinto capítulo, presento dos aplicaciones de la función de correlación. Una de ellas, consiste en detectar puntos de impacto en una placa plana mediante dos transductores piezoeléctricos pegados a la misma. Para ello utilicé la correlación de las señales que llegan a los transductores provocadas por el impacto cuyo punto se desea identificar, frente a señales almacenadas en una base de datos, cuyos puntos de impacto son conocidos. En este caso, elegí como característica de interés de la correlación el valor de su máximo. La repetitividad es crucial en esta aplicación.

La otra aplicación de la correlación con la que experimenté es el monitoreo de cambios en la estructura de un líquido, tomando el caso del proceso de coagulación de leche, fundamental en la industrial quesera. El sistema utilizado consiste en un transductor de inmersión funcionando en modo pulso-eco frente a un dispositivo multidifusor, sumergido en leche en proceso de coagulación a temperatura controlada. En este caso, tomé como característica de monitoreo el tiempo en el que se da el máximo de la correlación. Los resultados fueron buenos para obtener curvas que representan el proceso, en las cuales logré detectar automáticamente la transición entre dos de las etapas de la coagulación. Presenté en el congreso 2017 I2MTC (IEEE) el artículo sobre este tema “Development of a multiple-scattering acoustic sensor for process monitoring -Application to monitoring milk coagulation”, que adjunto en anexos, el cual fue publicado en los proceedings del congreso [6].

En el sexto capítulo presento dos experimentos que realicé de medidas de atenuación. En uno de ellos, estudié cómo varía la atenuación para distintas diluciones de leche en agua. En el otro, el medio consiste en pasta de aceitunas disuelta en agua. Calculé el coeficiente de atenuación por distancia recorrida, que es dependiente de la frecuencia de trabajo. En ambos experimentos utilicé un transductor de inmersión funcionando en modo pulso-eco en una celda que tiene un plano de reflexión ajustable. El primer experimento tiene potencial aplicación en la detección de adulteración de líquidos, para lo que requeriría la realización previa de una base de datos de calibración. El otro lo realicé con el objetivo de evaluar la posibilidad de generar ondas estacionarias en pasta de aceitunas, donde observé que la atenuación no permite la generación de este tipo de ondas, al menos para la frecuencia trabajada y recipientes de más de unos pocos centímetros de largo. En relación al segundo experimento, colaboré con un proyecto de investigación del Laboratorio de Grasas y Aceites de Facultad de Química, UdelaR. Mi trabajo consistió en relevar la atenuación del ultrasonido en pasta de aceitunas de carácter industrial, de la que se extrae aceite de oliva, en la que el grupo desea aplicar una técnica ultrasónica para mejorar el proceso de extracción. Este trabajo llevó a la publicación del artículo “Impact of sound attenuation on ultrasound-driven extractability improvements during olive oil extraction” [3], el cual adjunto en en anexos, publicado en la revista Ultrasonics Sonochemistry.

En el séptimo capítulo presento un experimento en el que utilicé la medida de tiempo de vuelo de ultrasonido en muestras planas de sólidos de espesor conocido para calcular la velocidad de propagación de ondas. Trabajé en el laboratório de ultrassom de la Universidade de São Paulo con materiales isotrópicos y uno unidireccionalmente anisotrópico, variando el ángulo de incidencia de la onda sobre la muestra. El sistema consistió en un transductor cerámico de inmersión como emisor y una membrana de PVDF como receptor, inmersos en agua. La muestra se sostiene en el centro y es girada por un goniómetro controlado desde un PC, para variar el ángulo de incidencia de las ondas sobre la misma. Verifiqué la independencia de la velocidad de propagación frente al ángulo de incidencia en las muestras isotrópicas y observé la dependencia en la muestra anisotrópica. El procesamiento de estas señales tuvo dos puntos principales, uno de ellos, vinculado a la identificación de las ondas transversales y longitudinales superpuestas en las señales adquiridas y sus tiempos de inicio. El aspecto desafiante fue el desarrollo de un método de compensación de offset para el ángulo de incidencia de las señales, dado que la alineación del ángulo de incidencia nula del goniómetro no es trivial. Los resultados obtenidos coinciden con los reportados en la bibliografía.

En el octavo capítulo presento la experimentación que llevé a cabo en cuanto a la focalización mediante inversión temporal. Busqué optimizar, variándolos de a uno, los siguientes parámetros, que afectan la calidad de la focalización, el tiempo de procesamiento o adquisición y los requisitos de memoria: largo de la ventana de adquisición, frecuencia de muestreo y número de promedios. Dependiendo del sistema estudiado, es posible encontrar óptimos en los que la calidad de la focalización tiene un máximo. En otros, la calidad se estanca, por lo que aumentar el parámetro en cuestión es un desperdicio de recursos. El sistema consistió en un transductor cerámico de inmersión como emisor y un hidrófono como receptor, con un dispositivo multidifusor. Inyecté en el sistema, mediante un generador de ondas arbitrarias, un sinc como señal impulsiva. Realicé la inversión temporal de la señal relevada por el hidrófono y la reinyecté en el transductor piezoeléctrico, esperando relevar una señal focalizada en el hidrófono. Tomé como factores de evaluación la relación de altura y ancho del foco, la energía en el máximo de la focalización en relación con la de la señal emitida y la simetría del foco. En este caso, hallé óptimos para la frecuencia demuestreo y el número de promedios, pero no para el largo de la ventana.

Realizar este trabajo me aportó importantes estrategias de adquisición y procesamiento de señales, conocimiento de herramientas teóricas con útiles aplicaciones prácticas, intuición en la resolución de problemas que se presentan en el desarrollo de los experimentos y conocimientos de técnicas y equipos vinculados al trabajo con ultrasonido en general. Está en mis planes continuar trabajando con estas herramientas, tanto en la aplicación al monitoreo de procesos como en otras aplicaciones, que pueden ser vinculadas por ejemplo a la salud o al monitoreo ambiental. En particular, comenzaré próximamente mi doctorado, cuyo tema de tesis será “Técnicas de sonido aplicadas al desarrollo de sensores meteorológicos”, en el que tendré la posibilidad de hacer uso de los conocimientos adquiridos en el desarrollo de la maestría.

 

Defensa Tesis Maestría : “Numerical simulation of wind farms. Operation of wind turbines under power restrictions imposed by the electric grid”

Lunes 11 de febrero 15:00hs, Salón de Posgrado del IMFIA, Facultad de Ingeniería, J. Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Andrés Guggeri :  “Numerical simulation of wind farms. Operation of wind turbines under power restrictions imposed by the electric grid”

Tutor : Martín Draper y Gabriel Usera

Tribunal : Ruben Chaer (IIE), Filippo Campagnolo (TUM-Munich) y Federico Favre (IIMPI)

Saludos,

Gabriel Usera

Resumen :

This thesis deals with the operation and power production of wind farms, focusing on active power control of wind turbines. This work is carried out by means of numerical simulations with a Computational Fluid Mechanics approach. The wind field dynamics equations are solved using the numeric code caffa3d, with a Large Eddy Simulation framework and the Actuator Line Model to represent the wind turbine rotors. A torque-generator controller and closed-loop Proportional-Integral collective pitch controller were implemented in caffa3d code, with the purpose of following an active power signal determined by the operator. These models enable to simulate the operation of wind turbines subject to the entire range of wind velocity and contributes to reproduce in a more precise way the real behavior of the turbine, allowing to find both qualitative and quantitative results of the interaction between the wind flow and the turbines.To validate the simulations, the results were compared with experimental data of the wind field and the operation of wind turbines, obtained from two sources: the 7.7MW onshore wind farm, ‘Libertad’, located in Uruguay; and a wind tunnel campaign of a wind farm. The results obtained in the simulations are consistent with the experimental ones, so the state of the art is considered to be reached in order to simulate the operation of turbines and their power control at individual level. The comparison was focused in integral quantities, in particular active power, as well as in the rotor angular velocity, bladepitch angle and wind speed. Simulations of different wind speed and direction situations were carried out, also considering different signals of active power, evaluating the characteristics of the wakes, the operation of the turbines and the total production of the wind farm.

 

Defensa Tesis Maestría : “Espionaje por emisiones electromagnéticas”

Miércoles 12 de diciembre 17:00hs, Laboratorio de Medidas del IIE, Facultad de Ingeniería, J. Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Pablo Menoni :  “Espionaje por emisiones electromagnéticas”

Tutor : Federico Larroca

Tribunal : Pablo Belzarena (IIE), Gustavo Betarte (InCo), Eduardo Cota (IIE) y Mauricio Delbracio (IIE)

Saludos,

Federico Larroca

Resumen :

La temática del espionaje en general, y en particular el referido a información digital, ha cautivado a muchos colectivos, desde la industria cinematográfica hasta la academia, pasando por campos tan diversos como el periodismo y la política. En este trabajo se profundiza en el estado del arte y se muestran algunos aspectos de una de las vulnerabilidades menos difundidas : las que ocurren por emanaciones de ondas electromagnéticas, a las cuales están sujetos la gran mayoría (sino todos) de los modernos sistemas de información y que muchas veces pasan desapercibidos.

A partir de la detección y procesamiento de esas emanaciones, se dejan en evidencia las debilidades desde el punto de vista de seguridad y privacidad que éstas acarrean. Estos aspectos se pueden vulnerar en un gran número de sistemas de información, por individuos con conocimientos acerca de teoría electromagnética, de los adquiridos en cursos de grado universitario, y un manejo de software a nivel programador, junto con el empleo de herramientas de hardware de bajo costo como SDR (Software Defined Radio por sus siglas en inglés).

El trabajo se aborda tomando como punto de partida el espionaje de emanaciones provenientes de la interfaz VGA (Video Graphic Array), en particular del desarrollo hecho por Martin Marinov [1], para luego extenderlo a las emanaciones de la interfaz HDMI (High-Definition Multimedia Interface).

Se realizan todos los planteos analíticos que permiten complementar el trabajo de Marinov, cubriendo aspectos teóricos que explican las características de la detección de imágenes a partir de las emanaciones. Se aportan algunos elementos para mejorar la detección tales como procesamiento off line y ecualización, además todos los elementos necesarios para analizar las emanaciones derivadas de las señales HDMI.

Enfocando el trabajo hacia las imágenes que contienen texto, se analizan las particularidades que presentan las emanaciones en cuanto a las transiciones bruscas de contraste en la luminiscencia, especialmente bordes entre color negro y blanco.

También se realizan algunas consideraciones y recomendaciones sobre seguridad, donde el hincapié se hace en tomar medidas para burlar el espionaje de emanaciones espurias, y sobre todo ayudar a tomar conciencia de las vulnerabilidades presentes.

Quedan disponibles los scripts usados en los ambientes de simulación tanto para GNU Octave como para GNU Radio Companion, así como también las grabaciones de las emanaciones captadas en las instancias de pruebas de campo, dentro del sitio web del grupo ARTES (Análisis de Redes, Tráfico y Estadísticas de Servicio) del Instituto de Ingeniería Eléctrica de la Facultad de Ingeniería (UdelaR) : https://iie.fing.edu.uy/investigacion/grupos/artes/es/proyectos/espionaje-por-emisiones-electromagneticas/.

Palabras clave : SDR, espionaje, seguridad, TEMPEST, video, VGA, HDMI

[1] Martin Marinov, Remote video eavesdropping using a software-defined radio platform. University of Cambridge, Computer Laboratory, Cambridge CB3 0FD, Reino Unido, Junio 11, 2014.

Defensa Tesis Maestría : “Diseño e implementación de la unidad de control de un neuromodulador implantable basado en FPGA”

Martes 13 de noviembre 18:00hs, Laboratorio de Software del IIE, Facultad de Ingeniería, J. Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Santiago Martínez :  “Diseño e implementación de la unidad de control de un neuromodulador implantable basado en FPGA”

Tutor : Juan Pablo Oliver

Tribunal : Eduardo Boemo (UAM), Conrado Rossi y Julián Oreggioni

Saludos,

Juan Pablo Oliver

Resumen :

En esta tesis se presenta el diseño de la unidad de control de un circuito de neuromodulación y su implementación basada en FPGA. El foco fue puesto, esencialmente, en el consumo de potencia, variable que resulta crítica en los sistemas médicos implantables y activos.

Se implementó el diseño en tres FPGA, de diferente familia y fabricante: Cyclone V (Intel), IGLOO2 (Microsemi) e iCE40 (Lattice). Se midió el consumo de potencia en cada plataforma, obteniéndose los mejores resultados (tanto estáticos como dinámicos) en la FPGA iCE40-HX-8K con un consumo total del core de 3,6mW. Los resultados obtenidos fueron contrastados contra los datos de consumo obtenidos de las hojas de datos y de las herramientas de estimación, obteniéndose errores cercanos al 400% para algunos casos.

Se determinaron los requerimientos mínimos en términos de cantidad de pines y tamaño para cada familia utilizada y se pudo calcular el menor consumo alcanzable para cada una de ellas.

Finalmente, se propusieron y evaluaron tres métodos sencillos para la medida del consumo dinámico en escenarios de gran consumo estático, obteniéndose resultados con un error cercano al 10%.

Defensa Tesis Maestría : “Diseño, simulación y medida de un sensor de temperatura de ultra bajo consumo”

Jueves 12 de julio 17:30hs, Salón Gris (piso 7, salón 727) – Facultad de Ingeniería, Julio Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Guillermo Antúnez :  “Diseño, simulación y medida de un sensor de temperatura de ultra bajo consumo”

Tutores : Conrado Rossi y Fernando Silveira

Tribunal : Pablo Castro, Matías Miguez, Nicolás Pérez y Conrado Rossi

Saludos,

Conrado Rossi

Resumen :

Esta tesis contribuye a la línea de trabajo del Grupo de Microelectrónica relacionada a los sensores de temperatura en el marco del desarrollo de ciruitos integrados de Ultra Bajo Consumo (ULP).
El presente trabajo apunta al diseño de sensores de temperatura de ULP, cuya arquitectura se basa en el uso de una fuente de corriente con una dependencia particular con la temperatura.
Los circuitos polarizados con esta fuente cancelan las dependencias alineales con la temperatura producto de la movilidad de los portadores.

Se desarrolló un modelo analítico de la dispersión de la corriente generada por la fuente. Con dicho modelo se implementó un método de diseño que permite para un determinado nivel de dispersión,
elegir un área normalizada mínima, disminuyendo la cantidad de transistores necesarios en el diseño.
La fuente se utilizó para polarizar los circuitos encargados de generar dos curvas de tensión, una NTC y la otra PTAT, con un perfil en temperatura muy lineal.
Los circuitos utilizados resaltan por ser sencillos y junto a un comparador forman el circuito de sensado de temperatura.
Se presenta un método de diseño para los circuitos generadores de tensión a partir de sus especificaciones.

Se realizó un diseño en tecnología CMOS 130 nm con 1.2 V de tensión de alimentación.
El mismo fue simulado con resultados que indican un funcionamiento satisfactorio en el rango de 0 °C a 80 °C.
Dicho diseño fue fabricado en un área aproximada de 0.08 mm2 y se realizaron una serie de medidas para obtener conclusiones sobre el desempeño de la fuente de corriente y el sistema completo como sensor de temperatura.
Las medidas de la fuente de corriente arrojan buenos resultados desde el punto de vista de la media y dispersión comprobando la utilidad del modelo de dispersión para el diseño.
En cuanto al sensor de temperatura, se realizaron medidas barriendo el rango de 310 K a 370 K en el que se verificó su funcionamiento con algunas limitaciones, discutiendo sus causas.
El consumo del sensor se midió en el mismo rango, obteniendo 137 nA a 370 K.
A modo de referencia, el consumo simulado a 25 °C resulta aproximadamente 115 nA.

Defensa Tesis Maestría : “Identificación automática de cantante en música polifónica”

Jueves 14 de junio 14hs, Salón Rojo (piso 7, salón 703) – Facultad de Ingeniería, Julio Herrera y Reissig 565

Tenemos el agrado de invitarlos a la defensa de tesis de maestría de Pablo Massaferro :  “Identificación automática de cantante en música polifónica”

Tutores : Pablo Cancela y Martín Rocamora

Tribunal : Mauricio Delbracio, Álvaro Gómez y Luiz W. P. Biscainho (UFRJ)

Saludos,

Martín Rocamora

Resumen :

La aplicación de la tecnología digital a la producción y distribución de
música ha dado lugar a una verdadera revolución, facilitando el acceso de
los artistas a los estudios de grabación, y generando un crecimiento
exponencial de la cantidad de registros fonográficos. Esto ha generado que
los sistemas de clasificación y sugerencia, basados en herramientas de
procesamiento de señales y aprendizaje automático, se hayan transformado en
puntos clave en la gestión de la oferta musical. En este contexto, es de
especial relevancia automatizar algunas tareas, como la identificación del
cantante a partir de un archivo de audio.

En este trabajo se exploran las técnicas existentes de identificación de
cantantes en archivos de audio de música polifónica. Varios trabajos
abordan el problema sin realizar separación de fuentes, debido a las
dificultades que esto conlleva, lo que genera que los algoritmos de
clasificación aprendan a reconocer al cantante junto con su acompañamiento
musical.

La selección de la instrumentación, efectos de audio, mezcla y masterizado
juegan un rol importante en el sonido final de las canciones que integran
un álbum. En trabajos previos, los efectos vinculados a estos aspectos de
la producción fonográfica han sido poco explorados. Para mostrar estos
efectos y poder cuantificarlos, en este trabajo se crea la base de datos
VoicesUy, en la cual canciones populares rioplatenses son cantadas por
artistas profesionales y grabadas en multipista. Los cantantes interpretan
las mismas canciones de forma de poder realizar identificación de voces
entre archivos donde la única diferencia es la voz. Esta base de datos
permite evaluar tanto algoritmos de separación de fuentes como de
clasificación de voces. El hecho de que los cantantes que participan en la
grabación de la base tengan su propia discografía, permite además evaluar
la incidencia de los efectos de diferentes etapas de la producción musical
en la identificación de cantante. VoicesUy es la primer base de datos de
música popular en castellano para identificación de cantante y separación
de fuentes.

Se presentan experimentos que muestran que, si bien el acompañamiento
musical dificulta la identificación de cantante, un artista interpretando
sus composiciones junto con su banda es más fácil de identificar que
interpretando versiones. Denominamos a este comportamiento “efecto banda”.
Se muestra cómo mejora la clasificación del intérprete al utilizar técnicas
de separación de fuentes. Se prueba una técnica de enmascaramiento sobre
una representación tiempo-frecuencia no tradicional y se comparan los
resultados utilizado representaciones clásicas como el espectrograma. Para
aplicar estas técnicas se utiliza la información de la frecuencia
fundamental de la voz. Los resultados de identificación de cantante
obtenidos son comparables con otros trabajos de referencia. La
clasificación de voces sobre VoicesUy, aplicando separación de fuentes,
alcanza un acierto del 95.1 %.