SOFTWARE ENTWICKLUNG STX Ein Softwarepaket zum  Verwalten

Slides:



Advertisements
Ähnliche Präsentationen
Spektrale Analysen in EMU-R: eine Einführung
Advertisements

ixJED ixact GmbH Dr. Karsten Wendt
Eine RDF Konvention für die Beschreibung phonetischer Ressourcen im Semantic Web Hauptseminar: Historisch-Kulturwissenschaftliche Objekte im Semantic Web.
Die akustische Analyse von Sprachlauten.
Quellen-Filter Theorie der Sprachproduktion
Die akustische Analyse von Sprachlauten
Spektra von periodischen Signalen. Resonanz.
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
Spektrogramm und Spektrum
Anschließen des Rekorders n Anschließen des Kassetten- oder DAT -Recorders: n Die beiden Ausgänge (line out) des Rekorders werden mit den Eingängen (line.
Spektrogramm und Spektrum Sitzung 8 Welche Konsonanten sind für sich alleine identifizierbar? -Alle Konsonanten ausser [pt] in tippt, weil das [p] nicht.
Aufnahmen n An dem ersten CSL-Gerät ist keine Aufnahme möglich Sitzung 2.
Starten von Multi-Speech Starten des Systems: n PC einschalten n Icon für Multi-Speech auf dem Desktop anklicken n Multi-Speech Main Program wählen Sitzung.
Übung Akustische Phonetik
Spektrale Analysen in EMU-R: eine Einführung Jonathan Harrington.
Berechnung von digitalen Signalen
Berechnung von digitalen Signalen Jonathan Harrington.
Spektrale Analysen in EMU-R: eine Einführung
Parametrisierung von Spektra
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Rigi und Web2Rsf vorgestellt von Tobias Weigand. Inhalt Ziel von Web2Rsf und Rigi Vorstellung des Parsers Web2Rsf Vorstellung des Werkzeugs Rigi Analyse.
Multimediatechnik / Audio Dipl. -Ing. Oliver Lietz
Wie funktionniert das Musikklauen denn im Detail?
Komprimierung von Sprachdaten mit LPC10 auf einem dsPIC
Driss Harrou FH D Fachhochschule Düsseldorf 1 Aufgabenstellung - Erstellung eines modularisierten Akquirierungsprogramms für die aerodynamischen Messgrößen.
HLSyn – eine Kurzeinführung
Institut für Schallforschung der Österreichischen Akademie der Wissenschaften: A-1010 Wien; Liebiggasse 5. Tel / ; Fax +43 1/ ;
Akustisches Herzschlag-
Modell der Hörbarkeit von zeitvarianten tonalen Komponenten (Getriebetöne) vor komplexem Hintergrundgeräusch Werner A. Deutsch 1, Axel Mors 2, Anton Noll.
Stimulierzeugung in praat
Die Fourier-Analyse Durch die Fourier-Analyse wird ein Sprachsignal in Sinusoiden zunehmender Frequenz zerlegt, sodass wenn diese summiert werden, das.
Messgrößen für Schallwellen
Messgrößen für Schallwellen
Messgrößen für Schallwellen
Messgrößen für Schallwellen
Österreichische Akademie der Wissenschaften, Institut für Weltraumforschung, Graz, Austria, Text text text text Text text text text.
MATHEMATIK UND AKUSTISCHE SIGNALVERARBEITUNG
LÄRMSCHUTZ-WIRKUNG GEKRÜMMTER LÄRMSCHUTZ-WÄNDE
Lärmschutzwirkung gekrümmter Lärmschutzwände
Daniela Wurhofer und Ismail Karagöz
HORIZONT 1 XINFO ® Das IT - Informationssystem PL/1 Scanner HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
Positionsr ekonstruktion durch die Analyse der Pulsformen hochsegmentierter AGATA Germaniumdetektoren Torsten Beck 1 ( ), Nami Saito 1 (
Von Spektren und Formanten Grundlagen akustischer Analyse und Manipulation Martin Meyer/Franziskus Liem
ISO/OSI Referenzmodell
Tonhöhenwahrnehmung Wozu?
Sampling, Rekonstruktion
Holger Waubke, Piotr Majdak, Michael Mihocic, Anton Noll
Akustische Modelle der Sprachproduktion
Avenue - Kleine Scripte, große Wirkung
Institut für Schallforschung der Österreichischen Akademie der Wissenschaften: A-1010 Wien; Reichsratsrasse 17. Tel / ; Fax +43 1/ ;
Plosive [a d a] [a t a] [a th a]
Klimadapt: Interpolation der REMO UBA Daten und Untersuchung von Kühl- und Heizgradtagen mit StartClim Daten Universität für Bodenkultur, Wien Department.
prof. dr. dieter steinmannfachhochschule trier © prof. dr. dieter steinmann ISO/OSI Referenzmodell Physical.
Wichtige Transformationen
3. Sitzung K3.1 Phonetik und Phonologie II
Visualisierungsmethoden zur
2. Sitzung K3.1 Phonetik und Phonologie II
Sommersemester 2012 Bistra Andreeva FR 4.7 Phonetik Universität des Saarlandes Einführung in die Instrumentalphonetik.
ST X : What You Hear Is What You See Acoustics Research Institute of the Austrian Academy of Sciences: A-1010 Wien; Liebiggasse 5. Tel /
Auswertung geodätischer Weltraumverfahren LV Projekt GNSS: Auswertung mit Leica Geo Office (5.Novemeber 2015)
© WZL/Fraunhofer IPT MATLAB Simulink am Beispiel schwingender mechanischer Systeme Seminarvortrag im Rahmen des Studiengangs Scientific Programming von.
Acoustics Research Institute Austrian Academy of Science ST X : an application for harmonic analysis in psychoacoustics Peter Balazs
iem.kug.ac.at Konzepte für virtuelle Akustik Theoretische Betrachtungen Alois Sontacchi Institute of Electronic Music and Acoustics at the University.
Plosive [a d a] [a t a] [a th a]
Das IT - Informationssystem
Spektrogramm und Spektrum Sitzung 8 Spektrogramm und Spektrum Date ip003rb.wav laden Formantwerte (F1 und F2) vom /a:/ im ‘mal’ ablesen Formantwerte.
SLA Reporting leicht gemacht
Kinematische Auswertung
Plosive [a d a] [a t a] [a th a]
 Präsentation transkript:

SOFTWARE ENTWICKLUNG STX Ein Softwarepaket zum  Verwalten  Analysieren und  Annotieren von Schallsignalen Entwickelt am Institut für Schallforschung der Österreichischen Akademie der Wissenschaften Die Software ist auf unserer Homepage verfügbar www.kfs.oeaw.ac.at

Analyse Annotierung Signalanalyse, Segmentierung und Annotierung Benutzerdefinierte Analyseprofile Parallele graphische Darstellung von Wellenform, Spektrogramm (FFT, LPC, Wavelet, ...) und Parameterverläufen (rms, f0, Formanten, …) Annotierungen mit Attributvorlagen lokales Detailspektrum (Sektion) Analyse Annotierung Echtzeitanalyse Analyse und graphische Darstellung von Signalen in Echtzeit

Schnitt- stellen Input Output Verwaltung Verwaltung von Signalen und Einstellungen Workspace - Sammelstelle für Programmeinstellungen und Projektdateien. Hier erfolgt die Auswahl von Signalen, Verarbeitungsprofilen und Benutzerscripts. TCP/IP DCOM (z.B.: ↔ R) DDE (z.B.: ↔ Excel) Clipboard Schnitt- stellen Wave-In Wave-Out Dateien: Wave, XML, Text etc. Recorder Aufnahme von Signalen mit Signalaussteuerung und Tagging. Input Output Verwaltung

Entwicklung Anwendungs- programmierung Kommandozeile Entwicklungsumgebung Ausführung von Scriptbefehlen für die interaktive Entwicklung von Scripts. Debuggingumgebung Interaktives Debugging von Scripts mit Breakpoints, Funktionsstack, Umgebungsinspektor etc. Entwicklung Anwendungs- programmierung

Spektrogramme – Zeit-Frequenz Signaldarstellungen Vergleich verschiedener Spektrogramme des Sprachsignals „kreidebleich“ Spektrogramm = Signalamplitude als Funktion von Zeit und Frequenz = Zeit-Frequenz Darstellung Kurzzeit-Fouriertransformation (STFT) Konstante, frequenzunabhängige Zeit- und Frequenzauflösung konstante Bandbreite Wavelet-Transformation (Typ: Morlet) Hohe Frequenzauflösung bei niedrigen Frequenzen Hohe Zeitauflösung bei hohen Frequenzen konstantes Verhältnis von Bandbreite zu Mittenfrequenz Frequenz  Frequenz  Zeit  Zeit 

Sprachanalyse – Spektrogramm und Sprachparameter Berechnung und Darstellung von Sprachsignalen und grundlegenden Sprachparametern Segmentmarkierung Zeitbereich und Metadaten (z.B. Transkription) Spektrogramm Zeit-Frequenz Analyse = Schalldruck als Funktion von Zeit und Frequenz Formantfrequenzen Resonanzen des Vokaltrakts Grundfrequenz (f0) Tonhöhenverlauf (Prosodie) Wellenform zeitlicher Verlauf des Schalldruckes Die berechneten Parameter können graphisch editiert (korrigiert), zur weiterverarbeitung im Workspace gespeichert und / oder exportiert werden.

(mongolischer Obertongesang) MULAC – Frame-Multiplier in Acoucstics Framework für die Entwicklung, Testung und Anwendung von Frame-Multipliern (siehe Projekt „MulAc“) Original (mongolischer Obertongesang) Modifikationsmatrix („Maske“) Modifiziertes Signal x = Frequenz [kHz] Zeit [s] Zeit [s] Zeit [s] Adaptives Kammfilter Die Definition von Modifikationen (Masken) erfolgt durch die graphische Auswahl des Zeit-Frequenz-Ausschnitts (Polygon) und die Angabe von Methode und Parametern. Die Erzeugung der Masken kann signalgetrieben (adaptiv) oder signalunabhängig erfolgen. Auslöschung (0-setzen der Amplitude) Analyse und Resynthese erfolgen derzeit mittels Gaborframes. Andere Methoden mit variabler Zeit / Frequenz-Auflösung (z.B. basierend auf Wavelets) sind geplant. Irrelevanzfilter (Übermaskierung) Schwarz = 1 = keine Änderung Weiss = 0 = Auslöschung

SPExL – Graphisch / Akustisch unterstützte Transkription Benutzerfreundliches, rasches Segmentieren, Transkribieren und Annotieren umfangreicher Tondokumente Anwendungen vor allem in der Phonetik, Phonologie und Forensik Wellenform + Segmentmarkierung Spektrogramm + Transkription + (optional) f0, Formanten; schnelles Umschalten zwischen Schmal- und Breitbandanalyse möglich - Userinterface optimiert für Tastatureingabe (d.h. möglichst wenige Wechsel zwischen Maus und Tastatur) - Graphiklayout, GUI und Signaldarstellungen sind konfigurierbar. - Segmentattribute können anwendungsbezogen definiert werden (Segment-Templates) - Paralleles Arbeiten im Workspace ist möglich (Kontrollhören, Korrektur, Detailanalyse) Scroll + Zoom synchron für Wellenform und Spektrogramm Steuerung auch über Hotkeys und Kontextmenü verfügbar Segmentliste + Editor

RETISIMO – REalTIme SIgnal MOdification Allgemeines Framework für Signalprocessing und Spektrumanalyse von Stereosignalen in Echtzeit (Anwendung der Frame-Multiplier, siehe Projekt „MulAc“) Blockdiagramm: Zeitbereich x(t) Spektrum a(f),φ(f) Zeitbereich y(t) Wave-Out oder Soundfile Wave-In oder Soundfile Processing Modul Preprocessing Input Multiplexer Input Analyse Synthese Postprocessing Output Multiplexer Output Level- meter (Spektren, PPM vom Processing- Modul abhänige Funktionen) Grafik und Implementierte Prozessing Module: Synthese Analyse Standardfilter (Tiefpass, Hochpass, Bandpass) Graphisch definierte Filter HRTF-Rendering mit 3D Quellenpositionierung Sprachsynthese und 3D Vokaltraktmodell Rauschunterdrückung (Signalverbesserung) Irrelevanzfilter (Simultanmaskierung) LAN Files Framework-Modul Framework-Modul; Funktion teilweise abhängig von Processing-Modul (z.B. für HRTF, Sprachsynthes) 3D Graphik Externe Externe Daten (z.B.: HRTFs, Filterspektren Sprachdaten) Processing-Modul; austauschbar Externe Programme und Daten; abhängig von Processing-Modul

Maskierungsparameter RETISIMO Modul – Irrelevanzfilter Entfernung nicht hörbarer („irrelevanter“) Teile von Klängen mittels Simultanmaskierung Blockdiagramm: Irrelevanzfilter Maskierungs- filter Maskierungs- spektrum Pegel- adaptierung Signalspektrum x(f) Irrelevanzspektrum y(f) x(f) für x(f)>m(f) y(f)= für x(f)≤m(f) Maskierungsparameter Adapierungsparameter Psychoakustisches Modell der Simultanmaskierung von Sinustönen Signalspektrum Anwendungen: In der Signalanalyse (Informationsreduktion) Übermaskierung = Trennung starker („Vordergrund“) und schwacher („Hintergrund“) Signalteile In der Signalkodierung; „perzeptive Coder“ z.B.: MP3 Irrelevanzspektrum Maskierungsfunktion abhängig von Frequenz und Amplitude des Maskierungstones Maskierungs- ton Amplitude in dB Testton 1 nicht hörbar („maskiert“) Maskierungsspektrum Testton 2 hörbar Frequenz in Bark (= perzeptive Frequenzskala)

RETISIMO Modul – Sprachsynthese Formant-Synthesizer (Dennis H. Klatt; JASA 67/3, 1980) und Berechnung der Vokaltraktquerschnitte mittels LPC (Linear Prediction Coding) Blockdiagramm: Formant-Synthesizer Sprachsignal Grundfrequenz und Amplitude Puls Generator Vokaltraktfilter LPC Analyse Mix Die Syntheseparameter werden über Dialog und Grafik eingegeben oder von einem Sprachdatenfile gelesen Rausch Generator Vokaltraktmodell Amplitude Formanten (Frequenz, Amplitude, Bandbreite) Filter- spektrum Querschnitts- koeffizienten Formanten Amplituden- spektrum des Sprachsignals

RETISIMO Modul – HRTF-Rendering Simulation einer im Raum positionierbaren Quelle mittels gemessener oder berechneter HRTFs (HRTF = Head Related Transfer Function = individuelle Außenohr-Übertragungsfunktion) Blockdiagramm: HRTF-Rendering Input (mono) Filter links Output links HRTF Datenbasis H(α,β) Filterspektrum- generator Filter rechts Position der Quelle (Distanz r, Azimuth α, Elevation β) Output rechts z.B.: Azimuth=45°, Elevation=0° (Quelle vorne, links in Kopfebene) HRTF links HRTF rechts Beim Rendering werden  das HRTF-Spektrum, die Zeitdifferenz zwischen den Ohren und die Distanz zur Quelle berücksichtigt.