DE60211157T2 - Synchrones Abspielen von Medien-Paketen - Google Patents

Synchrones Abspielen von Medien-Paketen Download PDF

Info

Publication number
DE60211157T2
DE60211157T2 DE60211157T DE60211157T DE60211157T2 DE 60211157 T2 DE60211157 T2 DE 60211157T2 DE 60211157 T DE60211157 T DE 60211157T DE 60211157 T DE60211157 T DE 60211157T DE 60211157 T2 DE60211157 T2 DE 60211157T2
Authority
DE
Germany
Prior art keywords
time
media
media data
sink
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60211157T
Other languages
English (en)
Other versions
DE60211157D1 (de
Inventor
c/o Advanced Tech. Cent. Stuttgart Rüdiger Mosig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Deutschland GmbH
Original Assignee
Sony Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Deutschland GmbH filed Critical Sony Deutschland GmbH
Publication of DE60211157D1 publication Critical patent/DE60211157D1/de
Application granted granted Critical
Publication of DE60211157T2 publication Critical patent/DE60211157T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1101Session protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]

Description

  • Die Erfindung betrifft ein Verfahren, eine Medienquelle, eine Mediensenke und ein Medienverarbeitungssystem zum synchronen Abspielen von Mediendatenpaketen.
  • Ein Mensch verwendet zwei Schallparameter zum Ermitteln der Position der Schallquelle: die Amplitude und die Phase des Schalls. Da die Intensität des Schalls bei dessen Ausbreitung in Luft abnimmt, nimmt ein weiter von der Schallquelle entferntes Ohr einen geringeren Schallpegel wahr als ein Ohr in der Nähe der Schallquelle. Da der Schall zudem für die Ausbreitung in der Luft einige Zeit benötigt, erhält das weiter entfernte Ohr das Signal später als das näher zur Schallquelle angeordnete Ohr. Experimente haben gezeigt, dass Menschen eine Phasendifferenz zwischen zwei Kanälen von mehr als 6-20 Mikrosekunden (μs) als Versatz der Schallquelle wahrnehmen und zwei Signale mit einer Phasendifferenz von mehr als 35-40 Millisekunden (ms) als zwei verschiedene Töne wahrgenommen werden.
  • Für Audiosysteme, die Audiotöne abspielen (emittieren) bedeutet dies, dass ein zu einem Kanal eines Multikanalsignals zugehöriges Audiosignal, z.B. ein Stereosignal, zu exakt derselben Zeit, d.h. exakt demselben Zeitpunkt, wie alle weiteren demselben Multikanalsignal, z.B. demselben Stereosignal, zugeordneten Audiosignale abgespielt werden sollte. Mit anderen Worten ist eine enge Synchronisation der verschiedenen Audioausgabegeräte, z.B. Lautsprecher, erforderlich, sodass die Zeitrelation zwischen verschienen Kanälen eines Multikanalsignals während der Ausgabe gegeben ist. Ähnliche Anforderungen können ebenso in weiteren Audioanwendungen wie z.B. Dolby-Surround-Systemen oder in Audio-Video-Anwendungen auftreten.
  • Die erwähnte enge Synchronisation ist ebenso von digitalen Übertragungs-Audiosystemen zu erfüllen, bei denen Audiosignale von der Medienquelle zu den Medienausgabegeräten (im Folgenden ebenso allgemeiner als Medien senken bezeichnet, die ebenso Geräte zur Verarbeitung eines empfangenen Multikanalsignals auf beliebige andere Weise enthalten) in der Form von Mediendatenpaketen (im Folgenden ebenso als Medienpakete bezeichnet) übertragen werden. Jedes Audioausgabegerät muss die Töne eines Mediendatenpakets (das Mediendatenpaket an sich) zu exakt derselben Zeit abspielen, d.h. in dem Augenblick, in welchem ein weiteres Medienausgabegerät ein korrespondierendes Mediendatenpaket, z.B. demselben Stereosignal zugeordnet, auf einem weiteren Kanal abspielt. Werden die Mediendatenpakete nicht passend synchronisiert abgespielt, d.h. korrespondierende Mediendatenpakete von verschiedenen Kanälen desselben Stereosignals werden zu verschiedenen Zeiten in verschiedenen Medienausgabegeräten abgespielt, so treten die obigen Probleme auf, d.h. der Stereoton wird möglicherweise als von einer anderen Richtung kommend wahrgenommen oder möglicherweise werden sogar zwei unterschiedliche Töne wahrgenommen (diese Probleme werden im Folgenden als Hörstörungen bezeichnet).
  • Die Internet Engineering Task Force (IETF) hat ein Übertragungsprotokoll für Echtzeitanwendungen (RTP) in ihren Request for Comments RFC 1889 bereitgestellt, im Folgenden als RTP bezeichnet. Das Echtzeitübertragungsprotokoll (RTP) enthält ein Steuerprotokoll RTCP, das Synchronisationsinformation von Datensendern und die Rückmeldeinformation von Datenempfängern bereitstellt. Was die Synchronisation von Datenströmen hinsichtlich einer Medienverteilung betrifft, stellt dieses Protokoll sogenannte Senderberichte (SR, Sender Reports) bereit, die eine Korrelation zwischen einem Abtasttakt und einer globalen Uhrzeit (global clock) angeben.
  • Die Senderberichte (SR) werden von der Medienquelle an die Mediensenke(n) gesendet und enthalten zwei Zeitkennzeichnungen. Eine Zeitkennzeichnung weist auf einen Zeitpunkt in Zeiteinheiten des lokalen Abtasttaktes (lokale Abtasttaktzeit) hin und die andere Kennzeichnung weist auf denselben Zeitpunkt in Zeiteinheiten des globalen Taktes (globale Uhrzeit) hin. Beide Zeitkennzeichnungen der SR werden zum selben Zeitpunkt erzeugt. Es wird angenommen, dass die globale Uhrzeit der Medienquelle und der Mediensenke(n), zwischen denen Medienströme übertragen werden, bereitsteht. Eine Mediensenke hat somit Zugriff auf die globale Uhrzeit und kann deshalb deren Abtasttakt zur globalen Uhrzeit ausrichten.
  • Die wesentliche Absicht von RTP ist es, eine Einrichtung für Videokonferenzen im Internet bereitzustellen und Video und Audio, die in getrennten Datenströmen von derselben einzelnen Mediensenke empfangen werden, zu resynchronisieren. Das Protokoll ist nicht dafür gedacht, das synchrone Abspielen von Mediendatenpaketen in getrennten Mediensenken eines digitalen Übertragungs-Audiosystems sicherstellen. Wird dieses Protokoll deshalb zum Aussenden von Mediendatenpaketen an Mediensenken verwendet, ist es möglich, dass die Mediendatenpakete in verschiedenen Mediensenken nicht geeignet synchronisiert abgespielt werden, d.h. einem selben Stereosignal zugeordnete Mediendatenpakete werden möglicherweise nicht zum selben Zeitpunkt in verschiedenen Mediensenken, z.B. Lautsprechern, abgespielt. Deshalb können die obigen Hörstörungen auftreten, falls für digitale Übertragungsaudiosysteme lediglich RTP verwendet wird.
  • Stand der Technik zur Synchronisierung von Video- und Audiodaten ist beispielsweise aus "RFC 2343: RTP Payload Format for Bundles MPEG", Request for Comments, Mai 1998, XP002229835, von M. Civanlar und aus dem Dokument "RFC 1889: RTP: A Transport Protocol for Real-Time Applicatons", Request for Comments, Januar 1996, XP002229836 von H. Schulzrinne bekannt. In diesen Dokumenten des Standes der Technik weist ein Paket eine Zeitkennzeichnung, die eine Abtastzeit des MPEG-Bildes kennzeichnet, sowie ein Audioversatzfeld auf, das den Versatz zwischen dem Beginn des Audio-Frames und der RTP-Zeitkennzeichnung für dieses Paket als Anzahl von Audio-Abtastungen kennzeichnet. Um eine Synchronisation zwischen in einem entsprechenden Paket enthaltenen Video- und Audiodaten zu erzielen, wird der Audioversatz relativ zur RTP-Zeitkennzeichnung des Pakets, das dieses Audiosegment enthält, angegeben.
  • Das Problem der Hörstörungen kann ebenso von unzuverlässigen und ungenauen Taktinformationen herrühren, die in den meisten Nicht-Echtzeit-Quellengeräten wie Personalcomputern (PCs) oder digitalen Assistenten (PDAs) auftreten. Diese Geräte setzen voraus, dass die globale Taktinformation (globale Uhrzeit) alle seitens der Anwendungsszenarios festgelegten Anforderungen erfüllt. Jedoch kann dies auch nicht zutreffen. Ein Nicht-Echtzeit-Gerät erhält gewöhnlich eine tatsächliche Zeit (globale Uhrzeit) zur Erzeugung von Zeitkennzeichnungen für Mediendatenpakete über eine externe Verbindung, z.B. USB oder RS232. Da die Bussysteme, die gewöhnlich für diese Art von externer Verbindung verwendet werden, nicht für eine Übertragung mit garantiert sehr kurzen Zustellzeiten ausgelegt sind, kann die Taktinformation (globale Uhrzeit) ihre Genauigkeit verlieren, falls diese von dem PC oder PDA verwendet wird, z.B. zur Bestimmung einer Zeitkennzeichnung für ein Mediendatenpaket. Dies bedeutet, dass die über eine Zeitkennzeichnung gekennzeichnete globale Uhrzeit eines Mediendatenpakets im Hinblick auf die tatsächliche globale Uhrzeit, zu der das Mediendatenpaket tatsächlich ausgesendet wird, falsch sein kann. Ebenso kann die Zeitdifferenz zwischen zwei mittels zwei Zeitkennzeichnungen gekennzeichneten Zeitpunkten variieren, obwohl die Zeitdifferenz zwischen den beiden korrespondierenden tatsächlichen globalen Uhrzeiten nicht variiert. Dies liegt möglicherweise daran, dass die von der externen Verbindung zum Übertragen der globalen Uhrzeitinformation an die Anwendung benötigte Zeit schwanken kann. Da die Zeitkennzeichnungen der Mediendatenpakete gewöhnlich von den Mediensenken für jedes Paket zur Bestimmung einer Abspielzeit verwendet werden, kann die ungenaue und statistisch schwankende Zeit, die über die Zeitkennzeichnungen der Mediendatenpakete gekennzeichnet ist, zu den erwähnten Hörstörungen führen, da Mediendatenpakete, die demselben Stereosignal zugeordnet sind, von den verschiedenen Mediensenken zu verschiedenen Zeiten abgespielt werden können.
  • Die Erfindung ist in den unabhängigen Patentansprüchen definiert.
  • Es ist eine Aufgabe der Erfindung, eine Medienquelle, eine Mediensenke und ein Medienverarbeitungssystem zum synchronen Abspielen von Mediendatenpaketen anzugeben als auch entsprechende Verfahren, mit denen diese Geräte arbeiten, so dass Hörstörungen selbst beim Abspielen in verschiedenen Mediensenken vermieden werden.
  • Eine Medienquelle zur Lösung der Aufgabe der Erfindung gemäß einer ersten Ausführungsform der Erfindung ist in Patentanspruch 1 definiert, eine Mediensenke ist in Patentanspruch 5 definiert und ein Medienverarbeitungssystem ist in Patentanspruch 10 definiert. Entsprechende Verfahren gemäß der ersten Ausführungsform sind in den Patentansprüchen 17, 21 und 26 definiert. Bevorzugte Ausführungsformen sind jeweils in den entsprechenden nachfolgenden Unteransprüchen beschrieben. Eine Medienquelle zur Lösung der Aufgabe der Erfindung gemäß einer zweiten Ausführungsform der Erfindung ist in Patentanspruch 11 definiert, eine Mediensenke ist in Patentanspruch 14 definiert und ein Medienverarbeitungssystem ist in Patentanspruch 16 definiert. Entsprechende Verfahren gemäß der zweiten Ausführungsform sind in den Patentansprüchen 27, 30 und 32 definiert. Bevorzug te Ausführungsformen hiervon sind in den zugehörigen Unteransprüchen beschrieben.
  • Somit wird die Aufgabe der Erfindung von zwei verschiedenen Ausführungsformen gelöst, denen eine gemeinsame erfinderische Idee zur Lösung zugrunde liegt. In beiden Ausführungsformen wird eine gemeinsame Abspielzeit bestimmt und jedem Mediendatenpaket zugeordnet und das Mediendatenpaket wird von einer Mediensenke exakt zu dieser gemeinsamen Abspielzeit abgespielt. In der ersten Ausführungsform wird die gemeinsame Abspielzeit von den Mediensenken durch Addieren eines Abspielzeitversatzes zu der Zeit, auf die über eine Zeitkennzeichnung eines Mediendatenpakets hingewiesen wird, bestimmt. Der Abspielzeitversatz wird von der Medienquelle bestimmt und den Mediensenken übermittelt. In der zweiten Ausführungsform wird die gemeinsame Abspielzeit von der Medienquelle für jedes Paket bestimmt und zusammen mit jedem Mediendatenpaket in der Form einer entsprechenden Zeitkennzeichnung ausgesendet.
  • Lösung gemäß der ersten Ausführungsform der Erfindung:
    Eine Medienquelle gemäß der Erfindung eignet sich zum Aussenden von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere an ein oder mehrere empfangende Mediensenken wie unten definiert, wobei die Zeitkennzeichnung jedes Mediendatenpakets auf den Zeitpunkt zum Erzeugen des entsprechenden Mediendatenpakets hinweist, zum Bestimmen eines Abspielzeitversatzes und zum Aussenden des Abspielzeitversatzes geeignet ist, insbesondere an die eine oder mehreren empfangenden Mediensenke(n) wie unten definiert.
  • Vorzugsweise weist die erfindungsgemäße Medienquelle einen Abtasttakt zum Ermitteln einer Abtasttaktzeit auf, diese ist zum Bestimmen einer globalen Uhrzeit geeignet sowie zum Aussenden eines Steuerpakets von Zeit zu Zeit, insbesondere an die eine oder mehreren empfangenden Mediensenke(n), wie unten definiert, wobei das Steuerpaket zwei Steuerpaketzeitkennzeichnungen aufweist, die auf denselben Zeitpunkt hinweisen, wobei dessen erste Steuerpaketzeitkennzeichnung in Zeiteinheiten der globale Uhrzeit gemessen oder definiert wird und dessen zweite Steuerpaketzeitkennzeichnung in Zeiteinheiten der Abtasttaktzeit gemessen oder definiert wird.
  • Des Weiteren weist die Zeitkennzeichnung eines Mediendatenpakets in vorteilhafter Weise auf den Zeitpunkt zum Erzeugen des zeitlich gekennzeichneten Mediendatenpakets in Zeiteinheiten der Abtasttaktzeit hin. Ebenso ist das Mediendatenpaket vorzugsweise zum Aussenden des Mediendatenpakets an zwei oder mehrere empfangende Mediensenken gestaltet.
  • Eine Mediensenke gemäß der Erfindung eignet sich zum Empfangen von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere von einer wie oben definierten Medienquelle, sowie zum Bestimmen eines Abspielzeitversatzes, zum präzisen Bestimmen einer globalen Uhrzeit, zum Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket durch Addieren der Zeit, auf die durch die Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird, und des Abspielzeitversatzes, und zum Abspielen jedes empfangenen zeitlich gekennzeichneten Mediendatenpakets genau dann, wenn die bestimmte gemeinsame Abspielzeit für das empfangene zeitlich gekennzeichnete Mediendatenpaket erreicht ist.
  • Die Mediensenke eignet sich zum einmaligen Empfangen des Abspielzeitversatzes, insbesondere von einer wie oben definierten Medienquelle. Alternativ hierzu eignet sich die Mediensenke zum Empfangen eines Steuerpakets, insbesondere von einer wie oben definierten Medienquelle, mit einer ersten Steuerpaketzeitkennzeichnung als Hinweis auf einen bestimmten Zeitpunkt, der in Zeiteinheiten einer Abtastzeit gemessen oder definiert wird, sowie einer zweiten Steuerpaketzeitkennzeichnung als Hinweis auf denselben bestimmten Zeitpunkt, der in Zeiteinheiten einer globalen Uhrzeit gemessen oder definiert wird, und zum Umwandeln einer Zeit, auf die mittels einer Zeitkennzeichnung eines zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird und die in Einheiten einer Abtasttaktzeit gemessen oder definiert wird, in eine Zeit, die in Einheiten einer globalen Uhrzeit gemessen oder definiert wird basierend auf der Information der ersten und zweiten Steuerpaketzeitkennzeichnung.
  • In einer bevorzugten Ausführungsform weist die Mediensenke einen Puffer auf zum Speichern von Mediendatenpaketen, bis die gemeinsame Abspielzeit erreicht ist.
  • Ein Medienverarbeitungssystem gemäß der Erfindung weist eine wie oben definierte Medienquelle als auch eine wie oben definierte Mediensenke auf.
  • Ein Verfahren gemäß der ersten Ausführungsform der Erfindung, welches sich für eine Medienquelle eignet, weist die Schritte auf: Aussenden von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere an eine oder mehrere empfangende Mediensenke(n), wobei die Zeitkennzeichnung jedes Mediendatenpakets auf den Zeitpunkt zum Erzeugen des entsprechenden Mediendatenpakets hinweist, Bestimmen eines Abspielzeitversatzes, und Aussenden des Abspielzeitversatzes, insbesondere an die eine oder mehrere Mediensenke(n).
  • In vorteilhafter Weise werden die folgenden Schritte ausgeführt: Bestimmen einer Abtasttaktzeit, Bestimmen einer globalen Uhrzeit, und Aussenden eines Steuerpakets von Zeit zu Zeit an die eine oder mehreren empfangenden Mediensenke(n), wobei das Steuerpaket zwei Steuerpaketzeitkennzeichnungen aufweist, die auf denselben Zeitpunkt hinweisen, und wobei dessen erste Steuerpaketzeitkennzeichnung in Zeiteinheiten der globalen Uhrzeit gemessen oder definiert wird und dessen Steuerpaketzeitkennzeichnung in Zeiteinheiten der Abtasttaktzeit gemessen oder definiert wird.
  • Es ist des Weiteren von Vorteil, dass die Zeitkennzeichnung eines Mediendatenpakets auf den Zeitpunkt zum Erzeugen des zeitlich gekennzeichneten Mediendatenpakets in Zeiteinheiten der Abtasttaktzeit hinweist. Ebenso ist es von Vorteil, dass dieselben Mediendatenpakete an zwei oder mehrere verschiedene empfangende Mediensenken ausgesendet werden.
  • Ein Verfahren gemäß der ersten Ausführungsform der Erfindung zum synchronen Abspielen von Mediendatenpaketen, insbesondere für eine Mediensenke, weist die folgenden Schritte auf: Empfangen von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere von einer Medienquelle, Bestimmen eines Abspielzeitversatzes, präzises Bestimmen einer globalen Uhrzeit, Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket durch Addieren der Zeit, auf die durch die Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird, sowie des Abspielzeitversatzes, und Abspielen jedes empfangenen zeitlich gekennzeichneten Mediendatenpakets genau dann, wenn die bestimmte gemeinsame Abspielzeit für das empfangene zeitlich gekennzeichnete Mediendatenpaket erreicht ist.
  • In vorteilhafter Weise wird der Abspielzeitversatz einmalig empfangen, insbesondere von einer Medienquelle oder dieser wird mit wenigstens einer weiteren Mediensenke ausgetauscht.
  • Zudem werden in vorteilhafter Weise die folgenden Schritte ausgeführt: Empfangen eines Steuerpakets, insbesondere von einer Medienquelle gemäß einem der Ansprüche 1 bis 4, umfassend eine erste Steuerpaketzeitkennzeichnung zum Hinweisen auf einen bestimmten Zeitpunkt, der in Zeiteinheiten einer Abtastzeit gemessen oder definiert wird, sowie einer zweiten Steuerpaketzeitkennzeichnung zum Hinweisen auf denselben bestimmten Zeitpunkt, der in Zeiteinheiten einer globalen Uhrzeit gemessen oder definiert wird, und zum Umwandeln einer Zeit, auf die mittels einer Zeitkennzeichnung eines zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird und die in Einheiten einer Abtasttaktzeit gemessen oder definiert wird, in eine Zeit, die in Einheiten einer globalen Uhrzeit gemessen oder definiert wird basierend auf der Information der ersten und zweiten Steuerpaketzeitkennzeichnung.
  • In vorteilhafter Weise werden die Mediendatenpakete in einem Puffer gespeichert, bis die gemeinsame Abspielzeit erreicht ist.
  • Bei einem Verfahren gemäß der ersten Ausführungsform der Erfindung zum synchronen Abspielen von Mediendatenpaketen, das für ein Medienverarbeitungssystem geeignet ist, werden die für eine wie oben definierte Medienquelle vorgesehenen Verfahrensschritte und die für eine wie oben definierte Mediensenke vorgesehenen Verfahrensschritte ausgeführt.
  • Lösung gemäß der zweiten Ausführungsform der Erfindung:
    Eine Medienquelle zur Lösung der Aufgabe der Erfindung gemäß der zweiten Ausführungsform der Erfindung eignet sich zum Bestimmen eines Abspielzeitversatzes und zum Bestimmen einer gemeinsamen Abspielzeit durch Addieren des Abspielzeitversatzes zu einer gegenwärtigen Zeit und diese eignet sich zum Aussenden von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere an eine oder mehrere empfangenden Mediensenke(n) wie unten definiert, wobei die Zeitkennzeichnung eines zeitlich gekennzeichneten Mediendatenpakets auf die gemeinsame Abspielzeit des Mediendatenpakets hinweist.
  • In vorteilhafter Weise weist die Medienquelle einen Abtasttakt zum Bestimmen einer Abtasttaktzeit auf, und diese eignet sich zum Berechnen der gegenwärtigen Zeit durch einmaliges Lesen einer globalen Uhrzeit und Addieren der Zeitperioden des Abtasttaktes zu der einmalig gelesenen globalen Uhrzeit. Zusätzlich eignet sich die Medienquelle vorzugsweise zum Aussenden desselben Mediendatenpakets an zwei oder mehrere verschiedene empfangende Mediensenken.
  • Eine Mediensenke gemäß der zweiten Ausführungsform der Erfindung eignet sich zum Empfangen zeitlich gekennzeichneter Mediendatenpakete, insbesondere von einer Medienquelle wie oben definiert, diese eignet sich ebenso zum präzisen Bestimmen einer globalen Uhrzeit und zum Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket, wobei die Abspielzeit die Zeit kennzeichnet, auf die mittels der Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird. Vorzugsweise weist die Mediensenke einen Puffer auf zum Speichern von Mediendatenpaketen, bis die gemeinsame Abspielzeit erreicht ist.
  • Ein Medienverarbeitungssystem gemäß der zweiten Ausführungsform der Erfindung weist eine wie oben für die zweite Ausführungsform der Erfindung definierte Medienquelle als auch eine wie oben für die zweite Ausführungsform der Erfindung definierte Mediensenke auf.
  • Ein für eine Medienquelle vorgesehenes Verfahren gemäß der zweiten Ausführungsform der Erfindung zum synchronen Abspielen von Mediendatenpaketen weist die folgenden Schritte auf: Bestimmen eines Abspielzeitversatzes und einer gemeinsamen Abspielzeit durch Addieren des bestimmten Abspielzeitversatzes zu einer gegenwärtigen Zeit, und Aussenden der zeitlich gekennzeichneten Mediendatenpakete, insbesondere an eine oder mehrere empfangende Mediensenke(n), wobei die Zeitkennzeichnung eines zeitlich gekennzeichneten Mediendatenpakets auf die gemeinsame Abspielzeit des Mediendatenpakets hinweist.
  • In vorteilhafter Weise werden die folgenden Schritte ausgeführt: Bestimmen einer Abtasttaktzeit und Berechnen der gegenwärtigen Zeit durch einmaliges Lesen einer globalen Uhrzeit und Addieren von mittels der Abtasttaktzeit gegebenen Zeitperioden zu der einmalig gelesenen globalen Uhrzeit. Des Wei teren werden in vorteilhafter Weise dieselben Mediendatenpakete an zwei oder mehrere verschiedene empfangende Mediensenken gesendet.
  • Ein für eine Mediensenke vorgesehenes Verfahren zum synchronen Abspielen von Mediendatenpaketen gemäß der zweiten Ausführungsform der Erfindung weist die folgenden Schritte auf: Empfangen von zeitlich gekennzeichneten Mediendatenpaketen, insbesondere von einer Medienquelle, präzises Bestimmen einer globalen Uhrzeit und Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket, wobei die gemeinsame Abspielzeit die Zeit ist, auf die durch die Zeitkennzeichnung des zeitlich gekennzeichneten Mediendatenpakets hingewiesen wird.
  • Vorzugsweise werden Mediendatenpakete in einem Puffer gespeichert, bis die gemeinsame Abspielzeit erreicht ist.
  • Ein für ein Medienverarbeitungssystem vorgesehenes Verfahren zum synchronen Abspielen von Mediendatenpaketen gemäß der zweiten Ausführungsform der Erfindung weist die für eine Medienquelle vorgesehenen Verfahrensschritte und die für eine Mediensenke vorgesehenen Verfahrensschritte auf.
  • Somit können Mediensenken erfindungsgemäß Mediendatenpakete exakt synchronisiert abspielen, da eine gemeinsame Abspielzeit bestimmt wird und einem entsprechenden Mediendatenpaket zugeordnet wird und die Mediendatenpakete werden exakt zu dieser Abspielzeit in jeder Mediensenke abgespielt. Das exakte zeitliche Abspielen über die Mediensenken ist möglich, da die Mediensenken die globale Uhrzeit präzise bestimmen und gewöhnlich spezifische Hardware verwenden, die keine langen Verarbeitungszeiten mit sich bringt, d.h. die Mediensenken sind eng an die globale Uhrzeit gekoppelt. Die gemeinsame Abspielzeit ist an eine einmal gelesene globale Uhrzeit gekoppelt, so dass keine Zeitdifferenzen zwischen zwei Zeiten bestehen, auf die mittels zweier Zeitkennzeichnungen von verschiedenen Mediendatenpaketen hingewiesen wird. Dies ist jedoch bei bekannten Systemen wie oben erwähnt der Fall. Die erfindungsgemäße Medienquelle kann andererseits hinsichtlich der Genauigkeit lediglich begrenzten Zugang zur globalen Uhrzeit aufweisen, da der addierte Abspielzeitversatz derart gewählt werden kann, dass diese Ungenauigkeit im jeweiligen Falle kompensiert wird.
  • Die Erfindung und vorteilhafte Details derselbigen werden im Folgenden anhand beispielhafter Ausführungsformen mit Bezug zu den begleitenden Abbildungen erläutert.
  • 1 zeigt ein Beispiel eines Szenarios, bei dem eine Medienquelle zeitlich gekennzeichnete Mediendatenpakete an zwei Mediensenken sendet;
  • 2 zeigt den Zugriff der Medienquelle und n Mediensenken auf dieselbe globale Uhrzeit;
  • 3 zeigt ein Flussdiagramm zur Erläuterung des Prozesses des Aussendens von Mediendatenpaketen von einer Medienquelle an zwei Mediensenken, die die Mediendatenpakete empfangen und verarbeiten;
  • 4 zeigt ein Beispiel, bei dem ein PC als Medienquelle und zwei Lautsprecher als Mediensenken verwendet werden;
  • 5 zeigt ein Flussdiagramm zur Erläuterung der Wechselwirkung zwischen der Medienquelle und der Mediensenke, wobei Steuerpakete gemäß dem RTP-Standard verwendet werden;
  • 6 zeigt ein Flussdiagramm zur Erläuterung der Wechselwirkung zwischen der Medienquelle und der Mediensenke gemäß einer ersten alternativen Ausführungsform der Erfindung; und
  • 7 zeigt eine zweite alternative Ausführungsform der Erfindung, wobei die Mediensenken untereinander einen Abspielzeitversatz austauschen.
  • 1 zeigt das grundlegende Szenario einer Medienverteilperiode mit zwei synchronisierten Mediensenken, d.h. einer ersten Mediensenke 1 und einer zweiten Mediensenke 2. Die Medienquelle 101 überträgt ein erstes zeitlich gekennzeichnetes Mediendatenpaket 1021 an die erste Mediensenke 1 und ein zweites zeitlich gekennzeichnetes Mediendatenpaket 1022 an die zweite Mediensenke 2. Die Zeitkennzeichnung eines Mediendatenpakets weist auf die Zeit hin, zu der das Mediendatenpaket von der Quelle erzeugt wurde. Die erste Mediensenke 1 und die zweite Mediensenke 2 decodieren die Medienda tenpakete im Fall von codierten Daten. Die Daten werden dann in entsprechende Puffer gespeichert, d.h. einem ersten Puffer 1041 der ersten Mediensenke 1 und einem zweiten Puffer 1042 der zweiten Mediensenke 2, bis die gemeinsame Abspielzeit 105 für das entsprechende Paket erreicht ist. Diese gemeinsame Abspielzeit 105 wird von den Mediensenken für jedes Paket bestimmt, indem ein einmalig ermittelter Abspielzeitversatz der Zeit hinzugefügt wird, auf die mittels der Zeitkennzeichnung eines Mediendatenpakets hingewiesen wird. Wird die gemeinsame Abspielzeit 105 für ein Paket erreicht, so wird das Mediendatenpaket von der Mediensenke abgespielt. In dem Beispiel von 1 kennzeichnen die Zeitkennzeichnungen des ersten Mediendatenpakets 1021 und des zweiten Mediendatenpakets 1022 denselben Zeitpunkt. Deshalb werden diese Mediendatenpakets von der ersten Mediensenke 1 und der zweiten Mediensenke 2 zu exakt demselben Zeitpunkt abgespielt.
  • Der Abspielzeitversatz muss zwischen der Medienquelle 101 und allen Senken einer Medienperiode (hier: Der ersten Mediensenke 1 und der zweiten Mediensenke 2) ausgetauscht werden, wobei die Übertragungszeitperioden, die Decodierungszeitperioden, die verfügbaren Puffergrößen und eine möglicherweise lockere Synchronisation der Medienquelle 101 an eine globale Uhrzeit berücksichtigt werden.
  • Hinsichtlich der Takte wird angenommen, dass in einem Medien-Streaming-Gerät zwei Takte verfügbar (zugänglich) sind: Der Abtasttakt und die globale Uhrzeit (globaler Takt). Der Abtasttakt stellt denjenigen Takt dar, der inhärent im Mediendatenstrom vorliegt. Im Falle einer CD als Beispiel einer Quelle eines Audiodatenstroms läuft dieser Abtasttakt mit 44,1 kHz. Die globale Uhrzeit lässt sich von allen Quellen- und Senken-Geräten, welche in die Medienperiode eingebunden sind, lesen. Für IP-Netzwerke beschreibt das Network Time Protocol (NTP) wie ein NTP-Takt durch ein Netzwerk hindurch aufrecht erhalten werden kann. Für Anwendungen mit strengen Anforderungen, wie beim Synchronisieren von zwei Stereokanälen, kann die Genauigkeit und Taktauflösung eines solchen NTP-Taktes möglicherweise nicht ausreichend sein. Deshalb wird angenommen, dass ein Takt mit einer weitaus höheren Genauigkeit und Auflösung verfügbar ist. Dies ist in einigen drahtlosen Systemen der Fall, die einen gemeinsamen Takt für alle gleichgestellten Partner im Kommunikationssystem zur Ausführung eines synchronisierten Frequenzspringens erfordern. Ein Beispiel für ein solches drahtloses System ergibt sich aus der Bluetooth-Spezifikation, bei der alle Teilnehmer eines Piconet einen gemeinsamen Takt aufrecht erhalten. Die Zeit des gemeinsamen Taktes lässt sich von den Medienanwendungen als globale Uhrzeit verwenden. Gewöhnlich werden die Abtasttaktzeit und die globale Uhrzeit in verschiedenen Einheiten gemessen. Beispielsweise kann die globale Uhrzeit in Einheiten von Mikrosekunden ticken, wobei der Abtasttakt in Einheiten einzelner Samples als kleinste Einheit ticken kann.
  • Hinsichtlich der Zeitkennzeichnungen wird angenommen, dass diese auf die in RTP beschriebene Weise verwendet werden. Dies bedeutet, dass eine Zeitkennzeichnung eines Mediendatenpakets den Zeitpunkt spezifiziert, zu dem das erste Sample des Pakets in Zeiteinheiten des Abtasttaktes erzeugt wurde. Zusätzlich zum Mediendatenstrom, welcher die Mediendatenpakete gemäß RTP überträgt, werden Steuerpakete zwischen den Teilnehmern, d.h. zwischen den Medienquellen und den Mediensenken eines Datenstroms, ausgetauscht. Diese Steuerpakete enthalten keine Mediendaten, jedoch abgesehen von weiterer Information zwei Zeitkennzeichnungen, die denselben Zeitpunkt kennzeichnen, wobei eine Zeitkennzeichnung auf die Zeit in Zeiteinheiten des Abtasttaktes hinweist und die andere Zeitkennzeichnung auf denselben Zeitpunkt in Zeiteinheiten der globalen Uhrzeit hinweist. Mit dieser Information kann eine Mediensenke eine Abtasttaktzeit bestimmen, falls eine globale Uhrzeit gegeben ist, und umgekehrt kann diese eine globale Uhrzeit bestimmen, falls eine Abtasttaktzeit gegeben ist. Deshalb erfüllen die Steuerpakete die Funktion der Verknüpfung zwischen der Abtasttaktzeit der Quellen und der globalen Uhrzeit. Es ist somit für eine Mediensenke möglich, den Zeitpunkt zu bestimmen, in dem ein Mediendatenpaket in Zeiteinheiten der globalen Uhrzeit erzeugt wurde, indem die Zeit, auf die über die in Zeiteinheiten des Abtasttaktes gegebene Zeitkennzeichnung des Mediendatenpakets hingewiesen wird, umgewandelt wird.
  • In 2 wird die Annahme getroffen, dass eine globale Uhrzeit 201 der Medienquelle 202 und allen n Mediensenken, d.h. den Mediensenken 203-1, 203-2, ..., 203-n zugängig ist. Diese globale Uhrzeit kann beispielsweise der Zeit des Taktes entsprechen, der von digitalen Bussystemen oder drahtlosen digitalen Übertragungssystemen verwendet wird. Zudem wird angenommen, dass dieser Takt die Anforderungen hinsichtlich der Genauigkeit und Auflösung im Hinblick auf die gewünschte Synchronisation erfüllt. Typischer Weise ist dieser Takt sehr nahe an der Bitübertragungsschicht, z.B. im Basisband eines derartigen Übertragungssystems, positioniert. Für Geräte allgemeiner Verwendung wie einem PC oder einem PDA 202 bedeutet dies, dass ein derartiger Takt extern liegt und lediglich über eine externe Verbindung 204, z.B. USB oder RS232, zugängig ist. Ein Beispiel hierfür ist ein Bluetooth-Modul, das an einem PC über USB angeschlossen ist. Der Bluetooth-Basisbandtakt wird automatisch mit allen Geräten innerhalb eines Piconet synchronisiert, da diese Taktinformation zur Synchronisation des Frequenzspringens aller Piconet-Teilnehmer verwendet wird. Die systemeigene Bluetooth-Taktinformation muss dann von dem Bluetooth-Modul zum PC über das USB-Bussystem zugeführt werden.
  • Da die gewöhnlich für diese Art externer Verbindung genutzten Bussysteme nicht immer derart gestaltet sind, dass diese einen Transport mit sehr geringen garantierten Bereitstellungszeiten ermöglichen, kann die Taktinformation ihre Genauigkeit (Gültigkeit) verlieren, wenn diese durch ein solches Bussystem transportiert wird. Beispielsweise verliert eine Taktinformation einer Genauigkeit von einigen Mikrosekunden viel von ihrem Wert, falls diese durch ein Bussystem transportiert wird, das eine Verzögerung von einigen Millisekunden einbringt, insbesondere wenn diese Verzögerung Gegenstand einer zufälligen Schwankung von einigen Millisekunden ist, d.h. die Zeit, die z.B. zur Erzeugung einer Zeitkennzeichnung verwendet wird, kann möglicherweise ihre Gültigkeit verlieren. Zusätzlich führt ein Nicht-Echtzeitbetriebssystem 205, welches typischer Weise auf Mehrzweckgeräten wie PCs und PDAs läuft, zu noch mehr Ungenauigkeit der Taktinformation. In 2 kennzeichnet der Zickzack-Pfeil 206 durch die Ebenen der Medienquelle 202 diese Unsicherheit und Ungenauigkeit der Taktinformation, die von der Medienanwendung empfangen wird.
  • Andererseits werden als Mediensenken, d.h. den n Mediensenken 203-1, 203-2, ..., 203-n typischer Weise Einzweckgeräte (eingebettete Geräte) verwendet, z.B. Lautsprecher. Derartige Einzweckgeräte können als eingebettetes System implementiert werden. Dies ermöglicht einen direkteren Pfad zur globalen Uhrzeit, d.h. die globale Uhrzeit lässt sich präzise bestimmen. Beispielsweise kann die Medienanwendung 207 auf dem Basisbandprozessor des Übertragungssystems ablaufen. Dies bedeutet, dass die Medienanwendung einen sehr direkten Zugang zum Takt ohne signifikante Verzögerung und ohne signifikante Unsicherheit hat. Deshalb ist eine präzise Taktinformation mit einer Genauigkeit von einigen Mikrosekunden für die Medienanwendung 207 der Mediensenke verfügbar, da diese nicht durch langsame Bussysteme transportiert werden muss. Der geradlinige Pfeil 208 mit den n Mediensenken 203-1, 203-2, ..., 203-n in 2 kennzeichnet diesen direkten Zugang.
  • Wie in 2 gezeigt ist, nutzt diese Erfindung den Umstand, dass mehrere Mediensenken, d.h. die n Mediensenken, untereinander aufgrund deren direkten Zugriff auf den globalen Takt (globale Uhrzeit) sehr fest synchronisiert werden können, wobei für das Quellengerät eine lockere Synchronisation zu den Senkengeräte akzeptabel ist. Beim kontinuierlichen Übertragen (Streaming) von Stereo-Audiodaten von einem CD-Spieler an zwei Lautsprecher kann die Verzögerung vom Senden eines Pakets vom CD-Spieler bis zum Abspielen in den Lautsprechern beispielsweise einige Millisekunden betragen, wobei jedoch die Verzögerung zwischen dem linken und rechten Lautsprecher lediglich einige Mikrosekunden betragen kann. Ein geeignetes Puffern in den Mediensenken kann deshalb diese Ungenauigkeit der Taktinformation auf der Quellenseite kompensieren. Da die verfügbare Taktinformation in der Medienquelle weniger genau und weniger zuverlässig ist als diejenige in der Mediensenke, kann die auf dieser Basis erzielte Synchronisation als "asymmetrische Synchronisation" bezeichnet werden.
  • Die globale Uhrzeit wird vorzugsweise einmalig auf der Quellenseite direkt am Anfang der kontinuierlichen Übertragungsperiode gelesen, um den Abtasttakt an die globale Uhrzeit zu koppeln. Diese Taktinformation lässt sich zum Erstellen der Zeitkennzeichnungen des ersten Steuerpakets verwenden, das an die Mediensenken übermittelt wird. Hinsichtlich der Zeitkennzeichnungen mit globaler Uhrzeit in nachfolgenden Steuerpaketen, lässt sich die Zeitdifferenz durch Zählen der Anzahl von Samples berechnen, anstatt die globale Uhrzeit erneut zu lesen. Dies ist darauf zurückzuführen, dass die Variation der Bereitstellungszeit der globalen Uhrzeitinformation gewöhnlich zu groß ist und zu Lücken oder Sprüngen beim Abspielen auf der Senkenseite führen würde.
  • In 3 sendet die Medienquelle 101 Mediendatenpakete an die erste Mediensenke 1 und an die zweite Mediensenke 2. Zu Beginn des Ablaufs muss ein Abspielzeitversatz in einem Schritt 304 ausgehandelt (bestimmt) werden. Dieser ausgehandelte Abspielzeitversatz wird beiden Mediensenken übermittelt, d.h. der ersten Mediensenke 1 und der zweiten Mediensenke 2, und wird von den Mediensenken weiter zur Bestimmung einer gemeinsamen Abspielzeit für jedes Paket verwendet. Eine Zeitkennzeichnung eines Mediendatenpakets kennzeichnet den Zeitpunkt, zu dem ein Paket in Zeiteinheiten des Abtasttaktes erzeugt wurde. Zum Bestimmen einer gemeinsamen Abspielzeit, d. h. dem Zeitpunkt, zu dem eine Senke ein Mediendatenpaket physikalisch abzuspielen hat, wird die Zeit, auf die die Zeitkennzeichnung des Mediendatenpakets hinweist, in eine globale Uhrzeit in Zeiteinheiten der globalen Uhrzeit umgewandelt und der ausgehandelte Abspielzeitversatz wird dieser globalen Uhrzeit hinzuaddiert. Für die Aushandlung des Abspielzeitversatzes wird die erwartete Übermittlungsdauer, eine potentielle Decodierzeit und die verfügbaren Mediensenkenpuffergrößen mit berücksichtigt. Da die globale Uhrzeitinformation auf der Quellenseite ungenau und statistischen Schwankungen, d.h. Variationen, unterliegen kann, muss die Quelle dem Abspielzeitversatz eine Variationszeit für den ungünstigsten Fall hinzuaddieren. Dadurch wird die Situation vermieden, dass die gemeinsame Abspielzeit bereits abgelaufen ist, wenn ein Mediendatenpaket die Senke erreicht.
  • Obwohl die globale Uhrzeit der Medienquelle unter obiger Schwankung leidet, wird diese einmalig in einem Schritt 305 zu Beginn einer Medienübertragungsperiode gelesen, um den Quellenabtasttakt an die globale Uhrzeit zu koppeln. In einem nachfolgenden Schritt 306 wird ein Steuerpaket mit zwei Zeitkennzeichnungen an die erste Mediensenke 1 und die zweite Mediensenke 2 übertragen. Beide Zeitkennzeichnungen der Steuerpakete beschreiben denselben Zeitpunkt, wobei eine Zeitkennzeichnung den Zeitpunkt in Zeiteinheiten des Quellenabtasttaktes kennzeichnet und die andere Zeitkennzeichnung den Zeitpunkt in Zeiteinheiten der globalen Uhrzeit kennzeichnet. Somit kann eine dieses Steuerpaket empfangende Mediensenke den Zeitpunkt bestimmen, in welchem ein Mediendatenpaket in Zeiteinheiten der globalen Uhrzeit erzeugt wurde, indem die Zeit verwendet wird, auf die die Zeitkennzeichnung des Mediendatenpakets in Zeiteinheiten des Abtasttaktes hinweist.
  • In dem nächsten Schritt 307 werden die Mediendatenpakete für jede Senke erstellt und zeitlich mit dem Zeitpunkt ihrer Erzeugung in Zeiteinheiten des Quellenabtasttaktes gekennzeichnet. Falls an jede Senke ein getrennter Datenstrom übertragen wird, ist dies für jeden Datenstrom durchzuführen. Falls ein Datenstrom an mehrere Senken ausgegeben wird, ist dies lediglich für diesen einen Datenstrom durchzuführen. Im Beispiel von 3 wird lediglich ein Datenstrom an die beiden Mediensenken gesendet. Deshalb wird in Schritt 308 ein Mediendatenpaket des Datenstroms an die erste Mediensenke 1 und an die zweite Mediensenke 2 gesendet.
  • Im nächsten Schritt 309 decodiert jede Senke die Daten, falls diese codiert sind. Ebenso wandelt eine Senke in diesem Schritt 309 die Zeit, auf die die Zeitkennzeichnung des empfangenen Mediendatenpakets hinweist, in eine Zeit in Einheiten der globalen Uhrzeit um. Dann bestimmt jede Senke die gemeinsame Abspielzeit durch Addieren des ausgehandelten Abspielzeitversatzes, der in Zeiteinheiten der globalen Uhrzeit gegeben ist, zur umgewandelten Zeit, auf die die Zeitkennzeichnung des empfangenen Mediendatenpakets hinweist. Im nächsten Schritt 310 puffert jede Senke die Mediendaten, bis die bestimmte gemeinsame Abspieldauer erreicht ist. Diese Puffer in den Mediensenken müssen groß genug sein, um die zufällige Schwankung der Taktinformation in der Medienquelle, die zufällige Schwankung der Übertragungsverzögerung und eine mögliche Schwankung der Decodierverzögerung kompensieren zu können. Mit dem Erreichen der gemeinsamen Abspielzeit 105 spielt jede Senke die Medien im nächsten Schritt 311 physikalisch ab.
  • Für eine beliebige Zeitkennzeichnung nachfolgend übermittelter Mediendatenpakete von der Medienquelle 301 an die erste Mediensenke 1 und die zweite Mediensenke 2 verwendet die Medienquelle 301 die Abtasttaktzeit in Schritt 312 zur Bestimmung der Zeit für die Zeitkennzeichnung, anstelle die globale Uhrzeit erneut zu lesen. Dies stellt sicher, dass keine Lücken oder Sprünge in der Senkenseite aufgrund der Ungenauigkeit der globalen Uhrzeit in der Quellenmedienanwendung auftreten. In Schritt 313 wird die Abtasttaktzeit anstatt einem erneuten Lesen der globalen Uhrzeit für die Zeitkennzeichnung des von der Quelle zur Senke gesendeten nächsten Mediendatenpakets verwendet. In Schritt 314 werden Mediendatenpakete an jede Mediensenke, d.h. die erste Mediensenke 1 und die zweite Mediensenke 2, mit der Zeitkennzeichnung gesendet, die den Zeitpunkt ihrer Erzeugung auf Basis des Quellenabtasttaktes kennzeichnet. Die Zeitkennzeichnung eines Mediendatenpakets ist gewöhnlich in dem Mediendatenpaket als Kopfinformation enthalten. Jedoch kann diese ebenso in getrennten Zeitkennzeichnungspaketen gesendet werden.
  • Wie der 3 entnommen werden kann, werden die Schritte 312, 313 und 314 wiederholt, bis alle Mediendatenpakete einer Periode ausgesendet wurden, d.h. neue Zeitkennzeichnungen werden berechnet, Mediendatenpakete werden mit diesen Zeitkennzeichnungen erstellt und diese Mediendatenpakete werden an die Mediensenken gesendet.
  • Als Ergebnis eines solchen Ablaufs genügt es, dass die Quellenmedienanwendung lediglich leicht an die globale Uhrzeit gekoppelt ist, wobei jede Mediensenke fest an die globale Uhrzeit gekoppelt ist. Wird deshalb ein Nicht-Echtzeit-Gerät wie ein PC oder PDA als Medienquelle und Lautsprecher als Mediensenken verwendet, können die Lautsprecher untereinander sehr fest synchronisiert werden, wodurch die strengen Anforderungen seitens der menschlichen Wahrnehmung von räumlichem Schall erfüllt werden.
  • 4 zeigt ein mögliches Szenario, bei dem der erfindungsgemäße Ablauf angewandt werden kann. Ein mit Bluetooth ausgestatteter PC 400 führt eine Multi-Übertragung eines Stereo-Audio-Datenstroms in Form von Mediendatenpaketen an zwei Bluetooth-Lautsprecher, d. h. einen ersten Bluetooth-Lautsprecher 4021 und einen zweiten Bluetooth-Lautsprecher 4022, über zwei Bluetooth-Verbindungen, d.h. eine erste Bluetooth-Verbindung 4011 und eine zweite Bluetooth-Verbindung 4012, durch. Über jede Verbindung werden Mediendatenpakete des Audiosignals eines Stereosignals an den entsprechenden Lautsprecher übermittelt.
  • Das Bluetooth-Modul auf dem PC 400 ist über USB angeschlossen, wobei Bluetooth in dem ersten Bluetooth-Lautsprecher 4021 und in dem zweiten Bluetooth-Lautsprecher 4022 direkt in das Systemdesign eingebunden ist. Die von dem PC und den Bluetooth-Lautsprechern zu verwendende globale Uhrzeit entspricht dem Bluetooth-Basisbandtakt, der in jeder Bluetooth-Basisbandimplementierung inhärent vorhanden ist. Dieser Bluetooth-Basisbandtakt ist zwischen allen Teilnehmern eines Bluetooth-Piconet sehr gut synchronisiert.
  • Der PC 400 als Medienquelle der Audioübertragung beginnt mit der Auswertung der Qualität und Verzögerung der Bluetooth-Übertragung an den ersten Bluetooth-Lautsprecher 4021 und den zweiten Bluetooth-Lautsprecher 4022 unter Verwendung der Information, die seitens der wie in RTP definierten Steuerpakete bereitgestellt wird. Zudem fragt der PC die zum Decodieren erforderliche Zeit und die Pufferfähigkeiten von jedem Lautsprecher unter Verwendung geeigneter Signalkommandos ab. Mit dieser Information und der zufälligen Schwankung der Taktinformation des PC, d.h. einer maximal möglichen Schwankung, kann der PC einen Abspielzeitversatz bestimmen. Dieser Abspielzeitversatz wird einmalig an den ersten Bluetooth-Lautsprecher 4021 und an den zweiten Bluetooth-Lautsprecher 4022 übermittelt und der Zeit hinzugefügt, auf die die Zeitkennzeichnung jedes Me diendatenpakets eines Mediendatenstroms hinweist, um die gemeinsame Abspielzeit für jedes Mediendatenpaket zu erhalten. In einer alternativen Ausführungsform der Erfindung kann eine gemeinsame Abspielzeit von der Medienquelle, hier: dem PC 400, für jedes Mediendatenpaket bestimmt werden und dann zusammen mit jedem Mediendatenpaket, wie in Verbindung mit 6 unten stehend beschrieben, übertragen werden.
  • Der PC 400 als Medienquelle der Datenübertragung erzeugt die Zeitkennzeichnungen. Falls RTP Mediendatenpakete gesendet werden, beschreiben die Zeitkennzeichnungen in jedem Mediendatenpaket den Zeitpunkt, zu dem das Paket in Zeiteinheiten des Abtasttaktes erzeugt wurde. Die Verbindung zur globalen Uhrzeit, hier: dem Bluetooth-Basisbandtakt, wird durch Bereitstellung zweier Zeitkennzeichnungen für denselben Zeitpunkt in den RTCP-Steuerpaketen erzielt, wobei eine Zeitkennzeichnung den Zeitpunkt in Zeiteinheiten des Abtasttaktes und die andere den Zeitpunkt in Zeiteinheiten der globalen Uhrzeit kennzeichnet, siehe obige Beschreibung. Aufgrund der Ungenauigkeit der auf der PC-Seite verfügbaren Taktinformation, wird der Basisbandtakt vorzugsweise lediglich für das erste Steuerpaket gelesen. Für nachfolgende Steuerpakete wird die Zeitinformation für die Zeitkennzeichnung mit globaler Uhrzeit durch Zählen der Anzahl von Samples erzeugt, die seit dem letzten Steuerpaket abgelaufen sind und dann wird diese Anzahl von Samples in Zeiteinheiten der globalen Uhrzeit übersetzt. Wie oben erwähnt, weist ein Steuerpaket eine Zeitkennzeichnung mit globaler Uhrzeit, die auf einen Zeitpunkt in Zeiteinheiten der globalen Uhrzeit hinweist, als auch eine Zeitkennzeichnung mit Abtasttakt auf, die auf denselben Zeitpunkt in Zeiteinheiten der Abtasttaktzeit hinweist. Durch Kombinieren der Information, welche durch die in den Mediendatenpaketen und den Steuerpaketen vorhandenen verschiedenen Zeitkennzeichnungen bereitgestellt wird, kann jeder Bluetooth-Lautsprecher den Zeitpunkt in Zeiteinheiten der globalen Taktzeit aus der Zeitkennzeichnung eines Mediendatenpakets bestimmen, in dem ein Paket von der Quelle erzeugt wurde, wobei die Zeitkennzeichnung die Erzeugungszeit in Zeiteinheiten des Abtasttaktes kennzeichnet. Durch Addieren des ausgehandelten Abspielzeitversatzes wird dann bestimmt, wann die Samples von jedem Mediendatenpaket abzuspielen sind. Da jede Senke direkt auf den Bluetooth-Basisbandtakt zugreifen kann, sind alle Senken in der Lage, deren Sample-Abspieltakte fest mit dem Bluetooth-Basisbandtakt zu synchronisieren.
  • Da die Taktinformation auf der Quellenseite bis zu einem bestimmten Grad unpräzise ist, müssen der erste Bluetooth-Lautsprecher 4021 und der zweite Bluetooth-Lautsprecher 4022 als Audio-Mediensenken diese Ungenauigkeit über eine geeignete Puffergröße kompensieren. Beispielsweise weiß der PC 400, dass die Taktinformation eine maximale Schwankung von 2 ms aufweist. Um deshalb die Situation zu vermeiden, dass die Abspielzeit eines Mediendatenpakets bereits abgelaufen ist, wenn das Mediendatenpaket die Senke erreicht, enthält dieses diese 2 ms im ausgehandelten Abspielzeitversatz. Mit einer Schwankung von 2 ms liegen die seitens der Quelle erzeugten Zeitkennzeichnungen im schlechtesten Fall 1 ms zu früh oder 1 ms zu spät. Deshalb müssen die Senken ausreichend Speicher zum Puffern der Daten während dieser den ungünstigsten Fall betreffenden Periode bereitstellen, der dem Quellengerät immer hinzugefügt wird um auf der sicheren Seite zu sein.
  • 5 zeigt ein Flussdiagramm zur Darstellung des Sendeprozesses in der Medienquelle 101 und des Empfangsprozesses in der Mediensenke 1 gemäß der Erfindung, wobei die Abspielzeit für jedes Mediendatenpaket von der Mediensenke bestimmt wird. Dieses Beispiel basiert auf dem RTP-Standard. In einem ersten Schritt 603S wird der Abspielzeitversatz von der Medienquelle 101 ermittelt (ausgehandelt) unter Berücksichtigung der Übertragungszeitperioden, der Decodierzeitperioden und der verfügbaren Puffergrößen der in die Mediendatenübertragungsperiode eingebundenen Mediensenken. Um diese Informationen zu erhalten, fragt die Medienquelle 101 die Mediensenke 1 ab. Der Abspielzeitversatz wird dann in Form eines Datensteuerpakets 604S an die Mediensenke 1 übermittelt. Dieses Datensteuerpaket 604S enthält den Abspielzeitversatz in Zeiteinheiten der globalen Uhrzeit. Die Mediensenke 1 empfängt das übermittelte Datensteuerpaket 604R, das dem von der Medienquelle 101 ausgesendeten Datensteuerpaket 604 entspricht. Die Mediensenke 1 speichert den Abspielzeitversatz in Einheiten der globalen Uhrzeit, um den Abspielzeitversatz nachfolgender empfangener Mediendatenpakete wie unten erläutert zu bestimmen.
  • Bevor Mediendatenpakete von der Medienquelle 101 an die Mediensenke 1 gesendet werden, wird ein Senderberichtpaket von der Medienquelle 101 an die Mediensenke 1 gesendet. Deshalb wird in dem nachfolgenden Schritt 605S ein Senderberichtpaket 606S erzeugt. Das Senderberichtpaket 606S enthält zwei Zeitkennzeichnungen, eine Abtasttakt-Zeitkennzeichnung 6075 zur Kennzeichnung eines Zeitpunkts in Zeiteinheiten des Abtasttaktes und eine Globale-Uhrzeit-Zeitkennzeichnung 608S zur Kennzeichnung desselben Zeitpunkts in Zeiteinheiten der globalen Uhrzeit. Das Senderberichtpaket 606S wird von der Medienquelle 101 an die Mediensenke 1 von Zeit zu Zeit übermittelt. Es wird wenigstens einmal vor jeder Medienübertragungsperiode übermittelt, jedoch kann dieses ebenso in der Mitte einer Mediendatenübertragungsperiode übermittelt werden. Die Mediensenke empfängt dann das übertragene Senderberichtpaket 606R, das die übermittelte Abtasttakt-Zeitkennzeichnung 607R und die übermittelte Globale-Uhrzeit-Zeitkennzeichnung 608R enthält. Da beide Zeitkennzeichnungen denselben Zeitpunkt kennzeichnen, kann die Mediensenke 1 im folgenden Schritt 609R die Abtasttaktzeit mit der globalen Uhrzeit verknüpfen. Dies bedeutet, dass für nachfolgend empfangene Zeitkennzeichnungen eine Abtasttaktzeit ermitteln kann, falls eine globale Uhrzeit aus der jeweiligen Zeitkennzeichnung gegeben ist, und umgekehrt kann diese eine globale Uhrzeit bestimmen, falls eine Abtasttaktzeit gegeben ist.
  • In einem nachfolgenden Datenbearbeitungsschritt 609S erzeugt die Medienquelle 101 ein Mediendatenpaket 610S. Dieses Mediendatenpaket 610S enthält eine Abtasttakt-Zeitkennzeichnung, die auf die Erzeugungszeit des Mediendatenpakets 610S in Zeiteinheiten des Abtasttaktes hinweist und dieses enthält zudem die Mediendaten 612S. Dieses Mediendatenpaket 610S wird an die Mediensenke 1 übermittelt. Die Mediensenke 1 empfängt das übermittelte Mediendatenpaket 610R, das die übermittelte Abtasttakt-Zeitkennzeichnung 611R, die den Erzeugungszeitpunkt des übermittelten Mediendatenpakets 610R in Zeiteinheiten des Abtasttaktes kennzeichnet, und die übermittelten Mediendaten 612R enthält. Die Mediensenke 1 berechnet dann in einem ersten Berechnungsschritt 613R die globale Uhrzeit der Erzeugung in Zeiteinheiten der globalen Uhrzeit unter Verwendung der Information, die über das übermittelte Senderberichtpaket 606R vorab empfangen wurde. Nun kann die Abspielzeit in einem zweiten Berechnungsschritt 614R in Zeiteinheiten der globalen Uhrzeit berechnet werden, indem die berechnete globale Uhrzeit der Erzeugung und der Abspielzeitversatz addiert werden. Dann werden die übermittelten Mediendaten 612R in einem Pufferschritt 615R gepuffert, bis die bestimmte Abspielzeit in Zeiteinheiten der globalen Uhrzeit erreicht ist. Schließlich werden die Mediendaten in einem Abspielschritt 616R physikalisch zu exakt der bestimmten Abspielzeit abgespielt, welche nun in Zeiteinheiten der globalen Uhrzeit in der Mediensenke 1 bekannt ist. Wie vorhergehend erwähnt wurde, ist das zeitlich exak te Abspielen möglich, da die Mediensenke 1 einen direkten (festen) Zugriff auf die globale Uhrzeit hat.
  • Für nachfolgende Mediendatenpakete einer Medienübertragungsperiode werden der Datenbearbeitungsschritt 609S, die Übermittlung von Mediendatenpaketen von der Medienquelle 101 zur Mediensenke 1, der erste Berechnungsschritt 613R, der zweite Berechnungsschritt 614R, der Pufferschritt 615R und der Abspielschritt 616R wiederholt. Wie oben erwähnt, ist es innerhalb einer derartigen Medienübertragungsperiode ebenso möglich, dass ein Senderberichtpaket 606S von Zeit zu Zeit von der Medienquelle 101 zur Mediensenke 1 gesendet wird.
  • 6 zeigt ein Flussdiagramm des Sendeprozesses in der Medienquelle 501 und des Empfangsprozesses in der Mediensenke 502 gemäß einer ersten alternativen Ausführungsform der Erfindung, wobei die Abspielzeit für jedes Paket von der Medienquelle 501 bestimmt und mit jedem Mediendatenpaket übertragen wird. Der dargestellte Prozess wird für jedes von der Medienquelle (SRC) 501 an die Mediensenke (SNK) 502 gesendete Mediendatenpaket ausgeführt. Es sollte beachtet werden, dass 6 den Prozess lediglich bezüglich einer einzelnen in eine Medienübertragungsperiode eingebundenen Mediensenke darstellt. Derselbe Prozess wird von weiteren, in dieselbe Medienperiode eingebundenen Mediensenken ausgeführt.
  • In einem ersten Schritt 510 wird die Abspielzeit für das Mediendatenpaket 511, das nachfolgend ausgesendet wird, erzeugt. Die Abspielzeit hängt von der zufälligen Schwankung der Taktinformation der Medienquelle 501, der Übertragungszeitperioden, der Decodierzeitperioden und der verfügbaren Puffergrößen der in die Medienübertragungsperiode eingebundenen Mediensenken ab. Wie oben erwähnt ist, werden diese Informationen zwischen der Medienquelle 501 und der Mediensenke 502 ausgehandelt. Das Mediendatenpaket 511 enthält die Mediendaten 513 und die Globale-Uhrzeit-Zeitkennzeichnung 512, die die Abspielzeit für das Mediendatenpaket 511 in Einheiten der globalen Uhrzeit kennzeichnet. Dieses Mediendatenpaket 511 wird an die Mediensenke 502 übertragen. Das übertragene Mediendatenpaket 514 enthält die Mediendaten 516 und die Globale-Uhrzeit-Zeitkennzeichnung 515, welche jeweils den Mediendaten 513 und der Globalen-Uhrzeit-Zeitkennzeichnung 512 entsprechen, die von der Medienquelle 501 ausgesendet wurden. Nach dem Empfangen des übertragenen Mediendatenpakets 514 puffert die Mediensenke 502 die Mediendaten 515 in einem Verarbeitungsschritt 517, bis die über die übermittelte Globale-Uhrzeit-Zeitkennzeichnung 515 gekennzeichnete Abspielzeit erreicht ist. Dann werden die Mediendaten in einem Abspielschritt 518 exakt zur bestimmten Abspielzeit, auf welche die Globale-Uhrzeit-Zeitkennzeichnung 515 hinweist, von der Mediensenke 502 abgespielt. Wie oben erwähnt wurde, ist das exakte zeitliche Abspielen möglich, da die Mediensenke 502 einen direkten (festen) Zugriff auf die globale Uhrzeit hat. Hinsichtlich Anwenderszenarios mit strengen zeitlichen Anforderungen wie der Synchronisation des linken und rechten Kanals einer Audioverteilung stellt dieser Zugriff auf die Taktinformation einen kritischen Punkt dar.
  • Um eine Abspielzeit zu verhandeln (zu planen), brauchen alle Geräte Zugriff auf dieselbe Taktinformation (globale Uhrzeit) als gemeinsame Zeitreferenz. Dann kann die Medienquelle ein Mediendatenpaket einplanen und alle Senken müssen das Mediendatenpaket puffern, bis die festgesetzte globale Uhrzeit erreicht ist.
  • 7 zeigt eine zweite alternative Ausführungsform der Erfindung, wobei die Mediensenken den Abspielzeitversatz untereinander aushandeln. In dieser zweiten alternativen Ausführungsform handeln eine dritte Mediensenke 71 und eine vierte Mediensenke 72 einen Abspielzeitversatz aus unter Berücksichtigung der Übertragungszeitperioden, der Decodierzeitperioden, der verfügbaren Puffergrößen und einer möglicherweise lockeren Synchronisation der Medienquelle 101 an eine globale Uhrzeit. Die dritte Mediensenke 71 und die vierte Mediensenke 72 können den Abspielzeitversatz über eine direkte Datenverbindung 73 (direkter Kommunikationskanal) aushandeln, oder diese können den Abspielzeitversatz mittels einer ersten Datenverbindung 74 und einer zweiten Datenverbindung 75 über die Medienquelle 101 (indirekter Kommunikationskanal) aushandeln. Die erste Datenverbindung 74 verbindet die Medienquelle 101 und die dritte Mediensenke 71 und die zweite Datenverbindung 75 verbindet die Medienquelle 101 und die vierte Mediensenke 72. Nachdem der Abspielzeitversatz zwischen der dritten Mediensenke 71 und der vierten Mediensenke 72 ausgehandelt wurde, beginnt die Medienquelle 101 mit dem Senden zeitlich gekennzeichneter Mediendatenpakete über die erste Datenverbindung 74 und die zweite Datenverbindung 75. In dem Beispiel von 7 wird ein drittes zeitlich gekennzeichnetes Mediendatenpaket 76 über die erste Datenverbindung 74 gesendet und ein viertes zeitlich gekennzeichnetes Mediendatenpaket 77 wird über die zweite Datenverbindung 75 gesendet. Die Zeitkennzeichnungen der Medien datenpakete können den Zeitpunkt ihrer Erzeugung in Zeiteinheiten der globalen Uhrzeit kennzeichnen oder diese können ihren Erzeugungszeitpunkt in Zeiteinheiten der Abtasttaktzeit kennzeichnen. Im letzteren Falle ist eine Abfolge gemäß 5 auszuführen, bevor Mediendatenpakete gesendet werden, d.h. ein Steuerpaket muss von der Medienquelle 101 an die dritte Mediensenke 71 und die vierte Mediensenke 72 gesendet werden, so dass die dritte Mediensenke 71 und die vierte Mediensenke 72 den Zeitpunkt der Erzeugung eines Mediendatenpakets in Zeiteinheiten der globalen Uhrzeit bestimmen können. Nachdem die dritte Mediensenke 71 und/oder die vierte Mediensenke 72 ein Mediendatenpaket empfangen haben, bestimmen diese die Abspielzeit für das empfangene Mediendatenpaket durch Addieren des ausgehandelten Abspielzeitversatzes und der Zeit, auf die die Zeitkennzeichnung des Mediendatenpakets hinweist. In diesem Beispiel bestimmt die dritte Mediensenke 71 die Abspielzeit des dritten zeitlich gekennzeichneten Mediendatenpakets 76 durch Addieren des ausgehandelten Abspielzeitversatzes und der Zeit, auf die die Zeitkennzeichnung dieses dritten zeitlich gekennzeichneten Mediendatenpakets 76 hinweist, und diese spielt das dritte zeitlich gekennzeichnete Mediendatenpaket 76 exakt zu dieser bestimmten Abspielzeit ab. Zusätzlich bestimmt die vierte Mediensenke 72 die Abspielzeit des vierten zeitlich gekennzeichneten Mediendatenpakets 77 durch Addieren des ausgehandelten Abspielzeitversatzes und der Zeit, auf die die Zeitkennzeichnung dieses vierten zeitlich gekennzeichneten Mediendatenpakets 77 hinweist, und diese spielt das vierte zeitlich gekennzeichnete Mediendatenpaket 77 exakt zu dieser bestimmten Abspielzeit ab.
  • Zusammenfassend werden somit erfindungsgemäß Mediendatenpakete in einem digitalen Audioübertragungssystem von einer Medienquelle an Mediensenken (z.B. Lautsprecher) übertragen. Wird ein Mediendatenpaket von einer Mediensenke empfangen und enthält dieses einem Audiosignal zugehörige Audiodaten von z.B. einem Stereosignal, ist es wichtig, dass dieses Mediendatenpaket zum selben Zeitpunkt abgespielt wird wie ein Mediendatenpaket, das von einer weiteren Mediensenke empfangen wird und ein Audiosignal desselben Stereosignals enthält, d.h. die Mediendatenpakete müssen synchron abgespielt werden. Um dieses synchrone Abspielen der Mediendatenpakete in verschiedenen Mediensenken sicherzustellen, wird eine gemeinsame Abspielzeit von der Medienquelle oder der Mediensenke bestimmt und Mediendatenpakete werden so lange gepuffert, bis diese gemeinsame Abspielzeit erreicht ist. Die Medienquelle oder die Mediensenke bestimmen die gemeinsame Abspielzeit auf Basis einer globalen Uhrzeit, welche auf Basis einer Abtasttaktzeit berechnet wird.

Claims (12)

  1. Medienquelle (101; 400), geeignet: – zum Aussenden von zeitlich gekennzeichneten Mediendatenpaketen (1021, 1022; 308; 610S, 610R; 76, 77) an eine oder mehrere empfangende Mediensenken (1, 2; 4021, 4022; 71, 72), wobei die Zeitkennzeichnung (611S) jedes Mediendatenpakets (1021, 1022; 308; 610S, 610R; 76, 77) auf den Zeitpunkt zum Erzeugen des entsprechenden Mediendatenpakets (1021, 1022; 308; 610S, 610R; 76, 77) hinweist, – zum Bestimmen eines Abspielzeitversatzes (640S) einmal für alle Mediendatenpakete einer Periode, und – zum Aussenden des Abspielzeitversatzes (604S) an die eine oder mehreren empfangenden Mediensenke(n) (1, 2; 4021, 4022; 71, 72) einmal für alle Mediendatenpakete (1021, 1022; 308; 610S, 610R; 76, 77) einer Periode.
  2. Medienquelle (101; 400) gemäß Anspruch 1, – mit einem Abtasttakt zum Bestimmen einer Abtasttaktzeit, – zum Bestimmen einer globalen Uhrzeit (201) und – zum Aussenden eines Steuerpakets (606S) von Zeit zu Zeit, insbesondere an die eine oder mehrere empfangende Mediensenke(n) (1, 2; 4021, 4022; 71, 72) gemäß einem der Ansprüche 5 bis 9, wobei das Steuerpaket (606S) zwei Steuerpaketzeitkennzeichnungen aufweist, die auf denselben Zeitpunkt hinweisen, wobei dessen erste Steuerpaketzeitkennzeichnung (608S) in Zeiteinheiten der globalen Uhrzeit (201) gemessen oder definiert wird und dessen zweite Steuerpaketzeitkennzeichnung (607S) in Zeiteinheiten der Abtasttaktzeit gemessen oder definiert wird.
  3. Medienquelle (101; 400) gemäß einem der vorangehenden Ansprüche, wobei die Zeitkennzeichnung (611S) eines Mediendatenpakets auf den Zeitpunkt zum Erzeugen des zeitlich gekennzeichneten Mediendatenpakets (1021, 1022; 308; 610S, 610R; 76, 77) in Zeiteinheiten der Abtasttaktzeit hinweist.
  4. Medienquelle (101; 400) gemäß einem der vorangehenden Ansprüche, aufgebaut zum Aussenden derselben Mediendatenpakete (1021, 1022; 308; 610S, 610R; 76, 77) an zwei oder mehrere verschiedene empfangende Mediensenken (1, 2; 4021, 4022; 71, 72).
  5. Mediensenke (1, 2; 4021, 4022; 71, 72), geeignet: – zum Empfangen von zeitlich gekennzeichneten Mediendatenpaketen (1021, 1022; 308; 610S, 610R; 76, 77) von einer Medienquelle (101; 400), – zum Empfangen eines Abspielzeitversatzes (604R) von einer Medienquelle (101; 400) einmal für alle Mediendatenpakete (1021, 1022; 308; 610S, 610R; 76, 77) einer Periode, – wobei der Abspielzeitversatz (604R) einmal für alle Mediendatenpakete (1021, 1022; 308; 610S, 610R; 76, 77) einer Periode bestimmt wird – zum präzisen Bestimmen einer globalen Uhrzeit (201), – zum Bestimmen einer gemeinsamen Abspielzeit für jedes empfangene zeitlich gekennzeichnete Mediendatenpaket (1021, 1022; 308; 610S, 610R; 76, 77) durch Addieren der Zeit, auf die durch die Zeitkennzeichnung (611R) des zeitlich gekennzeichneten Mediendatenpakets (1021, 1022; 308; 6105, 610R; 76, 77) hingewiesen wird sowie des Abspielzeitversatzes (604R), und zum Abspielen jedes empfangenen zeitlich gekennzeichneten Mediendatenpakets (1021, 1022; 308; 610S, 610R; 76, 77) genau dann, wenn die bestimmte gemeinsame Abspielzeit für das empfangene zeitlich gekennzeichnete Mediendatenpaket (1021, 1022; 308; 6105, 610R; 76, 77) erreicht ist.
  6. Mediensenke (1, 2; 4021, 4022, 71, 72) gemäß Anspruch 5, geeignet: – zum Empfangen eines Steuerpakets (606R), insbesondere von einer Medienquelle (101; 400) gemäß einem der Ansprüche 1 bis 4, umfassend eine erste Steuerpaketzeitkennzeichnung (608R) zum Hinweisen auf einen bestimmten Zeitpunkt, der in Zeiteinheiten einer Abtasttastzeit gemessen oder definiert wird, sowie eine zweite Steuerpaketzeitkennzeichnung (607R) zum Hinweisen auf einen bestimmten Zeitpunkt, der in Zeiteinheiten einer globalen Uhrzeit (201) gemessen oder definiert wird, und – zum Umwandeln einer Zeit, auf die mittels einer Zeitkennzeichnung (611R) eines zeitlich gekennzeichneten Mediendatenpakets (1021, 1022; 308; 610S, 610R; 76, 77) hingewiesen wird und die in Einheiten einer Abtasttaktzeit gemessen oder definiert wird, in eine Zeit, die in Einheiten einer globa len Uhrzeit (201) gemessen oder definiert wird basierend auf der Information der ersten und zweiten Steuerpaketzeitkennzeichnung.
  7. Mediensenke (1, 2; 4021, 4022; 71, 72) gemäß einem der vorangehenden Ansprüche 5 oder 6, mit einem Puffer zum Speichern von Mediendatenpaketen (1021, 1022, 308; 610S, 610R; 76, 77) bis die gemeinsame Abspielzeit erreicht ist.
  8. Medienverarbeitungssystem, mit einer Medienquelle (101; 400) gemäß einem der Ansprüche 1 bis 4 und einer Mediensenke (1, 2; 4021, 4022; 71, 72) gemäß einem der Ansprüche 5 bis 7.
  9. Verfahren zum synchronen Abspielen von für eine Medienquelle (101; 400) bestimmten Mediendatenpaketen (1021, 1022; 308; 610S, 610R; 76, 77), mit den Schritten – Aussenden von zeitlich gekennzeichneten Mediendatenpaketen (1021, 1022; 308; 610S, 610R; 76, 77), an eine oder mehrere empfangende Mediensenken (1, 2; 4021, 4022; 71, 72), wobei die Zeitkennzeichnung (611S jedes Mediendatenpakets (1021, 1022; 308; 610S, 610R; 76, 77) auf den Zeitpunkt zum Erzeugen des entsprechenden Mediendatenpakets (1021, 1022; 308; 610S, 610R; 76, 77) hinweist, – Bestimmen eines Abspielzeitversatzes (604S) einmal für alle Mediendatenpakete (1021, 1022: 308; 610S, 610R; 76, 77) einer Periode, und – Aussenden des Abspielzeitversatzes (604S) an die eine oder mehrere Mediendatensenke(n) (1, 2; 4021, 4022; 71, 72) einmal für alle Mediendatenpakete (1021, 1022; 308; 6105, 610R; 76, 77) einer Periode.
  10. Verfahren nach Anspruch 9 mit den folgenden Schritten – Bestimmen einer Abtasttaktzeit, – Bestimmen einer globalen Uhrzeit (201), und – Aussenden eines Steuerpakets (606S) von Zeit zu Zeit an die eine oder mehrere empfangenden Mediensenke(n) (1, 2; 4021, 4022; 71, 72), wobei das Steuerpaket (606S) zwei Steuerpaketzeitkennzeichnungen aufweist, die auf denselben Zeitpunkt hinweisen, wobei dessen erste Steuerpaketzeitkennzeichnung (608S) in Zeiteinheiten der globalen Uhrzeit (201) gemessen oder definiert wird und dessen zweite Steuerpaketzeitkennzeichnung (607S) in Zeiteinheiten der Abtasttaktzeit gemessen oder definiert wird.
  11. Verfahren nach einem der vorangehenden Ansprüche 9 oder 10, wobei die Zeitkennzeichnung (611S) eines Mediendatenpakets (1021, 1022; 308; 610S, 610R, 76, 77) auf den Zeitpunkt zum Erzeugen des zeitlich gekennzeichneten Mediendatenpakets (1021, 1022; 308; 6105, 610R; 76, 77) in Zeiteinheiten der Abtasttaktzeit hinweist.
  12. Verfahren nach einem der vorangehenden Ansprüche 9 bis 11, wobei dieselben Mediendatenpakete (1021, 1022; 308; 610S, 610R; 76, 77) an zwei oder mehrere verschiedene empfangende Mediensenken ausgesendet werden (1, 2; 4021, 4022; 71, 72).
DE60211157T 2002-09-06 2002-09-06 Synchrones Abspielen von Medien-Paketen Expired - Lifetime DE60211157T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP02020070A EP1398931B1 (de) 2002-09-06 2002-09-06 Synchrones Abspielen von Medien-Paketen

Publications (2)

Publication Number Publication Date
DE60211157D1 DE60211157D1 (de) 2006-06-08
DE60211157T2 true DE60211157T2 (de) 2007-02-08

Family

ID=31725366

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60211157T Expired - Lifetime DE60211157T2 (de) 2002-09-06 2002-09-06 Synchrones Abspielen von Medien-Paketen

Country Status (5)

Country Link
US (1) US7675943B2 (de)
EP (1) EP1398931B1 (de)
JP (1) JP4559050B2 (de)
CN (1) CN1489356B (de)
DE (1) DE60211157T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010037906A1 (de) * 2010-09-30 2012-04-05 Schneider Electric Automation Gmbh Verfahren und System zur Aufzeichnung, Synchronisation und Analyse von Daten mittels in einem Kommunikationsnetzwerk räumlich verteilter Analyse-Geräte

Families Citing this family (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8290603B1 (en) 2004-06-05 2012-10-16 Sonos, Inc. User interfaces for controlling and manipulating groupings in a multi-zone media system
US11106424B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US11650784B2 (en) 2003-07-28 2023-05-16 Sonos, Inc. Adjusting volume levels
US9207905B2 (en) 2003-07-28 2015-12-08 Sonos, Inc. Method and apparatus for providing synchrony group status information
US11294618B2 (en) 2003-07-28 2022-04-05 Sonos, Inc. Media player system
US8086752B2 (en) 2006-11-22 2011-12-27 Sonos, Inc. Systems and methods for synchronizing operations among a plurality of independently clocked digital data processing devices that independently source digital data
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
US11106425B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US7362765B1 (en) * 2003-12-15 2008-04-22 Dinochip, Inc. Network traffic management system with floating point sorter
US9374607B2 (en) 2012-06-26 2016-06-21 Sonos, Inc. Media playback system with guest access
US9977561B2 (en) 2004-04-01 2018-05-22 Sonos, Inc. Systems, methods, apparatus, and articles of manufacture to provide guest access
US8024055B1 (en) 2004-05-15 2011-09-20 Sonos, Inc. Method and system for controlling amplifiers
US8326951B1 (en) 2004-06-05 2012-12-04 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US8868698B2 (en) 2004-06-05 2014-10-21 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US7792158B1 (en) 2004-08-18 2010-09-07 Atheros Communications, Inc. Media streaming synchronization
US8149880B1 (en) 2004-08-18 2012-04-03 Qualcomm Atheros, Inc. Media streaming synchronization
US7796651B2 (en) * 2005-03-02 2010-09-14 Nokia Corporation See what you see (SWYS)
EP1872533B1 (de) 2005-04-22 2019-05-22 Audinate Pty Limited Netzwerk, gerät und verfahren zum transport digitaler medien
US8068515B2 (en) * 2005-06-22 2011-11-29 Cisco Technology, Inc. Faster multimedia synchronization of broadcast streams using router caching of RTCP packets
DE102005036734A1 (de) * 2005-08-04 2007-02-08 Robert Bosch Gmbh Telekommunikationsgerät mit einer drahtlosen Schnittstelle und Verfahren zum Betrieb eines Telekommunikationsgerätes
US7842031B2 (en) * 2005-11-18 2010-11-30 Medtronic Cryocath Lp Bioimpedance measurement system and method
JP4509921B2 (ja) * 2005-12-14 2010-07-21 日本電信電話株式会社 無線通信システムおよび無線通信方法
US7539889B2 (en) * 2005-12-30 2009-05-26 Avega Systems Pty Ltd Media data synchronization in a wireless network
US8677002B2 (en) 2006-01-28 2014-03-18 Blackfire Research Corp Streaming media system and method
JP2007274019A (ja) * 2006-03-30 2007-10-18 Matsushita Electric Ind Co Ltd デジタル方式情報配信システムおよびその方法
WO2008138047A1 (en) 2007-05-11 2008-11-20 Audinate Pty Limited Systems, methods and computer-readable media for configuring receiver latency
WO2007131296A1 (en) 2006-05-17 2007-11-22 National Ict Australia Limited Redundant media packet streams
US8239559B2 (en) 2006-07-15 2012-08-07 Blackfire Research Corp. Provisioning and streaming media to wireless speakers from fixed and mobile media sources and clients
US7941477B2 (en) * 2006-07-26 2011-05-10 V V S Virtual Video Systems Video and multimedia distribution system
US7945277B2 (en) 2006-07-26 2011-05-17 Sony Ericsson Mobile Communications Ab Use of media timestamp to indicate delays in push-to-talk over cellular group calls
US20080077261A1 (en) * 2006-08-29 2008-03-27 Motorola, Inc. Method and system for sharing an audio experience
CN1960485B (zh) * 2006-08-29 2011-12-07 中兴通讯股份有限公司 一种移动多媒体广播视音频同步播放的方法
US8788080B1 (en) 2006-09-12 2014-07-22 Sonos, Inc. Multi-channel pairing in a media system
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US9202509B2 (en) 2006-09-12 2015-12-01 Sonos, Inc. Controlling and grouping in a multi-zone media system
US9083994B2 (en) * 2006-09-26 2015-07-14 Qualcomm Incorporated Method and system for error robust audio playback time stamp reporting
JP4935345B2 (ja) 2006-12-25 2012-05-23 ソニー株式会社 コンテンツ再生システム、再生装置、再生制御方法及びプログラム
CN101212690B (zh) * 2006-12-26 2011-04-20 中兴通讯股份有限公司 多媒体视音频流唇音同步的调测方法
US8224147B2 (en) 2007-04-15 2012-07-17 Avid Technologies, Inc. Interconnected multimedia systems with synchronized playback
US7724780B2 (en) * 2007-04-19 2010-05-25 Cisco Technology, Ink. Synchronization of one or more source RTP streams at multiple receiver destinations
CN101137066B (zh) * 2007-05-11 2011-01-05 中兴通讯股份有限公司 一种多媒体数据流同步控制的方法及装置
US8320410B2 (en) 2007-05-23 2012-11-27 Broadcom Corporation Synchronization of media data streams with separate sinks using a relay
US8102836B2 (en) 2007-05-23 2012-01-24 Broadcom Corporation Synchronization of a split audio, video, or other data stream with separate sinks
US20090017868A1 (en) * 2007-07-13 2009-01-15 Joji Ueda Point-to-Point Wireless Audio Transmission
US7936790B2 (en) * 2007-08-30 2011-05-03 Silicon Image, Inc. Synchronizing related data streams in interconnection networks
JP4967945B2 (ja) * 2007-09-13 2012-07-04 ヤマハ株式会社 端末装置およびデータ配信システム
US8743284B2 (en) * 2007-10-08 2014-06-03 Motorola Mobility Llc Synchronizing remote audio with fixed video
GB2454493A (en) * 2007-11-08 2009-05-13 Cambridge Silicon Radio Ltd Improved bluetooth clock accuracy
JP2009159401A (ja) * 2007-12-27 2009-07-16 Rohm Co Ltd 無線通信システム
WO2009099366A1 (en) * 2008-02-05 2009-08-13 Telefonaktiebolaget L M Ericsson (Publ) A method of transmitting sychnronized speech and video
WO2009098669A2 (en) * 2008-02-08 2009-08-13 Nxp B.V. Audio streaming system and method for continuously synchronizing streamed audio data files
KR100916505B1 (ko) * 2008-02-20 2009-09-08 한국전자통신연구원 정상 재생 타임을 이용한 스케일러블 비디오 코딩 정보와어드밴스드 오디오 코딩 정보의 동기화 지원 방법 및 장치
WO2009105838A1 (en) * 2008-02-29 2009-09-03 Audinate Pty Ltd Network devices, methods and/or systems for use in a media network
US8654988B2 (en) * 2008-05-05 2014-02-18 Qualcomm Incorporated Synchronization of signals for multiple data sinks
JP5316189B2 (ja) * 2008-05-23 2013-10-16 ヤマハ株式会社 Avシステム
US20090298420A1 (en) * 2008-05-27 2009-12-03 Sony Ericsson Mobile Communications Ab Apparatus and methods for time synchronization of wireless audio data streams
US8639830B2 (en) * 2008-07-22 2014-01-28 Control4 Corporation System and method for streaming audio
US8776144B2 (en) 2008-10-16 2014-07-08 Industrial Technology Research Institute Mobile TV system and method for synchronizing the rendering of streaming services thereof
TWI393431B (zh) * 2008-10-16 2013-04-11 Ind Tech Res Inst 行動電視系統及其同步化播放串流服務的方法
EP2180655A1 (de) * 2008-10-27 2010-04-28 Thomson Licensing SA Verfahren zur Übertragung eines digitalen Inhaltstroms und entsprechendes Empfangsverfahren
PL2650779T3 (pl) * 2009-02-20 2015-07-31 Thomson Licensing Synchronizowana czasowo rezerwacja zasobów w sieciach z komutacją pakietów
DE102009028645B4 (de) 2009-08-19 2014-04-03 Raumfeld Gmbh Verfahren und Anordnung zur Synchronisation von Datenströmen in Netzwerken sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
GB0921668D0 (en) * 2009-12-10 2010-01-27 Vocality Internat Ltd Media over IP perfomance enhancement
EP3627798A1 (de) * 2010-01-27 2020-03-25 Koninklijke KPN N.V. Verfahren, system und vorrichtung zur synchronisierung von medien-streams
JP5454248B2 (ja) * 2010-03-12 2014-03-26 ソニー株式会社 送信装置、および送信方法
CN102959544B (zh) 2010-05-04 2016-06-08 沙扎姆娱乐有限公司 用于同步媒体的方法和系统
FR2962875B1 (fr) * 2010-07-15 2012-08-17 Soledge Diffusion synchronisee de flux
US10712771B2 (en) * 2010-08-13 2020-07-14 Netflix, Inc. System and method for synchronized playback of streaming digital content
GB2486183A (en) * 2010-12-03 2012-06-13 Cambridge Silicon Radio Ltd Time stamps are added to data transmitted via Bluetooth® connections to facilitate synchronised output of the data from a plurality of devices.
US8643696B2 (en) * 2011-01-19 2014-02-04 Broadcom Corporation Synchronizing media streams using time signal(s) from an independent time source
US11429343B2 (en) 2011-01-25 2022-08-30 Sonos, Inc. Stereo playback configuration and control
US11265652B2 (en) 2011-01-25 2022-03-01 Sonos, Inc. Playback device pairing
US8938312B2 (en) 2011-04-18 2015-01-20 Sonos, Inc. Smart line-in processing
US8677006B2 (en) 2011-05-05 2014-03-18 Microsoft Corporation Processing media streams
US9042556B2 (en) 2011-07-19 2015-05-26 Sonos, Inc Shaping sound responsive to speaker orientation
US9712573B2 (en) * 2011-09-13 2017-07-18 Qualcomm Incorporated Synchronized wireless display devices
US9455885B2 (en) * 2011-10-13 2016-09-27 General Electric Company Systems, methods, and apparatus for modifying sensor time stamp data
US8817725B2 (en) 2012-01-13 2014-08-26 Blackberry Limited Scheduling transmission of traffic treated less preferentially despite timing requirements
EP2615879B1 (de) * 2012-01-13 2014-04-09 BlackBerry Limited Zeitplanung der Übertragung von weniger bevorzugtem Verkehr trotz zeitlicher Anforderungen
EP2632066B1 (de) * 2012-02-27 2016-01-06 OMS Software GmbH Verfahren und Endgeräte zur Synchronisation einer Wiedergabe von maschinenlesbaren Daten
US9729115B2 (en) 2012-04-27 2017-08-08 Sonos, Inc. Intelligently increasing the sound level of player
US9787523B2 (en) * 2012-07-05 2017-10-10 Eric Lazarus Managing data in a data queue including synchronization of media on multiple devices
US9008330B2 (en) 2012-09-28 2015-04-14 Sonos, Inc. Crossover frequency adjustments for audio speakers
FR3000864B1 (fr) * 2013-01-10 2015-02-27 Awox Dispositif de synchronisation de diffusion de signal sonore et diffuseur sonore
US9510055B2 (en) 2013-01-23 2016-11-29 Sonos, Inc. System and method for a media experience social interface
US20140214961A1 (en) * 2013-01-31 2014-07-31 Lance Gordon Douglas Methods and systems for continuous compilation of non-interactive video with supplemental renderings of interactive content to produce real-time, personalized video for individuals and/or groups in a shared experience
US20150095679A1 (en) 2013-09-30 2015-04-02 Sonos, Inc. Transitioning A Networked Playback Device Between Operating Modes
US9654545B2 (en) 2013-09-30 2017-05-16 Sonos, Inc. Group coordinator device selection
US9288596B2 (en) 2013-09-30 2016-03-15 Sonos, Inc. Coordinator device for paired or consolidated players
US9720576B2 (en) 2013-09-30 2017-08-01 Sonos, Inc. Controlling and displaying zones in a multi-zone system
US9244516B2 (en) 2013-09-30 2016-01-26 Sonos, Inc. Media playback system using standby mode in a mesh network
US9301268B2 (en) 2013-11-08 2016-03-29 Nokia Technologies Oy Device synchronization
US9300647B2 (en) 2014-01-15 2016-03-29 Sonos, Inc. Software application and zones
US20150220498A1 (en) 2014-02-05 2015-08-06 Sonos, Inc. Remote Creation of a Playback Queue for a Future Event
US9226087B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US9226073B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
WO2015122814A1 (en) * 2014-02-14 2015-08-20 Telefonaktiebolaget L M Ericsson (Publ) Synchronising playing of streaming content on plural streaming clients
US10582461B2 (en) 2014-02-21 2020-03-03 Summit Wireless Technologies, Inc. Software based audio timing and synchronization
US9723580B2 (en) * 2014-02-21 2017-08-01 Summit Semiconductor Llc Synchronization of audio channel timing
US10602468B2 (en) 2014-02-21 2020-03-24 Summit Wireless Technologies, Inc. Software based audio timing and synchronization
US9679054B2 (en) 2014-03-05 2017-06-13 Sonos, Inc. Webpage media playback
JP2015171065A (ja) * 2014-03-10 2015-09-28 富士通株式会社 システムおよび方法
US9319792B1 (en) * 2014-03-17 2016-04-19 Amazon Technologies, Inc. Audio capture and remote output
US10587693B2 (en) 2014-04-01 2020-03-10 Sonos, Inc. Mirrored queues
US20150324552A1 (en) 2014-05-12 2015-11-12 Sonos, Inc. Share Restriction for Media Items
US20150356084A1 (en) 2014-06-05 2015-12-10 Sonos, Inc. Social Queue
CN104079957B (zh) * 2014-06-25 2017-09-01 广东欧珀移动通信有限公司 一种多媒体设备同步操作的方法及系统
US10209947B2 (en) * 2014-07-23 2019-02-19 Sonos, Inc. Device grouping
US9874997B2 (en) 2014-08-08 2018-01-23 Sonos, Inc. Social playback queues
US9860286B2 (en) 2014-09-24 2018-01-02 Sonos, Inc. Associating a captured image with a media item
US9690540B2 (en) 2014-09-24 2017-06-27 Sonos, Inc. Social media queue
US9959087B2 (en) 2014-09-24 2018-05-01 Sonos, Inc. Media item context from social media
US9667679B2 (en) 2014-09-24 2017-05-30 Sonos, Inc. Indicating an association between a social-media account and a media playback system
US9723038B2 (en) 2014-09-24 2017-08-01 Sonos, Inc. Social media connection recommendations based on playback information
US10645130B2 (en) 2014-09-24 2020-05-05 Sonos, Inc. Playback updates
WO2016049342A1 (en) 2014-09-24 2016-03-31 Sonos, Inc. Social media connection recommendations based on playback information
US11044386B1 (en) 2014-12-18 2021-06-22 The Directv Group, Inc. Method and system for synchronizing playback of independent audio and video streams through a network
US9788140B2 (en) 2014-12-31 2017-10-10 Qualcomm Technologies International, Ltd. Time to play
CN106302378B (zh) * 2015-05-25 2020-09-22 恩智浦美国有限公司 用于流同步的多媒体系统和方法
US10248376B2 (en) * 2015-06-11 2019-04-02 Sonos, Inc. Multiple groupings in a playback system
CN105306110B (zh) * 2015-09-18 2018-08-17 深圳市冠旭电子股份有限公司 一种实现音乐同步播放的方法及系统
US9886234B2 (en) 2016-01-28 2018-02-06 Sonos, Inc. Systems and methods of distributing audio to one or more playback devices
US10712997B2 (en) 2016-10-17 2020-07-14 Sonos, Inc. Room association based on name
US10255032B2 (en) * 2016-12-13 2019-04-09 EVA Automation, Inc. Wireless coordination of audio sources
US10009862B1 (en) * 2017-09-06 2018-06-26 Texas Instruments Incorporated Bluetooth media device time synchronization
CN112105005A (zh) * 2019-08-30 2020-12-18 炬力(珠海)微电子有限公司 一种控制蓝牙设备播放的方法及装置
FR3109047B1 (fr) * 2020-04-01 2022-03-04 Sagemcom Broadband Sas Procédé d’application de jeu de paramètres d’égalisation
CN111586152B (zh) * 2020-04-30 2023-06-02 北京小米移动软件有限公司 蓝牙传输数据的播放方法及装置、蓝牙传输数据的发送方法及装置
CN113438385B (zh) * 2021-06-03 2023-04-04 深圳市昊一源科技有限公司 一种视频同步方法及无线图像传输系统
EP4287626A1 (de) * 2022-06-02 2023-12-06 Airbus S.A.S. System und verfahren zur synchronisierten datenwiedergabe und flugzeug

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02122800A (ja) * 1988-10-31 1990-05-10 Matsushita Electric Ind Co Ltd 音響再生装置
JPH04176299A (ja) * 1990-11-09 1992-06-23 Matsushita Electric Ind Co Ltd 車載音響再生装置
US6195701B1 (en) * 1994-03-16 2001-02-27 International Business Machines Corporation Method and apparatus for synchronization and scheduling of multiple data streams and real time tasks
GB2298951B (en) * 1995-03-17 1999-10-27 Olivetti Res Ltd Addition of time information
JPH099386A (ja) * 1995-06-21 1997-01-10 Mitsubishi Cable Ind Ltd スピーカシステム
US6360271B1 (en) * 1999-02-02 2002-03-19 3Com Corporation System for dynamic jitter buffer management based on synchronized clocks
JP2001127712A (ja) 1999-10-29 2001-05-11 Yazaki Corp 音響システム
JP4083361B2 (ja) * 1999-12-21 2008-04-30 パイオニア株式会社 情報再生システム
US6778493B1 (en) * 2000-02-07 2004-08-17 Sharp Laboratories Of America, Inc. Real-time media content synchronization and transmission in packet network apparatus and method
JP2001275194A (ja) * 2000-03-27 2001-10-05 Aiwa Co Ltd スピーカーシステム、情報送信装置及びスピーカー装置
US7031306B2 (en) * 2000-04-07 2006-04-18 Artel Video Systems, Inc. Transmitting MPEG data packets received from a non-constant delay network
US6801505B1 (en) * 2000-11-28 2004-10-05 Qosmetrics, Inc. Method of using computer equipment to send a time-stamped frame
US7530086B2 (en) * 2000-12-12 2009-05-05 Hewlett-Packard Development Company, L.P. Media program timing and identity delivery method and system
US7161939B2 (en) * 2001-06-29 2007-01-09 Ip Unity Method and system for switching among independent packetized audio streams
US6947417B2 (en) * 2001-06-29 2005-09-20 Ip Unity Method and system for providing media services
US7016348B2 (en) * 2001-08-28 2006-03-21 Ip Unity Method and system for direct access to web content via a telephone
US7047308B2 (en) * 2001-08-31 2006-05-16 Sharp Laboratories Of America, Inc. System and method for simultaneous media playout
US7269141B2 (en) * 2002-09-24 2007-09-11 Accton Technology Corporation Duplex aware adaptive playout method and communications device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010037906A1 (de) * 2010-09-30 2012-04-05 Schneider Electric Automation Gmbh Verfahren und System zur Aufzeichnung, Synchronisation und Analyse von Daten mittels in einem Kommunikationsnetzwerk räumlich verteilter Analyse-Geräte
WO2012042017A2 (de) 2010-09-30 2012-04-05 Schneider Electric Automation Gmbh Verfahren und system zur aufzeichnung, synchronisation und analyse von daten mittels in einem kommunikationsnetzwerk räumlich verteilter analyse-geräte
DE102010037906B4 (de) * 2010-09-30 2014-02-27 Schneider Electric Automation Gmbh Verfahren und System zur Aufzeichnung, Synchronisation und Analyse von Daten mittels in einem Kommunikationsnetzwerk räumlich verteilter Analyse-Geräte

Also Published As

Publication number Publication date
EP1398931A1 (de) 2004-03-17
US7675943B2 (en) 2010-03-09
DE60211157D1 (de) 2006-06-08
JP4559050B2 (ja) 2010-10-06
JP2004104796A (ja) 2004-04-02
CN1489356B (zh) 2010-04-14
EP1398931B1 (de) 2006-05-03
CN1489356A (zh) 2004-04-14
US20040228367A1 (en) 2004-11-18

Similar Documents

Publication Publication Date Title
DE60211157T2 (de) Synchrones Abspielen von Medien-Paketen
DE69735415T2 (de) Verfahren und System zur Übertragung von Audiodaten mit Zeitstempel
DE102010018376B4 (de) Dynamische Pufferung und Synchronisation verwandter Medienströme in Paketnetzwerken
DE60306452T2 (de) Wiederverwendbare Multiprotokollmeta-Architektur für Voice-over-IP Wiedergabe
DE60223292T2 (de) Verwaltung einer paketvermittelten konferenzschaltung
DE60310017T2 (de) Verfahren und Vorrichtung zur Dezentralisierung von Audio/Visuellen Komponenten
DE60110002T2 (de) System zur Übertragung von Streaming-Daten und Zwischenverstärker dafür
DE112012002526B4 (de) Medieninhalt-Übertragungsverfahren und Übertragungsvorrichtung unter Verwendung desselben
DE602005000779T2 (de) Kommunikationsvorrichtung and Verfahren um Musiksoundkontrolldaten über das Internet zu erhalten und zu übertragen.
DE112018001871T5 (de) Audiovisuelles Kollaborationsverfahren mit Latenzverwaltung für großflächige Übertragung
US20230269423A1 (en) Fast Tune-In for Low Latency Streaming
EP1283611A2 (de) Verfahren zur Synchronisierung eines Kommunikationssystems über ein paketorientiertes Datennetz
DE112006002677T5 (de) Verfahren und Vorrichtung für RTP-Ausgabe-Streaming unter Verwendung von komplementären Richtungsdateien
US20150229676A1 (en) Communication Receiver
EP1794564A1 (de) Vorrichtung und verfahren zum synchronisieren von zusatzdaten und basisdaten
EP1425885B1 (de) Verfahren und anordnung zur übermittlung von daten aus einem ersten datennetz in ein zweites datennetz
DE102010003248B4 (de) Verfahren und Vorrichtung zur Verarbeitung von Daten in einem Netzwerk eines Fahrzeugs
DE60220802T2 (de) Verfahren zur verbreitung von inhalt ein erfassungsserver und empfänger
Marfil et al. Synchronization mechanisms for multi-user and multi-device hybrid broadcast and broadband distributed scenarios
JP2020162090A (ja) 送信ノード、放送局システム、制御ノード及び送信制御方法
CN110602524B (zh) 一种多路数字流同步方法、装置、系统及存储介质
DE60214854T2 (de) Verfahren zur verbreitung von inhalt ein erfassungsserver und empfänger
DE60209548T2 (de) Verfahren und Vorrichtung zur Rundsendung von sukzessivem Inhalt
DE102006036562A1 (de) Verfahren und System zum Übertragen aufeinander bezogener Datenströme oder/und zum Synchronisieren aufeinander bezogener Datenströme
KR100640918B1 (ko) 인터넷 스트리밍 서비스를 위한 스트림 파일 제작 방법

Legal Events

Date Code Title Description
8364 No opposition during term of opposition