Dolby Laboratories Licensing Corporation

États‑Unis d’Amérique

Retour au propriétaire

1-100 de 1 192 pour Dolby Laboratories Licensing Corporation Trier par
Recheche Texte
Brevet
International - WIPO
Affiner par Reset Report
Date
Nouveautés (dernières 4 semaines) 10
2024 avril (MACJ) 7
2024 mars 7
2024 février 4
2024 janvier 7
Voir plus
Classe IPC
H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage 159
G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage 83
H04S 3/00 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques 76
G06T 5/00 - Amélioration ou restauration d'image 72
H04N 7/26 - utilisant la réduction de la largeur de bande (réduction d'information par conversion de code en général H03M 7/30) 70
Voir plus
Résultats pour  brevets
  1     2     3     ...     12        Prochaine page

1.

END-TO-END GENERAL AUDIO SYNTHESIS WITH GENERATIVE NETWORKS

      
Numéro d'application US2023034098
Numéro de publication 2024/086012
Statut Délivré - en vigueur
Date de dépôt 2023-09-29
Date de publication 2024-04-25
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Pascual, Santiago
  • Serra, Joan
  • Pons Puig, Jordi
  • Yeh, Chunghsin
  • Bhattacharya, Gautam

Abrégé

An aspect of the present disclosure relates to a neural network-based system for general audio synthesis comprising a generator configured to generate synthesized audio. The generator comprising an encoder configured to transform an input audio signal with a first rate into a sequence of hidden features with a second rate, lower than the first rate and process the hidden features to aggregate temporal information. The generator comprises a decoder configured to convert the hidden features back to the first rate by upsampling to form a processed signal and output a synthesized audio signal based on the processed signal as the generated synthesized audio.

Classes IPC  ?

  • G10L 21/045 - Compression ou expansion temporelles par changement de la vitesse en réduisant ou en insérant une forme d’onde
  • G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
  • G06N 3/045 - Combinaisons de réseaux
  • G06N 3/0475 - Réseaux génératifs
  • G10L 13/02 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole
  • G10L 21/00 - Traitement du signal de parole ou de voix pour produire un autre signal audible ou non audible, p.ex. visuel ou tactile, afin de modifier sa qualité ou son intelligibilité

2.

CONVERSION OF SCENE BASED AUDIO REPRESENTATIONS TO OBJECT BASED AUDIO REPRESENTATIONS

      
Numéro d'application US2023075043
Numéro de publication 2024/081504
Statut Délivré - en vigueur
Date de dépôt 2023-09-25
Date de publication 2024-04-18
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Mcgrath, David S.
  • Hoffmann, Michael

Abrégé

A mixing matrix, suitable for converting a scene-based audio (SBA) input signal to an object-based audio (OBA) signal, is constructed so that the resulting OBA signal is composed of object signals with amplitudes that are biased according to amplitude preference coefficients. The amplitude preference coefficients are chosen to place dominant spatial audio objects in a fewer number of output object channels, to provide a more discrete OBA rendering of the SBA input signal.

Classes IPC  ?

  • H04S 3/02 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques du type matriciel, c. à d. dans lesquels les signaux d'entrée sont combinés algébriquement, p.ex. après avoir été déphasés les uns par rapport aux autres

3.

METHOD, APPARATUS, AND MEDIUM FOR ENCODING AND DECODING OF AUDIO BITSTREAMS AND ASSOCIATED RETURN CHANNEL INFORMATION

      
Numéro d'application US2023074348
Numéro de publication 2024/076830
Statut Délivré - en vigueur
Date de dépôt 2023-09-15
Date de publication 2024-04-11
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Cartwright, Richard J.
  • Kjörling, Kristofer
  • Eckert, Michael

Abrégé

A method, performed by a device with one or more microphones, for generating an encoded bitstream, the method comprising, capturing, by the one or more microphones, one or more audio signals, analyzing the captured audio signals to determine presence of a wake word, upon detecting presence of a wake word, setting a flag to indicate a speech recognition task is to be performed on the captured audio signals, encoding the captured audio signals, assembling the encoded audio signals and the flag into the encoded bitstream.

Classes IPC  ?

  • G10L 15/08 - Classement ou recherche de la parole
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G10L 15/30 - Reconnaissance distribuée, p.ex. dans les systèmes client-serveur, pour les applications en téléphonie mobile ou réseaux
  • G10L 25/18 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par le type de paramètres extraits les paramètres extraits étant l’information spectrale de chaque sous-bande
  • G10L 25/24 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par le type de paramètres extraits les paramètres extraits étant le cepstre

4.

METHODS, APPARATUS AND SYSTEMS FOR PERFORMING PERCEPTUALLY MOTIVATED GAIN CONTROL

      
Numéro d'application US2023073365
Numéro de publication 2024/076810
Statut Délivré - en vigueur
Date de dépôt 2023-09-01
Date de publication 2024-04-11
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Setiawan, Panji
  • Mcdonald, Benjamin Gilbert
  • Tyagi, Rishabh

Abrégé

Systems, methods, and computer program products for performing gain control on audio signals are provided. An automatic gain control system obtains a downmixed audio signal of an audio signal to be encoded. The system determines that an overload condition has occurred for a frame of the downmixed audio signal. Responsive to the overload condition, the system determines a gain transition function for the frame, wherein the gain transition function is based at least on a gain transition step size. The system applies the gain transition function to the frame to generate a gain adjusted frame of the downmixed audio signal. The system provides the gain adjusted frame and information indicative of the gain transition function for encoding by an encoder.

Classes IPC  ?

  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage

5.

METHOD, APPARATUS, AND MEDIUM FOR ENCODING AND DECODING OF AUDIO BITSTREAMS WITH PARAMETRIC FLEXIBLE RENDERING CONFIGURATION DATA

      
Numéro d'application US2023074310
Numéro de publication 2024/076828
Statut Délivré - en vigueur
Date de dépôt 2023-09-15
Date de publication 2024-04-11
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Kjoerling, Kristofer
  • Purnhagen, Heiko
  • Seefeldt, Alan J.
  • Lando, Joshua B.

Abrégé

A method for generating an encoded bitstream from an audio program comprising a plurality of audio signals, the method comprising receiving, for each of the plurality of audio signals, information indicating a playback device with which the respective audio signal is associated, receiving, for each playback device, information indicating at least one of a delay, a gain, and an equalization curve associated with the respective playback device, determining, from the plurality of audio signals, a group of two or more related audio signals, applying one or more joint-coding tools to the two or more related audio signals of the group to obtain jointly-coded audio signals, and combining the jointly-coded audio signals, an indication of the playback devices with which the jointly-coded audio signals are associated, and indications of the delay and the gain associated with the respective playback devices with which the jointly-coded audio signals are associated, into an independent block of an encoded bitstream.

Classes IPC  ?

  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage
  • G10L 19/16 - Architecture de vocodeur

6.

A METHOD, APPARATUS, AND MEDIUM FOR ENCODING AND DECODING OF AUDIO BITSTREAMS AND ASSOCIATED ECHO-REFERENCE SIGNALS

      
Numéro d'application US2023074317
Numéro de publication 2024/076829
Statut Délivré - en vigueur
Date de dépôt 2023-09-15
Date de publication 2024-04-11
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Kjörling, Kristofer
  • Purnhagen, Heiko
  • Gunawan, David
  • Southwell, Benjamin
  • Samuelsson, Leif

Abrégé

A method for generating a frame of an encoded bitstream of an audio program comprising a plurality of audio signals, wherein the frame comprises two or more independent blocks of encoded data, the method comprising receiving, for one or more of the plurality of audio signals, information indicating a playback device with which the one or more audio signals are associated, receiving, for the indicated playback device, information indicating one or more additional associated playback devices, receiving one or more audio signals associated with the indicated one or more additional associated playback devices, encoding the one or more audio signals associated with the playback device, encoding the one or more audio signals associated with the indicated one or more additional associated playback devices, combining the one or more encoded audio signals associated with the playback device and signaling information indicating the one or more additional associated playback devices into a first independent block, combining the one or more encoded audio signals associated with the one or more additional associated playback devices into one or more additional independent blocks, and combining the first independent block and the one or more additional independent blocks into the frame of the encoded bitstream.

Classes IPC  ?

  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage
  • G10L 19/16 - Architecture de vocodeur
  • H04S 3/00 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques

7.

NEURAL SEGMENTATION FIELDS FOR REPRESENTING THREE-DIMENSIONAL SCENES

      
Numéro d'application US2023073251
Numéro de publication 2024/073214
Statut Délivré - en vigueur
Date de dépôt 2023-08-31
Date de publication 2024-04-04
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Tu, Peihan
  • Huang, Tsung-Wei
  • Su, Guan-Ming

Abrégé

Methods and apparatus for rendering segmentation maps of a 3D scene using machine learning. According to an example embodiment, a method of training a neural network to render segmentation maps corresponding to arbitrarily selected views of a 3D scene comprises: computing color texture and volume density corresponding to a selected training view of the 3D scene, the computing being performed using a 3D representation pretrained to represent the 3D scene; generating a predicted segmentation map corresponding to the selected training view of the 3D scene, the generating being performed using the neural network based on said color texture and said volume density; and adjusting configuration parameters of network nodes of the neural network based on a loss function configured to receive, as a first input thereof, a ground-truth segmentation map corresponding to the selected training view and further configured to receive, as a second input thereof, the predicted segmentation map.

Classes IPC  ?

8.

SINGLE CHANNEL ENCODING INTO A MULTI-CHANNEL CONTAINER FOLLOWED BY IMAGE COMPRESSION

      
Numéro d'application US2023032786
Numéro de publication 2024/064014
Statut Délivré - en vigueur
Date de dépôt 2023-09-14
Date de publication 2024-03-28
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Ten, Arkady

Abrégé

Coding methods and apparatus for packing single-channel data into a multi-channel container, e.g., an MP4, TIFF, or JPEG container, to at least achieve good utilization of the container's data capacity. In some examples, a coding method comprises: converting a plurality of scalar values of a received data stream into a corresponding plurality of n-dimensional values, the converting being performed using a mapper; assigning each of the n-dimensional values as a pixel value to a respective pixel of a virtual-image frame, where n is an integer greater than one; and compressing the virtual-image frame according to a type of a container for image data. The mapper is configured to map a scalar value to a corresponding n-dimensional value based on a relationship represented by an n-dimensional curve or by a plurality of 2n-way tree partitions of n-dimensional space.

Classes IPC  ?

  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo
  • H04N 19/88 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo mettant en œuvre la réorganisation de données entre différentes unités de codage, p.ex. redistribution, entrelacement, brouillage ou permutation de données de pixel ou permutation de données de coefficients de transformée entre différents blocs
  • H04N 19/90 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant des techniques de codage non prévues dans les groupes , p.ex. les fractales
  • G06T 9/00 - Codage d'image
  • H04N 13/161 - Encodage, multiplexage ou démultiplexage de différentes composantes des signaux d’images

9.

HEAD-TRACKED SPLIT RENDERING AND HEAD-RELATED TRANSFER FUNCTION PERSONALIZATION

      
Numéro d'application US2023073857
Numéro de publication 2024/059505
Statut Délivré - en vigueur
Date de dépôt 2023-09-11
Date de publication 2024-03-21
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Bruhn, Stefan
  • Tyagi, Rishabh

Abrégé

Systems, methods and computer program products for direction of arrival (DOA) based head-tracked split rendering and head-related transfer function (HRTF) personalization are described. Head-tracked audio rendering is split between two devices. A first device receives a main bitstream representation of encoded audio. A second device tracks head pose information. The first device decodes the main bitstream using a main decoder, and encodes the decoded bitstream into pre-rendered binaural signals and post-render metadata. The second device decodes the pre-rendered binaural signals and post-renderer metadata from the intermediate bitstream, and provides the decoded pre-rendered binaural signals and post-renderer metadata to a lightweight renderer. The lightweight renderer renders the pre-rendered binaural signals into binaural audio based on the post-renderer metadata, the head pose information, generic HRTF, and personalized HRTF.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

10.

SYNCHRONIZATION OF HEAD TRACKING DATA

      
Numéro d'application US2023073623
Numéro de publication 2024/059458
Statut Délivré - en vigueur
Date de dépôt 2023-09-07
Date de publication 2024-03-21
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Yu, Xuemei
  • Luo, Libin
  • Liu, Zhifang

Abrégé

Methods, systems, and media for utilizing head tracking data are provided. In some embodiments, a method involves receiving, at each earbud of a pair of communicatively coupled earbuds, sensor data from one or more sensors. The method may involve determining, at each earbud of the pair of communicatively coupled earbuds, head orientation information. The method may involve transmitting the determined head orientation information between the pair of communicatively coupled earbuds such that a leader earbud transmits head orientation information determined by the leader earbud to a follower earbud. The method may involve synchronizing, at each earbud, the determined head orientation data based at least in part on timing information associated with a timestamp at which the head orientation information was transmitted. The method may involve utilizing the synchronized head orientation data to present audio content by each earbud of the pair of communicatively coupled earbuds.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage
  • H04R 1/10 - Ecouteurs; Leurs fixations

11.

AUDIO-VISUAL ANALYTIC FOR OBJECT RENDERING IN CAPTURE

      
Numéro d'application US2023073930
Numéro de publication 2024/059536
Statut Délivré - en vigueur
Date de dépôt 2023-09-12
Date de publication 2024-03-21
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Sun, Jundai
  • Fanelli, Andrea
  • Shuang, Zhiwei

Abrégé

A system and method for the generation of automatic audio-visual analytics for object rendering in capture. One example provides a method of processing audiovisual content. The method includes receiving content including a plurality of audio frames and a plurality of video frames, classifying each of the plurality of audio frames into a plurality of audio classifications, and classifying each of the plurality of video frames into a plurality of video classifications. The method includes processing the plurality of audio frames based on the respective audio classifications and processing the plurality of video frames based on the respective video classifications. Each audio classification is processed with a different audio processing operation, and each video classification is processed with a different video processing operation. The method includes generating an audio/video representation of the content by merging the processed plurality of audio frames and the processed plurality of video frames.

Classes IPC  ?

  • H04N 21/233 - Traitement de flux audio élémentaires
  • H04N 5/14 - Circuits de signal d'image pour le domaine des fréquences vidéo
  • H04N 21/234 - Traitement de flux vidéo élémentaires, p.ex. raccordement de flux vidéo ou transformation de graphes de scènes MPEG-4
  • H04N 21/439 - Traitement de flux audio élémentaires
  • H04N 21/44 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4

12.

TILTED SLOT WAVEGUIDE

      
Numéro d'application US2023072806
Numéro de publication 2024/054760
Statut Délivré - en vigueur
Date de dépôt 2023-08-24
Date de publication 2024-03-14
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Griffiths, Kelvin, Francis
  • Smithers, Michael, J.

Abrégé

A loudspeaker assembly including a wedge-shaped acoustic waveguide and an audio driver. The wedge-shaped acoustic waveguide includes a first face including a slot opening formed therein, a second face joined at an edge with the first face, the second face tilted relative to the first face by a first angle, and a surface disposed opposite the edge and connected between the first face and the second face. The audio driver is coupled to the second face such that the audio driver is tilted at the first angle relative to the first face. The first face is oriented to face in a first direction and the audio driver is oriented to face in a second direction. A pressure level of sound energy emitted by the audio driver is greater along the second direction than the first direction. A vehicle comprising: a passenger cabin, a pillar extending upwards at a first angle relative to the passenger cabin, and the loudspeaker assembly installed on the pillar.

Classes IPC  ?

  • H04R 1/34 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en utilisant un seul transducteur avec des moyens réfléchissant, diffractant, dirigeant ou guidant des sons
  • B60R 11/02 - Autres aménagements pour tenir ou monter des objets pour postes radio, de télévision, téléphones, ou objets similaires; Disposition de leur commande

13.

PIXEL SHIFTING METHODS IN PROJECTION SYSTEMS

      
Numéro d'application US2023073288
Numéro de publication 2024/054778
Statut Délivré - en vigueur
Date de dépôt 2023-09-01
Date de publication 2024-03-14
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Orlick, Christopher John
  • Miller, Jon Scott

Abrégé

A projection system for pixel shifting comprising a light source configured to emit light and a spatial light modulator configured to receive the light and generate a modulated light. The spatial light modulator includes a plurality of micromirrors. The projection system includes a wobulation device configured to shift the modulated light by fractional pixels. The projection system includes a controller configured to, for each of a plurality of subperiods, control the light source to emit the light onto the spatial light modulator, and between each of the plurality of subperiods and with the wobulation device, shift the modulated light by a partial pixel distance greater than a half-pixel distance.

Classes IPC  ?

  • H04N 9/31 - Dispositifs de projection pour la présentation d'images en couleurs
  • H04N 5/74 - Dispositifs de projection pour reproduction d'image, p.ex. eidophor
  • G02B 26/08 - Dispositifs ou dispositions optiques pour la commande de la lumière utilisant des éléments optiques mobiles ou déformables pour commander la direction de la lumière
  • G03B 21/00 - Projecteurs ou visionneuses du type par projection; Leurs accessoires
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G02B 27/42 - Optique de diffraction
  • G02B 27/46 - Systèmes utilisant des filtres spatiaux
  • G03B 21/20 - Boîtes à lumière

14.

SCALABLE 3D SCENE REPRESENTATION USING NEURAL FIELD MODELING

      
Numéro d'application US2023073486
Numéro de publication 2024/054804
Statut Délivré - en vigueur
Date de dépôt 2023-09-05
Date de publication 2024-03-14
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Yin, Peng
  • Choudhury, Anustup Kumar Atanu
  • Lu, Taoran

Abrégé

Methods, systems, and bitstream syntax are described for a scalable 3D scene representation. A general framework presents a dual-layer architecture where a base layer provides a baseline scene representation, and an enhancement layer provides enhancement information under a variety of scalability criteria. The enhancement information is coded using a trained neural field. Example systems are provided using a PSNR criterion and a baseline multi-plane image (MPI) representation. Examples of bitstream syntax for metadata information are also provided.

Classes IPC  ?

  • H04N 19/30 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant des techniques hiérarchiques, p.ex. l'échelonnage
  • H04N 19/46 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression
  • H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues

15.

SYSTEM AND METHOD FOR EVALUATION OF AN AUDIO SIGNAL PROCESSING ALGORITHM

      
Numéro d'application US2023030922
Numéro de publication 2024/044246
Statut Délivré - en vigueur
Date de dépôt 2023-08-23
Date de publication 2024-02-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Liu, Yifei
  • Li, Kai
  • Guo, Yanmeng

Abrégé

The present disclose related to a system (1) and method for evaluating the performance of an audio processing scheme. The system (1) comprises an acoustic feature extractor (10A, 10B), configured to receive a plurality of segment pairs, each segment pair comprising a segment (101) and a processed segment (201). The acoustic feature extractor (10A, 10B) determines an acoustic feature associated with each segment and the system (1) further comprises an event detector (11), configured to receive the at least one acoustic feature of each segment (101, 201) and determine, for each segment pair and acoustic feature, if a difference between the acoustic feature of the segment and processed segment exceeds an event threshold. The system also comprises an event analyzer (12), configured to determine a performance metric based on each segment pair associated with a difference exceeding the event threshold.

Classes IPC  ?

  • G10L 25/60 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour mesurer la qualité des signaux de voix
  • G10L 25/27 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse

16.

AUDIO OBJECT SEPARATION AND PROCESSING AUDIO

      
Numéro d'application US2023072443
Numéro de publication 2024/044502
Statut Délivré - en vigueur
Date de dépôt 2023-08-18
Date de publication 2024-02-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Sun, Jundai
  • Shuang, Zhiwei
  • Ma, Yuanxing

Abrégé

Disclosed is a method for separating audio objects in a mixed audio signal, the mixed audio signal comprising a plurality of audio objects. Further disclosed is a computer-implemented method for training a sparse audio object separation model and a method for separating a sparse audio object from a mixed audio signal, the mixed audio signal comprising at least a sparse audio object, a non-sparse audio object, and at least one further audio object. Further disclosed is a computer-implemented method for processing audio based on a signal-to-noise ratio, SNR and a computer-implemented method for processing audio based on a scene environment classification. Disclosed is a non-transitory computer-readable medium and a system configured to perform one or more of the methods.

Classes IPC  ?

  • G10L 21/028 - Séparation du signal de voix utilisant les propriétés des sources sonores
  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage
  • G06N 3/08 - Méthodes d'apprentissage

17.

RENDERING AUDIO CAPTURED WITH MULTIPLE DEVICES

      
Numéro d'application US2023030652
Numéro de publication 2024/044113
Statut Délivré - en vigueur
Date de dépôt 2023-08-21
Date de publication 2024-02-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ma, Yuanxing
  • Shuang, Zhiwei
  • Liu, Yang

Abrégé

A method of audio processing includes receiving user-generated content having two audio sources, extracting audio objects and a residual signal, adjusting the audio objects and the residual signal according to the listener's head movements, and mixing the adjusted audio signals to generate a binaural audio signal. In this manner, the binaural signal adjusts according to the listener's head movements without requiring perfect audio objects.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

18.

SMART DIALOGUE ENHANCEMENT BASED ON NON-ACOUSTIC MOBILE SENSOR INFORMATION

      
Numéro d'application US2023072418
Numéro de publication 2024/044499
Statut Délivré - en vigueur
Date de dépôt 2023-08-17
Date de publication 2024-02-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Li, Kai
  • Luo, Libin

Abrégé

Described herein is a method of performing environment-aware processing of audio data for a mobile device. In particular, the method may comprise obtaining non-acoustic sensor information of the mobile device. The method may further comprise determining scene information indicative of an environment of the mobile device based on the non-acoustic sensor information. The method may yet further comprise performing audio processing of the audio data based on the determined scene information.

Classes IPC  ?

19.

PROCESSING STREAMING DATA

      
Numéro d'application US2023072614
Numéro de publication 2024/044565
Statut Délivré - en vigueur
Date de dépôt 2023-08-22
Date de publication 2024-02-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ma, Jianbo
  • Cartwright, Richard J.
  • Chandran, Deepak
  • Nosrati, Hadis

Abrégé

Disclosed herein are techniques for processing streaming data. In some embodiments, the techniques involve obtaining input data representative of a frame of streaming data. The techniques may involve identifying a query transformation, a key transformation, and a value transformation based on the input data. The techniques may involve updating a query buffer, a key buffer, and a value buffer, such that the buffers are each configured to store parameters associated with previous frames of streaming data and the frame of streaming data. The techniques may involve retrieving one or more query frames from the query buffer. The techniques may involve determining a dot product of the query frames and frames in the key buffer to determine a set of weights. The techniques may involve determining a weighted sum between the set of weights and frames in the value buffer, and utilizing the weighted sum to generate a streaming attention vector.

Classes IPC  ?

  • G10L 15/28 - Reconnaissance de la parole - Détails de structure des systèmes de reconnaissance de la parole
  • G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels
  • G06N 3/045 - Combinaisons de réseaux

20.

METHODS, DEVICES AND SYSTEMS FOR IMPLEMENTING PINNED-STATE CONNECTIONIST SEQUENTIAL CLASSIFICATION

      
Numéro d'application US2023072648
Numéro de publication 2024/044586
Statut Délivré - en vigueur
Date de dépôt 2023-08-22
Date de publication 2024-02-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ma, Jianbo
  • Nosrati, Hadis

Abrégé

Some disclosed methods involve: receiving an observation sequence including a plurality of extracted features, each of which corresponds to a sequential signal of a sequence of sequential signals; determining a lattice of posterior possibilities, the lattice including a possibility of each observation sequence corresponding to one label class of a plurality of label classes; and applying a loss function to the lattice of posterior possibilities according to ground truth values, where applying the loss function involves applying both sequential information and cluster boundary information. Some methods involve updating parameters for determining the lattice according to losses determined by the loss function and performing the foregoing operations until one or more convergence criteria are met.

Classes IPC  ?

  • G06N 3/09 - Apprentissage supervisé
  • G06N 3/047 - Réseaux probabilistes ou stochastiques
  • G06N 3/049 - Réseaux neuronaux temporels, p.ex. éléments à retard, neurones oscillants ou entrées impulsionnelles

21.

SPATIAL ENHANCEMENT FOR USER-GENERATED CONTENT

      
Numéro d'application US2023071791
Numéro de publication 2024/036113
Statut Délivré - en vigueur
Date de dépôt 2023-08-07
Date de publication 2024-02-15
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ma, Yuanxing
  • Shuang, Zhiwei
  • Liu, Yang

Abrégé

Methods, systems, and media for enhancing audio content are provided. In some embodiments, a method for enhancing audio content involves receiving a multi-channel audio signal from a first audio capture device and a binaural audio signal from a second audio capture device. The method may further involve extracting one or more objects from the multi-channel audio signal. The method may further involve generating a spatial enhancement mask based on spatial information associated with the one or more objects. The method may further involve applying the spatial enhancement mask to the binaural audio signal to enhance spatial characteristics of the binaural audio signal to generate an enhanced binaural audio signal. The method may further involve generating output binaural audio signal based on the enhanced binaural audio signal.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

22.

STATISTICAL AUDIOGRAM PROCESSING

      
Numéro d'application US2023028941
Numéro de publication 2024/030337
Statut Délivré - en vigueur
Date de dépôt 2023-07-28
Date de publication 2024-02-08
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Esten, Ian Eric
  • Breebaart, Dirk Jeroen

Abrégé

Techniques and corresponding systems for estimating an audiogram for a user of a media playback device including obtaining user hearing threshold data for the user, sample hearing threshold data, at least one of sample calibration data and sample noise data, and determining an estimate of the audiogram for the user based on such data. Related techniques for estimating calibration data for a media playback device, as well as corresponding computing apparatus, computer programs, and computer-readable storage media are also described.

Classes IPC  ?

  • A61B 5/12 - Audiométrie
  • A61B 5/00 - Mesure servant à établir un diagnostic ; Identification des individus

23.

DEEP LEARNING BASED MITIGATION OF AUDIO ARTIFACTS

      
Numéro d'application US2023028943
Numéro de publication 2024/030338
Statut Délivré - en vigueur
Date de dépôt 2023-07-28
Date de publication 2024-02-08
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Dai, Jia
  • Li, Kai
  • Liu, Xiaoyu

Abrégé

A system is programmed to build a machine learning model that comprises a series of masking blocks. Each masking block receives a certain feature vector of an audio segment. Each masking block comprises a first component that generates a first mask for extracting clean speech and a second component that generates a second mask for extracting residual speech masked by the first mask. Each masking block also generates a specific feature vector based on the first mask and the second mask, which becomes the certain feature vector for the next masking block. The second component, which may comprise a gated recurrent unit layer, is computationally less complex than the first component, which may comprise multiple convolutional layers. Furthermore, the system is programmed to receive an input feature vector of an input audio segment and execute the machine learning model to obtain an output feature vector of an output audio segment.

Classes IPC  ?

24.

SPATIAL AUDIO RENDERING ADAPTIVE TO SIGNAL LEVEL AND LOUDSPEAKER PLAYBACK LIMIT THRESHOLDS

      
Numéro d'application US2023028378
Numéro de publication 2024/025803
Statut Délivré - en vigueur
Date de dépôt 2023-07-21
Date de publication 2024-02-01
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Seefeldt, Alan J.
  • Lando, Joshua B.
  • Port, Timothy Alan

Abrégé

Rendering audio signals may involve a mapping for each audio signal to the loudspeaker signals computed as a function of an audio signal's intended perceived spatial position, physical positions associated with the loudspeakers and a time- and frequency-varying representation of loudspeaker signal level relative to a maximum playback limit of each loudspeaker. Each mapping may be computed to approximately achieve the intended perceived spatial position of an associated audio signal when the loudspeaker signals are played back. A representation of loudspeaker signal level relative to a maximum playback limit may be computed for each audio signal. The mapping of an audio signal into a particular loudspeaker signal may be reduced as loudspeaker signal level relative to a maximum playback limit increases above a threshold, while the mapping may be increased into one or more other loudspeakers for which the maximum playback limits are less than a threshold.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

25.

MULTIPLE-INTENT COMPOSITE IMAGE ENCODING AND RENDERING

      
Numéro d'application US2023070361
Numéro de publication 2024/020356
Statut Délivré - en vigueur
Date de dépôt 2023-07-18
Date de publication 2024-01-25
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Atkins, Robin
  • Pytlarz, Jaclyn Anne
  • Zuena, Jake William

Abrégé

Techniques for multiple-intent composite image encoding and rendering are disclosed. The techniques can include obtaining a set of constituent images for a composite image, determining a common rendering intent to be applied to the set of constituent images, adjusting one or more of the set of constituent images according to the common rendering intent, resulting in an adjusted set of constituent images, creating the composite image based on the adjusted set of constituent images, generating metadata characterizing the common rendering intent, and encoding the composite image and the metadata to create an encoded multiple-intent composite image.

Classes IPC  ?

  • H04N 19/46 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression
  • H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo
  • G06T 11/60 - Edition de figures et de texte; Combinaison de figures ou de texte

26.

COLOR-GRADING CONTENT BASED ON SIMILARITY TO EXEMPLARS

      
Numéro d'application US2023070581
Numéro de publication 2024/020482
Statut Délivré - en vigueur
Date de dépôt 2023-07-20
Date de publication 2024-01-25
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Ward, Gregory John

Abrégé

Systems and methods for color grading of images and video based on similarity to exemplars. In preparation for color-grading new content, exemplar frames related to the expected new content may be obtained and color grading parameters for the exemplar frames may be obtained. To color grade the new content as it is created or received, similarities between frames of the new content and the exemplar frames may be determined. The similarities between frames of the new content and the exemplar frames may be determined may be combined with the obtained color-grading parameters from the exemplar frames to determine suitable color-grading parameters to apply to the new content. The new content may then be color-graded using the determined color-grading parameters.

Classes IPC  ?

  • H04N 9/64 - Circuits pour le traitement de signaux de couleur
  • H04N 9/77 - Circuits pour le traitement l'un par rapport à l'autre des signaux de luminance et de chrominance, p.ex. ajustement de la phase du signal de luminance par rapport au signal de couleur, correction différentielle du gain ou de la phase

27.

LOOP FILTERING USING NEURAL NETWORKS

      
Numéro d'application US2023026238
Numéro de publication 2024/010710
Statut Délivré - en vigueur
Date de dépôt 2023-06-26
Date de publication 2024-01-11
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Shingala, Jay Nitin
  • Kadaramandalgi, Shireesh Vaman
  • Shyam, Ajay
  • Shao, Tong
  • Arora, Arjun
  • Yin, Peng
  • Badya, Siddarth Prakash
  • Suneja, Ajat

Abrégé

Methods, systems, bitstream syntax, and fixed-point implementations are described for loop filtering using neural networks in image and video processing. Given an input image, a hybrid luma-chroma filter is proposed, wherein luma and chroma components are first processed by a first neural network and the output of the first network is subsequently processed by separate luma and chroma subnetworks. Finally, the outputs of the separate luma and chroma subnetworks are concatenated to generate the filtered output of the input image. Computational efficient methods using CP-decomposition are also described. Methods indicating the position of the neural-net loop filter relatively to other filters, such as the adaptive loop filter (ALF) are also discussed.

Classes IPC  ?

  • H04N 19/82 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques - Détails des opérations de filtrage spécialement adaptées à la compression vidéo, p.ex. pour l'interpolation de pixels mettant en œuvre le filtrage dans une boucle de prédiction

28.

INTER CODING USING DEEP LEARNING IN VIDEO COMPRESSION

      
Numéro d'application US2023026132
Numéro de publication 2024/006167
Statut Délivré - en vigueur
Date de dépôt 2023-06-23
Date de publication 2024-01-04
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Shingala, Jay Nitin
  • Mohananchettiar, Arunkumar
  • Sharma, Pankaj
  • Arora, Arjun
  • Shao, Tong
  • Yin, Peng

Abrégé

Methods, systems, and bitstream syntax are described for inter-frame coding using end-to-end neural networks used in image and video compression. Inter-frame coding methods include one or more of: joint luma-chroma motion compensation for YUV pictures, joint luma-chroma residual coding for YUV pictures, using attention layers, enabling temporal motion prediction networks for motion vector prediction, using a cross-domain network which combines motion vector and residue information for motion vectors decoding, using the cross-domain network for decoding residuals, using weighted motion-compensated inter prediction, and using temporal only, spatial only, or both temporal and spatial features in entropy decoding. Methods to improve training of neural networks for inter-frame coding are also described.

Classes IPC  ?

  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression
  • H04N 19/90 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant des techniques de codage non prévues dans les groupes , p.ex. les fractales
  • G06N 3/0455 - Réseaux auto-encodeurs; Réseaux encodeurs-décodeurs
  • G06N 3/0464 - Réseaux convolutifs [CNN, ConvNet]

29.

SEPARATION AND RENDERING OF HEIGHT OBJECTS

      
Numéro d'application US2023068969
Numéro de publication 2024/006671
Statut Délivré - en vigueur
Date de dépôt 2023-06-23
Date de publication 2024-01-04
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Shuang, Zhiwei
  • Ma, Yuanxing
  • Sun, Jundai
  • Liu, Yang
  • Yang, Ziyu

Abrégé

The present disclosure relates to a method and system for processing audio, as well as a computer program product comprising instructions which, when the program is executed by a computer, causes the computer to carry out the method. The method comprises obtaining an input audio signal and processing the input audio signal to extract a height audio object from the input audio signal, wherein the height audio object is extracted using a source separation module configured to extract an audio object of a predetermined height audio source type. The method further comprises rendering the input audio signal to a multi-channel presentation such that the at least one height audio object is included in at least one height channel of the multi-channel presentation.

Classes IPC  ?

  • H04S 5/00 - Systèmes pseudo-stéréophoniques, p.ex. dans lesquels les signaux d'un canal supplémentaire sont dérivés du signal monophonique par déphasage, retardement ou réverbération

30.

AUDIO DE-REVERBERATION

      
Numéro d'application US2023069195
Numéro de publication 2024/006778
Statut Délivré - en vigueur
Date de dépôt 2023-06-27
Date de publication 2024-01-04
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Dai, Jia
  • Li, Kai

Abrégé

elsdd. With the proposed approach, a "soft" separation of the real AIR into an early AIR and a late AIR. Specifically, the early AIR will decay to zero during a transition period d, while the late AIR will gradually increase from zero during the transition period. The sum of the early AIR and late AIR will still be equal to the real AIR.

Classes IPC  ?

  • G10L 21/0208 - Filtration du bruit
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage
  • G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux

31.

ENHANCEMENT OF TEXTURE AND ALPHA CHANNELS IN MULTIPLANE IMAGES

      
Numéro d'application US2023069096
Numéro de publication 2024/006710
Statut Délivré - en vigueur
Date de dépôt 2023-06-26
Date de publication 2024-01-04
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Yin, Peng

Abrégé

Image-processing technique directed at improving the quality of viewable images generated by rendering a multiplane image having a plurality of pixels and represented by a plurality of layers corresponding to different respective distances from the reference camera position. In an example embodiment, the image-processing technique includes one or more of the following operations: (A) for a first set of pixels, scaling respective weights of the layers to cause a sum of the scaled weights to be normalized to one; (B) for a second set of pixels, replacing respective alpha and texture values in the layers by the corresponding local average values; and (C) for a third set of pixels, scaling corresponding texture values in the layers such that, for the resulting viewable image rendered for the reference camera position, texture values of the third set match the respective texture values of the source image captured from the reference camera position.

Classes IPC  ?

32.

SPEECH ENHANCEMENT AND INTERFERENCE SUPPRESSION

      
Numéro d'application US2023025770
Numéro de publication 2023/249957
Statut Délivré - en vigueur
Date de dépôt 2023-06-20
Date de publication 2023-12-28
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Wang, Ning

Abrégé

Methods, systems, and media for processing audio are provided. In some embodiments, a method involves receiving, from a plurality of microphones, an input audio signal. The method may involve identifying an angle of arrival associated with the input audio signal. The method may involve determining a plurality of gains corresponding to a plurality of bands of the input audio signal based on a combination of at least: 1) a representation of a covariance of signals associated with microphones of the plurality of microphones on a per-band basis; and 2) the angle of arrival. The method may involve applying the plurality of gains to the plurality of bands of the input audio signal such that at least a portion of the input audio signal is suppressed to form an enhanced audio signal.

Classes IPC  ?

  • G10L 21/0264 - Filtration du bruit caractérisée par le type de mesure du paramètre, p.ex. techniques de corrélation, techniques de passage par zéro ou techniques prédictives
  • G10L 21/0216 - Filtration du bruit caractérisée par le procédé d’estimation du bruit

33.

VIDEO DELIVERY SYSTEM CAPABLE OF DYNAMIC-RANGE CHANGES

      
Numéro d'application US2023025215
Numéro de publication 2023/244616
Statut Délivré - en vigueur
Date de dépôt 2023-06-13
Date de publication 2023-12-21
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Huang, Tsung-Wei
  • Su, Guan-Ming

Abrégé

A video delivery system comprising: a memory to store a plurality of chroma-offset values corresponding to grid points of a five-dimensional grid; and a processor to convert a input SDR image into a corresponding HDR output image, the processor being configured to: generate an intermediate HDR image by reshaping the input image, the reshaping being performed using a reshaping-function index map having, for each pixel of the intermediate image, a respective index identifying a corresponding reshaping function applied to the pixel; estimate a display-management metadata value corresponding to the intermediate image; and generate the output image by applying a respective chroma offset to each pixel of the intermediate image, the respective chroma offset being determined from the plurality of chroma-offset values by addressing the grid points using the respective index, the display-management metadata value, and three respective pixel values of a corresponding pixel of the input image.

Classes IPC  ?

  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance
  • G06T 5/00 - Amélioration ou restauration d'image
  • G09G 5/10 - Circuits d'intensité
  • H04N 19/46 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression
  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo
  • H04N 19/98 - Codage de plage-dynamique adaptative [ADRC]

34.

NON-PLANAR BEAMFORMED LOUDSPEAKER FOR DISPLAY DEVICES

      
Numéro d'application US2023068576
Numéro de publication 2023/245164
Statut Délivré - en vigueur
Date de dépôt 2023-06-16
Date de publication 2023-12-21
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Jancovich, Benjamin Alexander
  • Miller, Lane Patrick
  • Griffiths, Kelvin Francis

Abrégé

A display device including a first surface that supports a display and a second surface disposed opposite to first surface. A first speaker module is supported by the second surface and includes a first speaker arranged to face in a first direction relative to the display device and a second speaker arranged to face in a second direction relative to the display device, the second direction being different than the first direction. A second speaker module is supported by the rear surface and includes a third speaker arranged to face in the first direction and a fourth speaker arranged to face in the second direction. Sound energy emitted by the first and second speaker modules is beamformed by filters that were designed in consideration of the effects of sound reflection off surfaces adjacent to the display device.

Classes IPC  ?

  • H04R 3/12 - Circuits pour transducteurs pour distribuer des signaux à plusieurs haut-parleurs
  • H04R 5/02 - Dispositions spatiales ou structurelles de haut-parleurs

35.

IMMERSIVE AUDIO FADING

      
Numéro d'application US2023024425
Numéro de publication 2023/239639
Statut Délivré - en vigueur
Date de dépôt 2023-06-05
Date de publication 2023-12-14
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Brown, C. Phillip
  • Smithers, Michael J.
  • Mandell, Douglas E.

Abrégé

Enclosed are embodiments for immersive audio fading. In some embodiments, a method comprises: receiving object-based audio and metadata; rendering the object-based audio into a multichannel audio presentation for a first loudspeaker layout based on the metadata determining a first mix based on the multichannel audio presentation and a second loudspeaker layout associated with the vehicle; generating first loudspeaker signals based on the first mix for playback through loudspeakers in the second loudspeaker layout; receiving input; determining a second mix different from the first mix based on the multichannel audio presentation and the input; and generating second loudspeaker signals based on the second mix for playback through the loudspeakers in the second loudspeaker layout.

Classes IPC  ?

  • H04S 3/02 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques du type matriciel, c. à d. dans lesquels les signaux d'entrée sont combinés algébriquement, p.ex. après avoir été déphasés les uns par rapport aux autres
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

36.

NEUTRAL COLOR PRESERVATION FOR SINGLE-LAYER BACKWARD COMPATIBLE CODEC

      
Numéro d'application US2023022581
Numéro de publication 2023/229898
Statut Délivré - en vigueur
Date de dépôt 2023-05-17
Date de publication 2023-11-30
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Huang, Tsung-Wei

Abrégé

Novel methods and systems for processing a single-layer backward compatible codec with multiple-channel multiple regression coefficients either provided in or pointed to in metadata such that the coefficients have been biased to prevent a shift in neutral colors. Pseudo neutral color patches are used along with a saturation weighting factor to bias the coefficients.

Classes IPC  ?

  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance
  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo
  • H04N 19/98 - Codage de plage-dynamique adaptative [ADRC]
  • H04N 19/30 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant des techniques hiérarchiques, p.ex. l'échelonnage

37.

VIDEOCONFERENCING BOOTH

      
Numéro d'application US2023023372
Numéro de publication 2023/230139
Statut Délivré - en vigueur
Date de dépôt 2023-05-24
Date de publication 2023-11-30
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ward, Gregory John
  • Devine, Titus Marc

Abrégé

A videoconferencing booth (100) and operating method therefor. The videoconferencing booth (100) comprises a tracking system (106), a stereoscopic projector (104), a first actuator (114) configured to translate the stereoscopic projector (104), an image sensor arrangement (108), a second actuator (118) configured to translate the image sensor arrangement (108), and a controller (202). The controller (202) is configured to obtain a first stream of first positions from the tracking system (106), transmit commands to the first actuator (114) to adjust the position of the stereoscopic projector (104) based on the first stream of first positions, and transmit the first stream of first positions to a remote videoconferencing booth. The controller (202) is further configured to receive, from the remote videoconferencing booth, a second stream of second positions and transmit commands to the second actuator (118) to adjust the position of the image sensor arrangement (108) based on the second stream of second positions.

Classes IPC  ?

  • H04N 7/14 - Systèmes à deux voies
  • H04N 13/363 - Reproducteurs d’images utilisant des écrans de projection
  • H04N 13/366 - Suivi des spectateurs
  • H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire

38.

OPTICAL ARCHITECTURE FOR BEAM-STEERING PROJECTORS

      
Numéro d'application US2023023345
Numéro de publication 2023/230126
Statut Délivré - en vigueur
Date de dépôt 2023-05-24
Date de publication 2023-11-30
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Pertierra, Juan Pablo
  • Le Barbenchon, Clement Luc Carol
  • Pires Arrifano, Angelo Miguel
  • Dewald, Duane Scott

Abrégé

A beam-steering projection system includes a light source configured to emit a light in response to image signal, a phase light modulator, and a spatial light modulator. The phase light modulator is configured to receive the light from the light source and to apply a spatially-varying phase modulation on the light, thereby to steer the light at an illumination angle and generate a first steered light. The spatial light modulator is configured to receive the first steered light, to apply a spatially-varying amplitude modulation on the light, to steer the light towards a projection optics system and to generate a second steered light. A plane of a secondary image constructed after the phase light modulator and before the spatial light modulator is parallel with the phase light modulator.

Classes IPC  ?

  • G02B 26/06 - Dispositifs ou dispositions optiques pour la commande de la lumière utilisant des éléments optiques mobiles ou déformables pour commander la phase de la lumière
  • G02B 26/08 - Dispositifs ou dispositions optiques pour la commande de la lumière utilisant des éléments optiques mobiles ou déformables pour commander la direction de la lumière
  • H04N 9/31 - Dispositifs de projection pour la présentation d'images en couleurs

39.

TRIM PASS METADATA PREDICTION IN VIDEO SEQUENCES USING NEURAL NETWORKS

      
Numéro d'application US2023022250
Numéro de publication 2023/224917
Statut Délivré - en vigueur
Date de dépôt 2023-05-15
Date de publication 2023-11-23
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Musunuri, Sri Harsha
  • Rotti, Shruthi Suresh
  • Choudhury, Anustup Kumar Atanu

Abrégé

Methods and systems for generating trim-pass metadata for high dynamic range (HDR) video are described. The trim-pass prediction pipeline includes a feature extraction network followed by a fully connected network which maps extracted features to trim-pass values. In a first architecture, the feature extraction network is based on four cascaded convolutional networks. In a second architecture, the feature extraction network is based on a modified MobileNetV3 neural network. In both architectures, the fully connected network is formed by a set of three linear networks, each set customized to best match its corresponding feature extraction network.

Classes IPC  ?

  • G11B 27/031 - Montage électronique de signaux d'information analogiques numérisés, p.ex. de signaux audio, vidéo
  • G06T 5/00 - Amélioration ou restauration d'image

40.

PROJECTOR LENS APERTURES FOR PROJECTION SYSTEMS

      
Numéro d'application US2023021383
Numéro de publication 2023/219961
Statut Délivré - en vigueur
Date de dépôt 2023-05-08
Date de publication 2023-11-16
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Dewald, Duane Scott
  • Jackson, John David

Abrégé

Projection lens apertures for laser-based image projection systems (100). One embodiment provides a projection lens assembly (112) for a projector system (100). The projection lens assembly (112) includes an aperture (1200, 1300, 1800, 1900) integrated within the projection lens assembly and configured to block a portion of incident light. The aperture includes an aperture hole (1205, 1305, 1805, 1905) composed of at least three edges (1215, 1315,1815, 1915) and a plurality of vertices (1210, 1310, 1810, 1910). The at least three edges are curved relative to a center of the aperture hole.

Classes IPC  ?

  • G02B 5/00 - OPTIQUE ÉLÉMENTS, SYSTÈMES OU APPAREILS OPTIQUES Éléments optiques autres que les lentilles
  • G02B 26/08 - Dispositifs ou dispositions optiques pour la commande de la lumière utilisant des éléments optiques mobiles ou déformables pour commander la direction de la lumière
  • G03B 21/00 - Projecteurs ou visionneuses du type par projection; Leurs accessoires
  • G03B 21/14 - Projecteurs ou visionneuses du type par projection; Leurs accessoires - Détails
  • H04N 9/31 - Dispositifs de projection pour la présentation d'images en couleurs

41.

FAST OPTO-MECHANICAL ATTENUATOR FOR HIGH-POWER PROJECTOR SYSTEMS

      
Numéro d'application US2023019118
Numéro de publication 2023/219766
Statut Délivré - en vigueur
Date de dépôt 2023-04-19
Date de publication 2023-11-16
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Arntsen, John Frederick
  • Lippey, Barret
  • Pertierra, Juan Pablo
  • Richards, Martin J.
  • Jackson, John David

Abrégé

A projector system including: an opto-mechanical attenuator configured to variably attenuate source light directed to an optical output thereof; an optical modulator configured to generate spatially modulated light by modulating illumination light received from the optical output, said modulating being performed in accordance with image data representing a sequence of image frames, each of the image frames having a constant time duration; and optics configured to optically couple the optical output to the optical modulator and further configured to project the spatially modulated light, thereby projecting the sequence of image frames. The opto-mechanical attenuator is configured to change an optical power of the illumination light from a first fixed power level to a second fixed power level in a time shorter than the constant time duration.

Classes IPC  ?

  • G03B 21/00 - Projecteurs ou visionneuses du type par projection; Leurs accessoires
  • G03B 21/20 - Boîtes à lumière

42.

DISTRIBUTED INTERACTIVE BINAURAL RENDERING

      
Numéro d'application US2023021481
Numéro de publication 2023/220024
Statut Délivré - en vigueur
Date de dépôt 2023-05-09
Date de publication 2023-11-16
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Breebaart, Dirk Jeroen
  • Mcgrath, David S.

Abrégé

The present disclosure relates to a method, system and computer program product for processing audio. The method comprises receiving at least one input audio signal and producing a main rendered presentation and an additional rendered presentation, each rendered presentation being associated with a listener orientation and/or position. The method further comprises determining transformation parameters for transforming the main rendered presentation to the additional rendered presentation and determining a deviation value based on the orientation and/or position of the user and the listener orientations and/or positions. The method further comprises determining modified transformation parameters based on the transformation parameters and the deviation value and applying the modified transformation parameters to the main rendered presentation to generate an output presentation associated with the orientation and/or position of the user.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

43.

ILLUMINATION OPTICS FOR PROJECTOR SYSTEMS

      
Numéro d'application US2023021840
Numéro de publication 2023/220242
Statut Délivré - en vigueur
Date de dépôt 2023-05-11
Date de publication 2023-11-16
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Jackson, John David
  • Hennigan, Darren
  • Dewald, Duane Scott

Abrégé

Illumination optics for projector systems having a high f-number light output. One projection system comprises a fiber input providing a first light, and a first illumination optics configured to alter the first light into a second light. The projection system comprises a Fourier lens assembly configured to receive the second light and to form a Fourier transform of the second light at an exit pupil of the Fourier lens assembly. The second light has a f-number between f/10 and f/30, the second light has a luminance uniformity between 75% and 90% of center, and the second light has a contrast over 10,000:1.

Classes IPC  ?

  • G03B 21/20 - Boîtes à lumière
  • G02B 27/09 - Mise en forme du faisceau, p.ex. changement de la section transversale, non prévue ailleurs
  • H04N 9/31 - Dispositifs de projection pour la présentation d'images en couleurs

44.

STEREOSCOPIC HIGH DYNAMIC RANGE VIDEO

      
Numéro d'application US2023019111
Numéro de publication 2023/215108
Statut Délivré - en vigueur
Date de dépôt 2023-04-19
Date de publication 2023-11-09
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Husak, Walter J.
  • Yin, Peng
  • Su, Guan-Ming
  • Atkins, Robin

Abrégé

Methods and systems for stereoscopic 3D video are described. Input HDR stereoscopic views in a first codeword representation are merged together by a first merging function to generate an input merged view to optimize a reshaping operation which generates a reshaped merged view in a second codeword representation and associated composer metadata. The reshaped merged view may be split and re-merged by a second frame packing function to optimize video encoding efficiency of an output coded bitstream based on the reshaped merged view. In a decoder, after extracting the reshaped merged view from the coded bitstream, a composer function applies the composer metadata to the decoded reshaped merge view to generate an output merged view in the first codeword representation. Then it generates output HDR stereoscopic views based on the output merged view.

Classes IPC  ?

  • H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
  • H04N 19/30 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant des techniques hiérarchiques, p.ex. l'échelonnage
  • H04N 19/59 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre un sous-échantillonnage spatial ou une interpolation spatiale, p.ex. modification de la taille de l’image ou de la résolution
  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo

45.

CUSTOMIZED BINAURAL RENDERING OF AUDIO CONTENT

      
Numéro d'application US2023020874
Numéro de publication 2023/215405
Statut Délivré - en vigueur
Date de dépôt 2023-05-03
Date de publication 2023-11-09
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Jiang, Ziran
  • Yu, Xuemei
  • Che, Yanning

Abrégé

Methods, systems, and media for processing audio are provided. In some embodiments, a method for processing audio may involve receiving a stereo audio signal. The method may involve separating the stereo audio signal into steered signals and diffuse signals. The method may involve determining one or more diffuse signal modification parameters based on a current listening context, wherein the one or more diffuse signal modification parameters indicate a proportion of the diffuse signals to be re-distributed to one or more output channels in an output multichannel signal or a degree of attenuation to be applied to the diffuse signals. The method may involve generating the output multichannel signal based on the steered signals, the diffuse signals, and the one or more diffuse signal modification parameters. The method may involve providing the output multichannel signal to a virtualizer for rendering as a binaural audio signal for playing on a wearable device.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage
  • H04S 5/00 - Systèmes pseudo-stéréophoniques, p.ex. dans lesquels les signaux d'un canal supplémentaire sont dérivés du signal monophonique par déphasage, retardement ou réverbération
  • H04S 1/00 - Systèmes à deux canaux

46.

METADATA-AIDED REMOVAL OF FILM GRAIN

      
Numéro d'application US2023018941
Numéro de publication 2023/205144
Statut Délivré - en vigueur
Date de dépôt 2023-04-18
Date de publication 2023-10-26
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Yin, Peng
  • Huang, Tsung-Wei

Abrégé

A metadata-aided film-grain removal method and corresponding apparatus. An example embodiment enables a video decoder to substantially fully remove the film grain from a digital video signal that has undergone lossy video compression and then video decompression. Different embodiments may rely only on spatial-domain grain-removal processing, only on temporal-domain grain-removal processing, or on a combination of spatial-domain and temporal-domain grain-removal processing. Both spatial-domain and temporal-domain grain-removal processing may use metadata provided by the corresponding video encoder, the metadata including one or more parameters corresponding to the digital film grain injected into the host video at the encoder. Different film-grain-injection formats can be accommodated by the video decoder using signal preprocessing directed at supplying, to the film-grain removal module of the video decoder, an input compatible with the film-grain removal method implemented therein.

Classes IPC  ?

  • H04N 19/117 - Filtres, p.ex. pour le pré-traitement ou le post-traitement
  • G06T 5/00 - Amélioration ou restauration d'image
  • H04N 19/46 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression
  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo
  • H04N 19/86 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo mettant en œuvre la diminution des artéfacts de codage, p.ex. d'artéfacts de blocs

47.

PCEN-BASED MASK THRESHOLDING AND VOICE ACTIVITY DETECTION FOR TRAINING DNN-BASED SPEECH ENHANCEMENT MODELS

      
Numéro d'application US2023019105
Numéro de publication 2023/205240
Statut Délivré - en vigueur
Date de dépôt 2023-04-19
Date de publication 2023-10-26
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Liu, Xiaoyu
  • Fejgin, Roy M.
  • Zhou, Cong
  • Li, Kai

Abrégé

Described herein is a method of determining at least one mask for use in training a deep neural network (DNN) -based mask-based audio processing model. In particular, the method may comprise obtaining a time-frequency representation of a target audio signal for use in the training. The method may further comprise determining a per-channel energy normalization (PCEN) measure for the target audio signal. The method may yet further comprise determining the at least one mask based on the PCEN measure.

Classes IPC  ?

  • G10L 21/0208 - Filtration du bruit
  • G10L 21/0216 - Filtration du bruit caractérisée par le procédé d’estimation du bruit

48.

GENERATING HDR IMAGE FROM CORRESPONDING CAMERA RAW AND SDR IMAGES

      
Numéro d'application US2023063937
Numéro de publication 2023/205548
Statut Délivré - en vigueur
Date de dépôt 2023-03-08
Date de publication 2023-10-26
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Huang, Tsung-Wei
  • Chen, Tao

Abrégé

Guided filtering is applied, with a camera raw image as a guidance image, to a first image to generate an intermediate image. A dynamic range mapping is performed on the intermediate image to generate a second image of a different dynamic range. The second image is used to generate specific local reshaping function index values for selecting specific local reshaping functions. The specific local reshaping functions are applied to the second image to generate a locally reshaped image.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image
  • G06T 5/50 - Amélioration ou restauration d'image en utilisant plusieurs images, p.ex. moyenne, soustraction

49.

MULTISOURCE METHODS AND SYSTEMS FOR CODED MEDIA

      
Numéro d'application US2023018469
Numéro de publication 2023/205025
Statut Délivré - en vigueur
Date de dépôt 2023-04-13
Date de publication 2023-10-26
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Riedmiller, Jeffrey
  • Sanchez, Freddie
  • Yu, Mingchao
  • Cloud, Jason Michael
  • Osborne, Elliot
  • Antioch, Thomas Franklin

Abrégé

Enclosed are embodiments for multisource methods and systems for coded media. In some embodiments, a method comprises: at a first device: receiving media data representing a media asset; obtaining a first plurality of data elements including at least one of bitstream identification data, content-specific encode data and media segment data; encoding at least a portion of the media data in accordance with a first coding process into coded data corresponding to the media asset; generating a second plurality of data elements different from the first plurality of data elements based on information associated with the first coding process; combining the first plurality of data elements and the second plurality of data elements into one or more coded bitstreams representing the media asset; and transmitting the one or more coded bitstreams to one or more second devices using one or more network paths.

Classes IPC  ?

  • H04N 19/40 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le transcodage vidéo, c. à d. le décodage partiel ou complet d’un flux d’entrée codé suivi par un ré-encodage du flux de sortie décodé

50.

GEOMETRIC PARTITION MODE IN VIDEO CODING

      
Numéro d'application US2023017541
Numéro de publication 2023/200643
Statut Délivré - en vigueur
Date de dépôt 2023-04-05
Date de publication 2023-10-19
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Natesan, Ashwin
  • Shingala, Jay Nitin
  • Arumugam, Jeeva Raj
  • Remane, Manasi Mahendra
  • Valvaiker, Vaibhav Pandurang
  • Lu, Taoran
  • Pu, Fangjun
  • Yin, Peng

Abrégé

Methods related to the geometric partition mode (GPM) in video coding are described. The proposed methods include: applying adaptive ordering of merge candidates with template matching (ARMC-TM) to derive GPM inter candidate lists, applying merge motion vector differences in GPM, enabling GPM for all-intra coding units (CUs), using inter and intra template costs in intra-prediction modes of GPM, using GPM partitions to generate templates in template matching, and using neighboring reconstructed samples and an edge criterion to derive top and left-edge intercepts to generate partitioning candidates.

Classes IPC  ?

  • H04N 19/119 - Aspects de subdivision adaptative, p.ex. subdivision d’une image en blocs de codage rectangulaires ou non
  • H04N 19/543 - Estimation de mouvement autre que basée sur les blocs utilisant des régions
  • H04N 19/109 - Sélection du mode de codage ou du mode de prédiction parmi plusieurs modes de codage prédictif temporel
  • H04N 19/11 - Sélection du mode de codage ou du mode de prédiction parmi plusieurs modes de codage prédictif spatial

51.

APPLICATIONS OF TEMPLATE MATCHING IN VIDEO CODING

      
Numéro d'application US2023017535
Numéro de publication 2023/200642
Statut Délivré - en vigueur
Date de dépôt 2023-04-05
Date de publication 2023-10-19
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Arumugam, Jeeva Raj
  • Shingala, Jay Nitin
  • Natesan, Ashwin
  • Remane, Manasi Mahendra
  • Lu, Taoran
  • Pu, Fangjun
  • Yin, Peng

Abrégé

Methods are described for template matching (TM) in video coding. The proposed methods include: the use of constrained top and left neighbors in template matching, enabling TM only in coding tree unit boundaries, using approximated reconstructed samples, a new processing pipeline for deriving decoder side intra mode derivation (DIMD) combined with template based intra mode derivation (TIMD), and using filtered pixels from the neighbors, instead of using the reconstructed pixels. Furthermore, methods are described on how template matching may be applied in combination with Intra, sub-partitioning mode, interpolation filtering in intra prediction, block partitioning, bi-prediction with coding unit-level weights, and adaptive motion vector resolution.

Classes IPC  ?

  • H04N 19/543 - Estimation de mouvement autre que basée sur les blocs utilisant des régions
  • H04N 19/176 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant un bloc, p.ex. un macrobloc
  • H04N 19/96 - Codage au moyen d'une arborescence, p.ex. codage au moyen d'une arborescence quadratique

52.

SIGN PREDICTION IN VIDEO CODING

      
Numéro d'application US2023018143
Numéro de publication 2023/200774
Statut Délivré - en vigueur
Date de dépôt 2023-04-11
Date de publication 2023-10-19
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Shingala, Jay Nitin
  • Arumugam, Jeeva Raj
  • Remane, Manasi Mahendra
  • Natesan, Ashwin
  • Lu, Taoran
  • Pu, Fangjun
  • Yin, Peng

Abrégé

Methods, systems, and bitstream syntax are described for sign prediction in video coding. The method include: selection of top and left neighbors based on an image continuity check, the intra mode of the current coded unit (CU), the merge motion vector, or adaptive motion vector prediction, sign prediction based on residue domain of current CU or neighbor CUs, sign prediction based on approximated reconstruction samples, reducing the number of selected coefficients for sorting, simplifying the sequential search cost, and by combining sign prediction with sign data hiding.

Classes IPC  ?

  • H04N 19/14 - Complexité de l’unité de codage, p.ex. activité ou estimation de présence de contours
  • H04N 19/18 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant un ensemble de coefficients de transformée
  • H04N 19/105 - Sélection de l’unité de référence pour la prédiction dans un mode de codage ou de prédiction choisi, p.ex. choix adaptatif de la position et du nombre de pixels utilisés pour la prédiction
  • H04N 19/159 - Type de prédiction, p.ex. prédiction intra-trame, inter-trame ou de trame bidirectionnelle
  • H04N 19/593 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre des techniques de prédiction spatiale

53.

METHOD AND APPARATUS FOR PROCESSING OF AUDIO DATA

      
Numéro d'application US2022041408
Numéro de publication 2023/196004
Statut Délivré - en vigueur
Date de dépôt 2022-08-24
Date de publication 2023-10-12
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Fersch, Christof Joseph
  • Norcross, Scott Gregory
  • Fischer, Daniel
  • Boehm, Reinhold

Abrégé

Decoder apparatus, computer program and methods of processing audio data for playback are described. They include receiving a bitstream including encoded audio data and metadata that includes DRC set(s), and for each DRC set, an indication of whether the DRC set is configured for providing a loudness leveling effect. The metadata further includes personalization experience information. The method further includes identifying DRC sets that are configured for providing the dynamic range compensation effect; decoding the encoded audio data to obtain decoded audio data; selecting one of the identified DRC sets configured for providing the loudness leveling effect; extracting from the bitstream one or more DRC gains corresponding to the selected DRC set; applying to the decoded audio data the one or more DRC gains corresponding to the selected DRC set to obtain dynamic loudness compensated audio data; and outputting the dynamic loudness compensated audio data for playback.

Classes IPC  ?

  • G10L 19/16 - Architecture de vocodeur
  • H03G 7/00 - Compression ou expansion de volume dans les amplificateurs
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage
  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage

54.

MESSAGING PARAMETERS FOR NEURAL-NETWORK POST FILTERING IN IMAGE AND VIDEO CODING

      
Numéro d'application US2023017252
Numéro de publication 2023/196217
Statut Délivré - en vigueur
Date de dépôt 2023-04-03
Date de publication 2023-10-12
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Yin, Peng
  • Arora, Arjun
  • Shao, Tong
  • Lu, Taoran
  • Pu, Fangjun
  • Mccarthy, Sean, Thomas

Abrégé

Methods, systems, and bitstream syntax are described for the carriage of neural network topology and parameters as related to neural-network-based post filtering (NNPF) in image and video coding. Examples of NNPF SEI messaging as applicable to the MPEG standards for coding video pictures are described at the sequence layer and at the picture layer.

Classes IPC  ?

  • H04N 19/117 - Filtres, p.ex. pour le pré-traitement ou le post-traitement
  • H04N 19/172 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant une image, une trame ou un champ
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression
  • H04N 19/80 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques - Détails des opérations de filtrage spécialement adaptées à la compression vidéo, p.ex. pour l'interpolation de pixels
  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo

55.

SPECKLE MITIGATION FOR PROJECTION SCREENS

      
Numéro d'application US2023017134
Numéro de publication 2023/196195
Statut Délivré - en vigueur
Date de dépôt 2023-03-31
Date de publication 2023-10-12
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Pertierra, Juan Pablo
  • Hovanky, Thao D.
  • Lippey, Barret

Abrégé

Methods and apparatus for mitigating speckle on an image projection screen are disclosed. A non-contact shaking or vibrating of the projection screen may be achieved using lightweight material. For example, magnetic material such as iron powder (suspended in a binder material) may be coated onto the screen, and one or more electromagnetic actuators may be positioned at a distance and generate magnetic fields that cause the shaking from the distance. A controller may generate and transmit signals toward the electromagnetic actuator, the signals configured to cause generation of the magnetic fields that cause the screen to shake at one or more prescribed frequencies. Such motion may at least partly mitigate a visual perceptibility of the speckle.

Classes IPC  ?

56.

RAW IMAGE DATA RECONSTRUCTION SYSTEM AND METHOD

      
Numéro d'application US2023017135
Numéro de publication 2023/196196
Statut Délivré - en vigueur
Date de dépôt 2023-03-31
Date de publication 2023-10-12
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Fu, Dongdong
  • Chen, Tao

Abrégé

A method for reconstructing a raw image, including: generating a low-frequency image and a high-frequency image from an initial image; linearly estimating the high-frequency image to generate a reconstructed high-frequency image; sparsely interpolating the low-frequency image to generate a reconstructed low-frequency image; and generating a reconstructed raw image from the reconstructed low-frequency image and the reconstructed high-frequency image.

Classes IPC  ?

  • G06T 3/40 - Changement d'échelle d'une image entière ou d'une partie d'image
  • G06T 5/00 - Amélioration ou restauration d'image

57.

METHODS, APPARATUS AND SYSTEMS FOR USER GENERATED CONTENT CAPTURE AND ADAPTIVE RENDERING

      
Numéro d'application US2023017256
Numéro de publication 2023/196219
Statut Délivré - en vigueur
Date de dépôt 2023-04-03
Date de publication 2023-10-12
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ma, Yuanxing
  • Shuang, Zhiwei
  • Liu, Yang

Abrégé

Methods of processing audio data relating to user generated content are described. One method includes obtaining the audio data; applying frame-wise audio enhancement to the audio data; generating metadata for the enhanced audio data, based on one or more processing parameters of the frame-wise audio enhancement; and outputting the enhanced audio data together with the metadata. Another method includes obtaining the audio data and metadata for the audio data, wherein the metadata comprises first metadata indicative of one or more processing parameters of a previous frame-wise audio enhancement of the audio data; applying restore processing to the audio data, using the one or more processing parameters, to at least partially reverse the previous frame-wise audio enhancement; and applying frame-wise audio enhancement or editing processing to the restored raw audio data. Further described are corresponding apparatus, programs, and computer-readable storage media.

Classes IPC  ?

  • G10L 21/02 - Amélioration de l'intelligibilité de la parole, p.ex. réduction de bruit ou annulation d'écho

58.

RECTANGULAR OPTICAL FIBER FOR PROJECTION SYSTEMS

      
Numéro d'application US2023017472
Numéro de publication 2023/196336
Statut Délivré - en vigueur
Date de dépôt 2023-04-04
Date de publication 2023-10-12
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Pertierra, Juan Pablo
  • Lippey, Barret
  • Arntsen, John Frederick
  • Richards, Martin J.

Abrégé

Systems and methods for a rectangular optical fiber within a projection system. One projection system includes a rectangular optical fiber and a first modulator. The rectangular optical fiber is configured to emit a light in response to an image data. The rectangular optical fiber has a first aspect ratio. The first modulator is configured to receive the light from the rectangular optical fiber and to apply a spatially-varying modulation on the light, thereby to steer the light and generate a first steered light. The first modulator has a second aspect ratio.

Classes IPC  ?

  • G02B 26/06 - Dispositifs ou dispositions optiques pour la commande de la lumière utilisant des éléments optiques mobiles ou déformables pour commander la phase de la lumière
  • G02B 26/08 - Dispositifs ou dispositions optiques pour la commande de la lumière utilisant des éléments optiques mobiles ou déformables pour commander la direction de la lumière
  • G02B 27/09 - Mise en forme du faisceau, p.ex. changement de la section transversale, non prévue ailleurs
  • G03B 21/00 - Projecteurs ou visionneuses du type par projection; Leurs accessoires
  • G03B 21/14 - Projecteurs ou visionneuses du type par projection; Leurs accessoires - Détails
  • G03B 21/20 - Boîtes à lumière
  • H04N 9/31 - Dispositifs de projection pour la présentation d'images en couleurs
  • G02B 27/18 - Systèmes ou appareils optiques non prévus dans aucun des groupes , pour projection optique, p.ex. combinaison de miroir, de condensateur et d'objectif

59.

METHODS AND SYSTEMS FOR PERCEPTUALLY MEANINGFUL SPATIAL CONTENT COMPOSITING

      
Numéro d'application US2023016475
Numéro de publication 2023/192213
Statut Délivré - en vigueur
Date de dépôt 2023-03-28
Date de publication 2023-10-05
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Kunkel, Timo

Abrégé

Approaches for generating metadata for content to be composited and rendered using the generated metadata are described. These approaches can be used with the development and distribution of one or more web pages or other graphical user interfaces. For example, one can collect content (e.g., images, animation, text and user interface elements) to be composited together into a web page and invoke a set of APIs to generate the metadata for the content of the web page that will be composited; a metadata generation system receives the calls through the API and generates the metadata. The web page can then be distributed with the generated metadata which can be used to create the display of the web page with content that is perceptually modified based on the metadata about the individual elements on the web page and their spatial proximity.

Classes IPC  ?

  • G06F 16/957 - Optimisation de la navigation, p.ex. mise en cache ou distillation de contenus

60.

METHODS AND SYSTEMS FOR PERCEPTUALLY MEANINGFUL SPATIAL CONTENT COMPOSITING

      
Numéro d'application US2023016511
Numéro de publication 2023/192235
Statut Délivré - en vigueur
Date de dépôt 2023-03-28
Date de publication 2023-10-05
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Kunkel, Timo

Abrégé

Approaches for generating metadata for content to be composited and rendered are described. These approaches can be used with the development and distribution of one or more web pages or other graphical user interfaces. For example, a web page developer can collect content to be composited together into a web page and invoke a set of APIs to generate the metadata for the content of the web page that will be composited; a metadata generation system receives the calls through the API and generates the metadata. The web page can then be distributed with the generated metadata which can be used to create the display of the web page with content that is perceptually modified based on the metadata about the individual elements on the web page and their spatial proximity.

Classes IPC  ?

  • H04N 21/431 - Génération d'interfaces visuelles; Rendu de contenu ou données additionnelles

61.

REPRESENTATION LEARNING USING INFORMED MASKING FOR SPEECH AND OTHER AUDIO APPLICATIONS

      
Numéro d'application US2023016634
Numéro de publication 2023/192327
Statut Délivré - en vigueur
Date de dépôt 2023-03-28
Date de publication 2023-10-05
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Holmberg, Paul
  • Nosrati, Hadis
  • Cartwright, Richard J.

Abrégé

Some disclosed methods involve receiving, by a control system configured to implement at least one neural network, input audio data and feature weightings and producing, by the control system and based at least in part on the input audio data and the feature weightings, latent space embeddings. In some examples, the input audio data corresponds to an input mathematical space and the latent space embeddings may correspond with unmasked portions of the input audio data. According to some examples, the latent space embeddings may be mathematical representations of the input audio data indicated by the feature weightings in a latent space that is a different mathematical space from the input mathematical space. In some examples, the feature weightings may be, or may be based on, mask data.

Classes IPC  ?

  • G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
  • G10L 21/0216 - Filtration du bruit caractérisée par le procédé d’estimation du bruit

62.

MULTICHANNEL AND MULTI-STREAM SOURCE SEPARATION VIA MULTI-PAIR PROCESSING

      
Numéro d'application US2023015484
Numéro de publication 2023/192036
Statut Délivré - en vigueur
Date de dépôt 2023-03-17
Date de publication 2023-10-05
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Master, Aaron Steven
  • Lu, Lie
  • Norcross, Scott Gregory

Abrégé

A method and system for separating a target audio source from a multi-channel audio input including N audio signals, N >= 3. The N audio signals are combined into at least two unique signal pairs, and pairwise source separation is performed on each signal pair to generate at least two processed signal pairs, each processed signal pair including source separated versions of the audio signals in the signal pair. The at least two processed signal pairs are combined to form the target audio source having N target audio signals corresponding to the N audio signals.

Classes IPC  ?

  • G10L 21/0208 - Filtration du bruit
  • G10L 21/0308 - Séparation du signal de voix caractérisée par le type de mesure du paramètre, p.ex. techniques de corrélation, techniques de passage par zéro ou techniques prédictives
  • H04S 3/02 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques du type matriciel, c. à d. dans lesquels les signaux d'entrée sont combinés algébriquement, p.ex. après avoir été déphasés les uns par rapport aux autres

63.

SOURCE SEPARATION COMBINING SPATIAL AND SOURCE CUES

      
Numéro d'application US2023015507
Numéro de publication 2023/192039
Statut Délivré - en vigueur
Date de dépôt 2023-03-17
Date de publication 2023-10-05
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Master, Aaron Steven
  • Lu, Lie

Abrégé

The present disclosure relates to a method and system for processing audio for source separation. The method comprises obtaining an input audio signal (A) comprising at least two channels and processing the input audio signal (A) with a spatial cue based separation module (10) to obtain an intermediate audio signal (B). The spatial cue based separation module (10) is configured to determine a mixing parameter of the at least two channels of the input audio signal (A) and modify the channels, based on the mixing parameter, to obtain the intermediate audio signal (B). The method further comprises processing the intermediate audio signal (B) with a source cue based separation module (20) to generate an output audio signal (C), wherein the source cue based separation module (20) is configured to implement a neural network trained to predict a noise reduced output audio signal (C) given the intermediate audio signal (B).

Classes IPC  ?

  • G10L 21/028 - Séparation du signal de voix utilisant les propriétés des sources sonores
  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage

64.

CONTEXT AWARE AUDIO CAPTURE AND RENDERING

      
Numéro d'application US2023015561
Numéro de publication 2023/192046
Statut Délivré - en vigueur
Date de dépôt 2023-03-17
Date de publication 2023-10-05
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ma, Yuanxing
  • Shuang, Zhiwei
  • Liu, Yang
  • Yang, Ziyu

Abrégé

Embodiments are disclosed for context aware capture and rendering. In an embodiment, an audio processing method comprises: capturing a multi-channel input audio signal; generating noise-reduced target sound events of interest and environment noise for each channel of the multi-channel input audio signal; determining an event type for rendering; selecting a rendering scheme based on the event type and a loudspeaker layout; and rendering a multichannel output audio signal using the selected rendering scheme.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

65.

NEURAL NETWORKS FOR HIGH DYNAMIC RANGE VIDEO SUPER- RESOLUTION

      
Numéro d'application US2023064624
Numéro de publication 2023/183756
Statut Délivré - en vigueur
Date de dépôt 2023-03-17
Date de publication 2023-09-28
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Rotti, Shruthi Suresh
  • Choudhury, Anustup Kumar Atanu

Abrégé

Methods and systems for the super resolution of high dynamic range (HDR) video are described. Given a sequence of video frames, a current frame and two or more neighboring frames are processed by a neural-network (NN) feature extraction module, followed by a NN upscaling module, and a NN reconstruction module. In parallel, the current frame is upscaled using traditional up-sampling to generate an intermediate up-sampled frame. The output of the reconstruction module is added to the intermediate up-sampled frame to generate an output frame. Additional traditional up-sampling may be performed on the output frame to match the desired up-scaling factor, beyond the up-scaling factor for which the neural network was trained.

Classes IPC  ?

  • H04N 19/59 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre un sous-échantillonnage spatial ou une interpolation spatiale, p.ex. modification de la taille de l’image ou de la résolution
  • H04N 19/537 - Estimation de mouvement autre que basée sur les blocs
  • G06N 3/04 - Architecture, p.ex. topologie d'interconnexion

66.

IMAGE OPTIMIZATION IN MOBILE CAPTURE AND EDITING APPLICATIONS

      
Numéro d'application US2023015494
Numéro de publication 2023/177863
Statut Délivré - en vigueur
Date de dépôt 2023-03-17
Date de publication 2023-09-21
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Kadu, Harshad
  • Huang, Tsung-Wei
  • Mcelvain, Jon Scott
  • Chen, Tao
  • Hulyalkar, Samir N.

Abrégé

HDR color patches are sampled throughout an HDR color space parameterized by a parameter. Reference SDR color patches, input HDR color patches and reference HDR color patches are generated from the sampled HDR color patches. An optimization algorithm is executed to generate an optimized forward reshaping mapping and an optimized backward reshaping mapping. The optimized forward reshaping mapping is used to forward reshape input HDR images into forward reshaped SDR images, whereas the optimized backward reshaping mapping is used to backward reshape the forward reshaped SDR images into backward reshaped HDR images.

Classes IPC  ?

  • H04N 19/117 - Filtres, p.ex. pour le pré-traitement ou le post-traitement
  • H04N 19/98 - Codage de plage-dynamique adaptative [ADRC]
  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance

67.

IMAGE OPTIMIZATION IN MOBILE CAPTURE AND EDITING APPLICATIONS

      
Numéro d'application US2023015510
Numéro de publication 2023/177873
Statut Délivré - en vigueur
Date de dépôt 2023-03-17
Date de publication 2023-09-21
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Kadu, Harshad
  • Huang, Tsung-Wei
  • Mcelvain, Jon Scott
  • Chen, Tao
  • Hulyalkar, Samir N.

Abrégé

HDR color patches are sampled throughout an HDR color space parameterized by a parameter. Reference SDR color patches, input HDR color patches and reference HDR color patches are generated from the sampled HDR color patches. An optimization algorithm is executed to generate an optimized forward reshaping mapping and an optimized backward reshaping mapping. The optimized forward reshaping mapping is used to forward reshape input HDR images into forward reshaped SDR images, whereas the optimized backward reshaping mapping is used to backward reshape the forward reshaped SDR images into backward reshaped HDR images.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image
  • G06T 7/30 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images

68.

METHODS, APPARATUS AND SYSTEMS FOR DIRECTIONAL AUDIO CODING-SPATIAL RECONSTRUCTION AUDIO PROCESSING

      
Numéro d'application US2023063769
Numéro de publication 2023/172865
Statut Délivré - en vigueur
Date de dépôt 2023-03-06
Date de publication 2023-09-14
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Tyagi, Rishabh
  • Torres, Juan Felix
  • Bruhn, Stefan
  • Brown, Stefanie

Abrégé

Enclosed are embodiments for audio processing that combines complementary aspects of Spatial Reconstruction (SPAR) and Directional Audio Coding (DirAC) technologies, including higher audio quality, reduced bitrate, input/output format flexibility and/or reduced computational complexity, to produce a codec (e.g., an Ambisonics codec) that has better overall performance than DirAC or SPAR codecs.

Classes IPC  ?

  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage
  • G10L 19/18 - Vocodeurs utilisant des modes multiples

69.

METHOD AND AUDIO PROCESSING SYSTEM FOR WIND NOISE SUPPRESSION

      
Numéro d'application US2023014793
Numéro de publication 2023/172609
Statut Délivré - en vigueur
Date de dépôt 2023-03-08
Date de publication 2023-09-14
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Bin, Qingyuan
  • Ma, Yuanxing
  • Shuang, Zhiwei

Abrégé

The present disclosure relates to a method and system (1) for suppressing wind noise. The method comprises obtaining an input audio signal (100, 100') comprising a plurality of consecutive audio signal segments (101, 102, 103, 101', 102', 103') and suppressing wind noise in the input audio signal with a wind noise suppressor module (20) to generate a wind noise reduced audio signal. The method further comprises sing a neural network (10) trained to predict a set of gains for reducing noise in the input audio signal (100, 100') given samples of the input audio signal (100, 100'), wherein a noise reduced audio signal is formed by applying said set of gains to the input audio signal (100, 100') and mixing the wind noise reduced audio signal and the noise reduced audio signal with a mixer (30) to obtain an output audio signal with suppressed wind noise.

Classes IPC  ?

  • G10L 21/0208 - Filtration du bruit
  • G10L 21/0232 - Traitement dans le domaine fréquentiel
  • G10L 21/0216 - Filtration du bruit caractérisée par le procédé d’estimation du bruit

70.

TARGET MID-SIDE SIGNALS FOR AUDIO APPLICATIONS

      
Numéro d'application US2023063717
Numéro de publication 2023/172852
Statut Délivré - en vigueur
Date de dépôt 2023-03-03
Date de publication 2023-09-14
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Master, Aaron Steven
  • Lu, Lie

Abrégé

The present disclosure relates to a method and audio processing arrangement for extracting a target mid (and optionally a target side) audio signal from a stereo audio signal. The method comprises obtaining (S1) a plurality of consecutive time segments of the stereo audio signal and obtaining (S2), for each of a plurality of frequency bands of each time segment of the stereo audio signal, at least one of a target panning parameter (Θ) and a target phase difference parameter (Φ). The method further comprises extracting (S3), for each time segment and each frequency band, a partial mid signal representation (211, 212) based on at least one of the target panning parameter (Θ) and the target phase difference parameter (Φ) of each frequency band and forming (S4) the target mid audio signal (M) by combining the partial mid signal representations (211, 212) for each frequency band and time segment.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage
  • H04S 1/00 - Systèmes à deux canaux
  • G10L 21/0272 - Séparation du signal de voix

71.

A NOVEL CONTROL METHOD FOR SWITCHED-MODE POWER SUPPLIES

      
Numéro d'application US2023064071
Numéro de publication 2023/173040
Statut Délivré - en vigueur
Date de dépôt 2023-03-09
Date de publication 2023-09-14
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Tsekouras, Ellis George

Abrégé

Systems and methods for controlling switched-mode power supplies. One system includes a converter including a switch and an inductor and processor to control operation of the converter. The processor is configured to determine whether a predicted value of current flowing through the inductor is greater than zero. The processor is further configured to determine the converter is operating in continuous conduction mode (CCM) when the predicted value of the current is greater than zero and control the switch using a first duty cycle when the converter is operating in CCM. The processor is further configured to determine the converter is operating in discontinuous conduction mode (DCM) when the predicted value of the current is less than zero and control the switch using a second duty cycle when the converter is operating in DCM.

Classes IPC  ?

  • H02M 1/00 - APPAREILS POUR LA TRANSFORMATION DE COURANT ALTERNATIF EN COURANT ALTERNATIF, DE COURANT ALTERNATIF EN COURANT CONTINU OU VICE VERSA OU DE COURANT CONTINU EN COURANT CONTINU ET EMPLOYÉS AVEC LES RÉSEAUX DE DISTRIBUTION D'ÉNERGIE OU DES SYSTÈMES D'ALI; TRANSFORMATION D'UNE PUISSANCE D'ENTRÉE EN COURANT CONTINU OU COURANT ALTERNATIF EN UNE PUISSANCE DE SORTIE DE CHOC; LEUR COMMANDE OU RÉGULATION - Détails d'appareils pour transformation
  • H02M 3/156 - Transformation d'une puissance d'entrée en courant continu en une puissance de sortie en courant continu sans transformation intermédiaire en courant alternatif par convertisseurs statiques utilisant des tubes à décharge avec électrode de commande ou des dispositifs à semi-conducteurs avec électrode de commande utilisant des dispositifs du type triode ou transistor exigeant l'application continue d'un signal de commande utilisant uniquement des dispositifs à semi-conducteurs avec commande automatique de la tension ou du courant de sortie, p.ex. régulateurs à commutation

72.

SPATIAL REPRESENTATION LEARNING

      
Numéro d'application US2023014003
Numéro de publication 2023/167828
Statut Délivré - en vigueur
Date de dépôt 2023-02-28
Date de publication 2023-09-07
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Holmberg, Paul
  • Nosrati, Hadis
  • Cartwright, Richard J.

Abrégé

Some disclosed methods involve: receiving multi-channel audio data including unlabeled multi-channel audio data; extracting audio feature data from the unlabeled multi-channel audio data; applying a spatial masking process to a portion of the audio feature data; applying a contextual encoding process to the masked audio feature data, to produce predicted spatial embeddings in a latent space; obtaining reference spatial embeddings in the latent space; determining a loss function gradient based, at least in part, on a variance between the predicted spatial embeddings and the reference spatial embeddings; and updating the contextual encoding process according to the loss function gradient until one or more convergence metrics are attained.

Classes IPC  ?

  • G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
  • G10L 15/20 - Techniques de reconnaissance de la parole spécialement adaptées de par leur robustesse contre les perturbations environnantes, p.ex. en milieu bruyant ou reconnaissance de la parole émise dans une situation de stress

73.

CODED SPEECH ENHANCEMENT BASED ON DEEP GENERATIVE MODEL

      
Numéro d'application US2023062682
Numéro de publication 2023/164392
Statut Délivré - en vigueur
Date de dépôt 2023-02-15
Date de publication 2023-08-31
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Li, Xu
  • Liu, Xiaoyu
  • Pascual, Santiago

Abrégé

A system for generating enhanced speech data using robust audio features is disclosed. In some embodiments, a system is programmed to use a self-supervised deep learning model to generate a set of feature vectors from given audio data that contains contaminated speech and is coded. The system is further programmed to use a generative deep learning model to create improved audio data corresponding to clean speech from the set of feature vectors.

Classes IPC  ?

  • G10L 19/005 - Correction d’erreurs induites par le canal de transmission, lorsqu’elles sont liées à l’algorithme de codage
  • G10L 21/02 - Amélioration de l'intelligibilité de la parole, p.ex. réduction de bruit ou annulation d'écho
  • G06N 3/02 - Réseaux neuronaux

74.

BETA SCALE DYNAMIC DISPLAY MAPPING

      
Numéro d'application US2023011847
Numéro de publication 2023/150074
Statut Délivré - en vigueur
Date de dépôt 2023-01-30
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ninan, Ajit
  • Ward, Gregory John

Abrégé

An input image to be coded into a video signal and a target image are received. The input image and the target image depict same visual content. One or more beta scaling method indicators and one or more sets of one or more beta scale parameters are generated. The one or more beta scaling method indicators indicate one or more beta scaling methods that use the one or more sets of beta scale parameters to perform beta scaling operations on the input image to generate a reconstructed image to approximate the target image. The input image, along with the one or more beta scaling method indicators and the one or more sets of beta scale parameters, is encoded into the video signal for allowing a recipient device of the video signal to generate the reconstructed image.

Classes IPC  ?

  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance
  • H04N 19/42 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques - caractérisés par les détails de mise en œuvre ou le matériel spécialement adapté à la compression ou à la décompression vidéo, p.ex. la mise en œuvre de logiciels spécialisés
  • H04N 19/34 - Techniques d'échelonnage mettant en œuvre un codage progressif par plans de bits de la couche d'amélioration, p.ex. échelonnage granulaire fin [FGS]
  • H04N 19/105 - Sélection de l’unité de référence pour la prédiction dans un mode de codage ou de prédiction choisi, p.ex. choix adaptatif de la position et du nombre de pixels utilisés pour la prédiction
  • H04N 19/117 - Filtres, p.ex. pour le pré-traitement ou le post-traitement

75.

SUPPORTING MULTIPLE TARGET DISPLAY TYPES

      
Numéro d'application US2023012157
Numéro de publication 2023/150193
Statut Délivré - en vigueur
Date de dépôt 2023-02-01
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ninan, Ajit
  • Ward, Gregory John

Abrégé

A sequence of base layer images for a base reference image display and a set of one or more sequences of beta scale maps corresponding to one or more non-base reference image displays are generated. A subset of one or more sequences of beta scale maps is determined in the set of one or more sequences of beta scale maps based at least in part on display capabilities of a target image display. The sequence of base layer images, along with the subset of one or more sequences of beta scale maps, is encoded into a video signal to cause a recipient device of the video signal to generate a sequence of display images from the sequence of base layer images and the subset of one or more sequences of beta scale maps for rendering on the image display.

Classes IPC  ?

  • H04N 19/30 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant des techniques hiérarchiques, p.ex. l'échelonnage
  • H04N 19/16 - Mode de codage attribué, c. à d. le mode de codage étant prédéfini ou présélectionné pour être utilisé ultérieurement afin de sélectionner un autre élément ou paramètre pour un mode donné d’affichage, p.ex. pour un mode d'affichage entrelacé ou progressif
  • H04N 19/172 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant une image, une trame ou un champ

76.

VOLUMETRIC IMMERSIVE EXPERIENCE WITH MULTIPLE VIEWS

      
Numéro d'application US2023061542
Numéro de publication 2023/150482
Statut Délivré - en vigueur
Date de dépôt 2023-01-30
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ninan, Ajit
  • Ward, Gregory John

Abrégé

A multi-view input image covering multiple sampled views is received. A multi-view layered image stack is generated from the multi-view input image. A target view of a viewer to an image space depicted by the multi-view input image is determined based on user pose data. The target view is used to select user pose selected sampled views from among the multiple sampled views. Layered images for the user pose selected sampled views, along with alpha maps and beta scale maps for the user pose selected sampled views are encoded into a video signal to cause a recipient device of the video signal to generate a display image for rendering on the image display.

Classes IPC  ?

  • H04N 19/27 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage d'objets vidéo mettant en œuvre à la fois des composantes d’image synthétiques et naturelles, p.ex. codage hybride synthétique naturel [SNHC]
  • H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression
  • H04N 19/132 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’élément, le paramètre ou la sélection affectés ou contrôlés par le codage adaptatif Échantillonnage, masquage ou troncature d’unités de codage, p.ex. ré-échantillonnage adaptatif, saut de trames, interpolation de trames ou masquage de coefficients haute fréquence de transformée
  • H04N 19/162 - Entrée utilisateur
  • H04N 19/21 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage d'objets vidéo avec codage plan alpha binaire pour les objets vidéo, p.ex. codage arithmétique contextuel [CAE]
  • G09G 5/397 - Dispositions spécialement adaptées pour le transfert simultané du contenu de plusieurs mémoires à mappage binaire vers l'écran, p.ex. pour le mélange ou la superposition
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

77.

GESTURE CONTROLLED AUDIO AND/OR VISUAL RENDERING

      
Numéro d'application US2023061559
Numéro de publication 2023/150486
Statut Délivré - en vigueur
Date de dépôt 2023-01-30
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ninan, Ajit
  • Rozzi, William Anthony

Abrégé

Images of a user's head are acquired through image sensors operating in conjunction with a media consumption system. The acquired images of the user's head are analyzed to determine an orientation angle of the user's head in relation to rendered images in an audiovisual rendering to the user. The orientation angle of the user's head is used to cause, by the media consumption system, a change in a user-perceptible aspect of the audiovisual rendering to the user.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage
  • H04S 3/00 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques

78.

DEPTH DIFFERENCES IN PLACE OF MOTION VECTORS

      
Numéro d'application US2023061570
Numéro de publication 2023/150488
Statut Délivré - en vigueur
Date de dépôt 2023-01-30
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Ninan, Ajit

Abrégé

Input texture images are received. Depth maps are determined for the input texture images. Each depth map in the depth maps includes depth values of pixels represented in a corresponding input texture image in the input texture images. Depth difference maps are generated from the depth maps. The depth difference maps include at least one depth difference map that is generated from two successive depth maps in the depth maps. A video signal encoded with a compressed version of the input texture images and the depth difference maps is outputted. The video signal causes a recipient device of the video signal to generate display images from the compressed version of the input texture images and the depth difference maps for rendering on an image display.

Classes IPC  ?

  • H04N 19/463 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression par compression des paramètres d’encodage avant la transmission
  • H04N 19/593 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre des techniques de prédiction spatiale
  • H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression
  • H04N 19/436 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques - caractérisés par les détails de mise en œuvre ou le matériel spécialement adapté à la compression ou à la décompression vidéo, p.ex. la mise en œuvre de logiciels spécialisés utilisant des dispositions de calcul parallélisées

79.

SYSTEMS AND METHODS FOR IMPROVED ENTROPY CODING EFFICIENCY

      
Numéro d'application US2023061840
Numéro de publication 2023/150611
Statut Délivré - en vigueur
Date de dépôt 2023-02-02
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Owen, Andrew

Abrégé

Systems and methods for an entropy coding system are described. The entropy coding systems include an encoding apparatus and a decoding apparatus. The encoding apparatus is configured to receive an original input stream comprising a plurality of symbols having a known entropy characteristic according to a probability distribution of each of the symbols appearing in the original input stream, determine an input and respective state for each symbol read from the original input stream, append the determined input to the encoded output stream, and provided the encoded output stream to the decoding apparatus. The decoding apparatus is configured to receive the encoded output stream, process the encoded output stream, and for each read input: determine an output symbol and a respective output, persist the respective output state to the encoded output stream, and append the determined output symbol to the results output stream.

Classes IPC  ?

  • H03M 7/40 - Conversion en, ou à partir de codes de longueur variable, p.ex. code Shannon-Fano, code Huffman, code Morse

80.

BYGENERATION OF HYBRID IMAGES FOR USE IN CAPTURING PERSONALIZED PLAYBACK-SIDE CONTEXT INFORMATION OF A USER

      
Numéro d'application US2023061997
Numéro de publication 2023/150725
Statut Délivré - en vigueur
Date de dépôt 2023-02-03
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Kim, Doh-Suk
  • Riedmiller, Jeffrey
  • Mccarthy, Sean Thomas
  • Daly, Scott

Abrégé

A method may include generating a hybrid image associated with a first interpretation corresponding to a first value of a media parameter and a second interpretation corresponding to a second value of the media parameter. The hybrid image may include a first visibility ratio between the first interpretation and the second interpretation. The method may include refining the hybrid image to create a refined hybrid image that includes a second visibility ratio different than the first visibility ratio. The method may include displaying the refined hybrid image, and receiving a user input related to a first perception of the refined hybrid image by a user. The method may include determining, based at least in part on the user input, an optimized value of the media parameter, and providing output media for display to the user to a playback device according to the optimized value of the media parameter.

Classes IPC  ?

  • H04N 21/2343 - Traitement de flux vidéo élémentaires, p.ex. raccordement de flux vidéo ou transformation de graphes de scènes MPEG-4 impliquant des opérations de reformatage de signaux vidéo pour la distribution ou la mise en conformité avec les requêtes des utilisateurs finaux ou les exigences des dispositifs des utilisateurs finaux
  • H04N 21/258 - Gestion de données liées aux clients ou aux utilisateurs finaux, p.ex. gestion des capacités des clients, préférences ou données démographiques des utilisateurs, traitement des multiples préférences des utilisateurs finaux pour générer des données co
  • H04N 21/6379 - Signaux de commande émis par le client et dirigés vers les éléments du serveur ou du réseau vers le serveur vers le codeur

81.

CONTROL OF A VOLUME LEVELING UNIT USING TWO-STAGE NOISE CLASSIFIER

      
Numéro d'application US2023062062
Numéro de publication 2023/150756
Statut Délivré - en vigueur
Date de dépôt 2023-02-06
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Yang, Ziyu
  • Lu, Lie
  • Shuang, Zhiwei

Abrégé

w(n) XPGNPGN (n)(n) indicating a likelihood that professionally generated content, PGC, noise is present in the time segment, and determining, for the time segment, whether the noise reliability ratio is above a predetermined threshold. When the noise reliability ratio is above the predetermined threshold, the volume leveling control signal is updated based on the PGC noise confidence score, and when the noise reliability ratio is below the predetermined threshold, the volume leveling control signal is left unchanged.Volume leveling is improved by preventing boosting of e.g. phone-recorded environmental noise in UGC, while keeping original behavior for other types of content.

Classes IPC  ?

  • G10L 21/034 - Réglage automatique
  • H03G 7/00 - Compression ou expansion de volume dans les amplificateurs
  • G10L 21/0216 - Filtration du bruit caractérisée par le procédé d’estimation du bruit
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
  • G10L 25/84 - Détection de la présence ou de l’absence de signaux de voix pour différencier la parole du bruit
  • G10L 25/81 - Détection de la présence ou de l’absence de signaux de voix pour différencier la parole de la musique

82.

METHODS AND DEVICES FOR RENDERING AN AMBISONICS AUDIO SIGNAL

      
Numéro d'application US2023061918
Numéro de publication 2023/150668
Statut Délivré - en vigueur
Date de dépôt 2023-02-03
Date de publication 2023-08-10
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Sathuvalli, Saketh
  • Fersch, Christof Joseph
  • Setiawan, Panji
  • Tiwari, Tripti
  • Rai, Reshma

Abrégé

The present document describes a method (400) for rendering an ambisonics signal using a loudspeaker arrangement comprising S loudspeakers. The method (400) comprises converting (401) a set of N ambisonics channel signals (111) into a set of unfiltered pre-rendered signals (211), with N>1 and S>1. Furthermore, the method (400) comprises performing (402) near field compensation, referred to as NFC, filtering of M unfiltered pre-rendered signals (211) of the set of unfiltered pre-rendered signals (211) to provide a set of S filtered loudspeaker channel signals (114) for rendering using the corresponding S loudspeakers.

Classes IPC  ?

  • H04S 3/00 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques

83.

ENHANCING REMOTE VISUAL INTERACTION

      
Numéro d'application US2023011858
Numéro de publication 2023/150078
Statut Délivré - en vigueur
Date de dépôt 2023-01-30
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Ninan, Ajit
  • Holmberg, Paul

Abrégé

A communication client device operated by a first user in a communication session receives a viewing direction tracking data portion indicating a view direction of a second user in the communication session. It is determined that the view direction of the second user is towards a third user at a first time point in the communication session. The view direction of the second user is used to modify a pre-adapted visual depiction of the second user into an adapted visual depiction of the second user. The adapted visual depiction of the second user is rendered, to the first user, on an image display operating with the communication client device.

Classes IPC  ?

84.

QUANTUM DOTS AND PHOTOLUMINESCENT COLOR FILTER

      
Numéro d'application US2023012021
Numéro de publication 2023/150126
Statut Délivré - en vigueur
Date de dépôt 2023-01-31
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Ninan, Ajit

Abrégé

Image data is received for rendering an image on an image display to a viewer (402). The image data specifies a pixel value of the image for a pixel of the image display to render. The pixel value for the pixel includes multiple component pixel values corresponding to multiple color components of a color space. A color gamut locational value of the pixel value is computed based on two or more component pixel values in the multiple component pixel values of the pixel value specified for the pixel (404). The color gamut locational value is used to determine whether bandwidth broadening is to be applied to image rendering light produced by the pixel of the image display to render the pixel value (406). The image rendering light is directed to the viewer.

Classes IPC  ?

  • G09G 3/20 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p.ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice
  • G09G 3/36 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p.ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice en commandant la lumière provenant d'une source indépendante utilisant des cristaux liquides
  • G09G 5/02 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation caractérisés par la manière dont la couleur est visualisée

85.

ENHANCING AND TRACKING VIDEO GAME STREAMING

      
Numéro d'application US2023012106
Numéro de publication 2023/150159
Statut Délivré - en vigueur
Date de dépôt 2023-02-01
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Ninan, Ajit

Abrégé

A spatial portion of a game world of a computer game is designated for incorporating non-game visual content. A game view image that includes a visual depiction of at least a part of the game world at a first time is received. It is determined whether the game view image includes the spatial portion of the game world. In response to determining that the game view image includes the spatial portion of the game world, a non-game visual content portion is inserted into the game view image. The game view image, as inserted with the non-game visual content portion, is encoded into a video game stream to cause a recipient device of the video game stream to generate a display image from the game view image and render the display image on an image display operating in conjunction with the recipient device.

Classes IPC  ?

  • A63F 13/61 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p.ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu utilisant des informations publicitaires
  • A63F 13/79 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p.ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu
  • A63F 13/355 - Réalisation d’opérations pour le compte de clients ayant des capacités de traitement restreintes, p.ex. serveurs transformant une scène de jeu qui évolue en flux MPEG à transmettre à un téléphone portable ou à un client léger

86.

DISPLAY DRIVER FLICKER REDUCTION

      
Numéro d'application US2023012213
Numéro de publication 2023/150224
Statut Délivré - en vigueur
Date de dépôt 2023-02-02
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Ninan, Ajit

Abrégé

An image is received. Pixels of an image display are divided into scan lines arranged along a first spatial direction of the image display. Scan lines of the image display are indexed with identifiers. A sequence of randomized identifiers is determined. Each identifier in the sequence of randomized identifiers represents a respective identifier for one of the scan lines. Pixel values of the image are used to drive the scan lines of the image display according to a time sequential order specified by the sequence of randomized identifiers for rendering the image on the image display. The time sequential order specified by the sequence of randomized identifiers is different from a time sequential order along a spatial direction of the image display. The sequence of randomized scan line identifiers is dynamically generated at runtime from the sequence of scan line identifiers or is selected, either randomly at runtime or according to a predetermined selection sequence, from among a plurality of pre-configured sequences of randomized scan line identifiers.

Classes IPC  ?

  • G09G 3/20 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p.ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice

87.

DIRECTING COMPUTER GAME STREAMING

      
Numéro d'application US2023061403
Numéro de publication 2023/150471
Statut Délivré - en vigueur
Date de dépôt 2023-01-26
Date de publication 2023-08-10
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Ninan, Ajit

Abrégé

A game director server receives game-player-generated data of a computer game from game player devices operated by game players respectively. The game director server is separate from a game play server that generates and maintains a first game world for the game player devices to play the computer game. The game-player-generated data is used to generate and maintain, by the game director server, a second game world separate from the first game world. The second game world is not for the game player devices to play the computer game. Game scenes in the second game world are monitored to identify a subset of specific game scenes from among candidate game scenes. Specific video game streams that capture images of the specific game scenes are generated for streaming to game spectator device(s).

Classes IPC  ?

  • A63F 13/86 - Regarder des jeux joués par d’autres joueurs
  • A63F 13/352 - Dispositions d’interconnexion entre des serveurs et des dispositifs de jeu; Dispositions d’interconnexion entre des dispositifs de jeu; Dispositions d’interconnexion entre des serveurs de jeu - Détails des serveurs de jeu comportant des dispositions particulières de serveurs de jeu, p.ex. des serveurs régionaux connectés à un serveur national ou à plusieurs serveurs gérant les partitions de jeu
  • A63F 13/5252 - Changement des paramètres des caméras virtuelles utilisant plusieurs caméras virtuelles simultanément ou séquentiellement, p.ex. en commutant automatiquement entre caméras virtuelles fixes lorsqu’un personnage change de pièce ou l’affichage de la vue d’un rétroviseur dans un jeu de conduite automob

88.

SOUND FIELD ROTATION

      
Numéro d'application US2023011534
Numéro de publication 2023/146909
Statut Délivré - en vigueur
Date de dépôt 2023-01-25
Date de publication 2023-08-03
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Mcgrath, David S.

Abrégé

Methods, systems, and media for determining sound field rotations are provided. In some embodiments, a method for determining sound field rotations involves determining an activity situation of a user. The method may involve determining a user head orientation using at least one sensor of the one or more sensors. The method may involve determining a direction of interest based on the activity situation and the user head orientation. The method may involve determining a rotation of a sound field used to present audio objects via headphones based on the direction of interest.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

89.

SPATIAL CODING OF HIGHER ORDER AMBISONICS FOR A LOW LATENCY IMMERSIVE AUDIO CODEC

      
Numéro d'application US2023010415
Numéro de publication 2023/141034
Statut Délivré - en vigueur
Date de dépôt 2023-01-09
Date de publication 2023-07-27
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Brown, Stefanie
  • Bruhn, Stefan
  • Tyagi, Rishabh

Abrégé

Described herein is a method of encoding Higher Order Ambisonics, HOA, audio, the method including: receiving an input HOA audio signal having more than four Ambisonics channels; encoding the HOA audio signal using a SPAR coding framework and a core audio encoder; and providing the encoded HOA audio signal to a downstream device, the encoded HOA audio signal including core encoded SPAR downmix channels and encoded SPAR metadata. Further described are a method of decoding Higher Order Ambisonics, HOA, audio, respective apparatuses and computer program products.

Classes IPC  ?

  • G10L 19/008 - Codage ou décodage du signal audio multi-canal utilisant la corrélation inter-canaux pour réduire la redondance, p.ex. stéréo combinée, codage d’intensité ou matriçage
  • H04S 3/00 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques

90.

DATA STRUCTURE FOR MULTIMEDIA APPLICATIONS

      
Numéro d'application US2022053418
Numéro de publication 2023/140952
Statut Délivré - en vigueur
Date de dépôt 2022-12-19
Date de publication 2023-07-27
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Chen, Tao
  • Qu, Sheng
  • Hulyalkar, Samir N.

Abrégé

Embodiments described herein provide a unified container format for delivering different multimedia applications. One embodiment provides provided a data structure utilized for implementing a plurality of multimedia applications. The data structure includes a first metadata level including low-level metadata used to perform operations associated with media data in a bitstream. The data structure includes a second metadata level including mid-level metadata used to apply operation metadata to render the media data. The data structure includes a third metadata level including upper-level metadata used to utilize the low-level metadata and the mid-level metadata to deliver the plurality of multimedia applications. The first metadata level further includes synchronization metadata for converting the media data, the low-level metadata, the mid-level metadata, and the upper-level metadata from a first multimedia application of the plurality of multimedia applications to a second multimedia application of the plurality of multimedia applications.

Classes IPC  ?

  • H04N 21/84 - Génération ou traitement de données de description, p.ex. descripteurs de contenu
  • H04N 19/46 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression

91.

A METHOD OF PROCESSING AUDIO FOR PLAYBACK OF IMMERSIVE AUDIO

      
Numéro d'application US2022081951
Numéro de publication 2023/122547
Statut Délivré - en vigueur
Date de dépôt 2022-12-19
Date de publication 2023-06-29
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Brown, C., Phillip
  • Rubin, Eytan
  • Giralt, Jacobo
  • Rybczynski, Michal, Stanislaw
  • Ziegler, Thomas

Abrégé

A method (1000) of generating at least two audio channels from audio in an immersive audio format comprising at least one height audio channel (1010) and at least two non-height audio channels (1050, 1100), for playing back the at least two audio channels with a non-immersive loudspeaker system of at least two audio loudspeakers (1,2) inside a vehicle. The method comprises applying (1500) a virtual height filter (1300) to the height channel (1010) for, when playing back the height channel by one of the loudspeakers, attenuating spectral components of the height channel directly emanating from said loudspeaker (1;2) and for amplifying spectral components of the height channel reflected from a roof or an area close to the roof inside the vehicle, to generate a virtual height filtered audio signal (1175) and mixing (1700) the virtual height filtered audio signal with at least one of the two non-height audio channels.

Classes IPC  ?

  • H04S 3/00 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

92.

A METHOD OF PROCESSING AUDIO FOR PLAYBACK OF IMMERSIVE AUDIO

      
Numéro d'application US2022081955
Numéro de publication 2023/122550
Statut Délivré - en vigueur
Date de dépôt 2022-12-19
Date de publication 2023-06-29
Propriétaire
  • DOLBY LABORATORIES LICENSING CORPORATION (USA)
  • DOLBY INTERNATIONAL AB (Irlande)
Inventeur(s)
  • Brown, C. Phillip
  • Rubin, Eytan
  • Giralt, Jacobo
  • Rybczynski, Michal Stanislaw
  • Ziegler, Thomas

Abrégé

A method (1000) of generating a plurality of audio channels from audio containing height and non-height audio channels for playing back them with an immersive loudspeaker system of with at least one height loudspeaker (5) inside a listening environment, comprising: applying (1500) a virtual height filter (1300) to a portion of each height channel (1010) for, when playing back the height channel by one of the loudspeakers, attenuating spectral components of the height channel directly emanating from said loudspeaker (1;2;3;4) and for amplifying spectral components of the height channel reflected from a roof or an area close to the roof inside the listening environment, to generate a plurality of virtual height filtered audio signals which are added to the corresponding non-height audio channels for playback by corresponding loudspeakers; and playing back the remaining portions of each height audio channel with the at least one height loudspeaker (5).

Classes IPC  ?

  • H04S 3/00 - Systèmes utilisant plus de deux canaux, p.ex. systèmes quadriphoniques
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

93.

FILM GRAIN PARAMETERS ADAPTATION BASED ON VIEWING ENVIRONMENT

      
Numéro d'application US2022053410
Numéro de publication 2023/122039
Statut Délivré - en vigueur
Date de dépôt 2022-12-19
Date de publication 2023-06-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Su, Guan-Ming
  • Kadu, Harshad
  • Yin, Peng

Abrégé

Methods, systems, and bitstream syntax are described for metadata signaling and film-grain parameter adaptation based on a viewing environment which may differ from a reference environment. Example adaptation models are provided for viewing parameters that include: ambient room illumination, viewing distance, and pixels per inch in a target display. Example systems include a single reference viewing environment model and a multi-reference viewing environment model supporting adaptation of film-grain model parameters via adaptation functions or interpolation.

Classes IPC  ?

  • H04N 19/85 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le pré-traitement ou le post-traitement spécialement adaptés pour la compression vidéo
  • H04N 19/80 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques - Détails des opérations de filtrage spécialement adaptées à la compression vidéo, p.ex. pour l'interpolation de pixels
  • H04N 19/46 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression

94.

DETERMINATION OF MOVEMENT DIRECTION

      
Numéro d'application US2022053826
Numéro de publication 2023/122282
Statut Délivré - en vigueur
Date de dépôt 2022-12-22
Date de publication 2023-06-29
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s) Mcgrath, David S.

Abrégé

Methods, systems, and media for determining user movement direction are provided. In some embodiments, a method involves obtaining, using a control system, user acceleration data associated with a user. The method involves determining, using the control system, a movement period associated with a movement activity of the user using the user acceleration data, wherein the movement period indicates a duration between two sequential movements by the user. The method involves determining, using the control system, a movement direction corresponding to the movement activity using the user acceleration data based on a direction of acceleration orthogonal to the movement direction in which at least a portion of the user acceleration data is anti-periodic over a period of time corresponding to the movement period.

Classes IPC  ?

  • G01C 21/10 - Navigation; Instruments de navigation non prévus dans les groupes en utilisant des mesures de la vitesse ou de l'accélération
  • G01C 21/20 - Instruments pour effectuer des calculs de navigation
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

95.

INTERACTIVE MOTION BLUR ON MOBILE DEVICES

      
Numéro d'application US2022052148
Numéro de publication 2023/114070
Statut Délivré - en vigueur
Date de dépôt 2022-12-07
Date de publication 2023-06-22
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Lee, Dae Yeol
  • Gadgil, Neeraj J.
  • Su, Guan-Ming

Abrégé

Novel methods and systems are described for providing interactive motion blur on an image by motion inputs from movements of the mobile device displaying the image. The device can process the motion blur by modules providing motion blur parameter estimation, blur application, and image composition based on metadata and a baseline image from the encoder. A pre-loaded filter bank can provide blur kernels for blur application.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image

96.

METHOD FOR NEURAL NETWORK TRAINING WITH MULTIPLE SUPERVISORS

      
Numéro d'application CN2022137590
Numéro de publication 2023/104158
Statut Délivré - en vigueur
Date de dépôt 2022-12-08
Date de publication 2023-06-15
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Lu, Lie
  • Shuang, Zhiwei
  • Ma, Yuanxing

Abrégé

The present disclosure relates to a method for designing a processor (20) and a computer implemented neural network. The method comprises obtaining input data and corresponding ground truth target data and providing the input data to a processor (20) for outputting a first prediction of target data given the input data. The method further comprises providing the latent variables output by a processor module (21: 1, 21: 2, …21: n-1) to a supervisor module (22: 1, 22: 2, 22: 3, …22: n-1) which outputs a second prediction of target data based on latent variables and determining a first and second loss measure by comparing the predictions of target data with the ground truth target data. The method further comprises training the processor (20) and the supervisor module (22: 1, 22: 2, 22: 3, …22: n-1) based on the first and second loss measure and adjusting the processor by at least one of removing, replacing and adding a processor module.

Classes IPC  ?

  • G06N 3/082 - Méthodes d'apprentissage modifiant l’architecture, p.ex. par ajout, suppression ou mise sous silence de nœuds ou de connexions
  • G06N 3/09 - Apprentissage supervisé
  • G06N 3/045 - Combinaisons de réseaux
  • G06N 3/0464 - Réseaux convolutifs [CNN, ConvNet]
  • G06N 3/096 - Apprentissage par transfert

97.

ITERATIVE GRAPH-BASED IMAGE ENHANCEMENT USING OBJECT SEPARATION

      
Numéro d'application US2022051664
Numéro de publication 2023/102189
Statut Délivré - en vigueur
Date de dépôt 2022-12-02
Date de publication 2023-06-08
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Lazri, Zachary Mcbride
  • Kadu, Harshad
  • Su, Guan-Ming

Abrégé

Systems and methods for enhancing images using graph-based inter- and intra- object separation. One method includes receiving an object within the image frame, the object including a plurality of pixels, performing an inter-object point cloud separation operation on the image, and expanding the plurality of pixels of the object. The method includes performing a spatial enhancement operation on the plurality of pixels of the object and generating an output image based on the inter-object point cloud separation operation, the expansion of the plurality of pixels, and the spatial enhancement operation.

Classes IPC  ?

  • G06T 7/11 - Découpage basé sur les zones
  • G06T 5/00 - Amélioration ou restauration d'image

98.

DENOISING FOR SDR-TO-HDR LOCAL RESHAPING

      
Numéro d'application US2022048619
Numéro de publication 2023/096728
Statut Délivré - en vigueur
Date de dépôt 2022-11-01
Date de publication 2023-06-01
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Liu, Runze
  • Huang, Tsung-Wei
  • Su, Guan-Ming

Abrégé

An example approach relates to generating images of a first dynamic range from input images of a second dynamic range lower than the first dynamic range. A first array of co-occurrence statistics in connection with an input image of the second dynamic range is generated. A second array of reshaping function index values for selecting reshaping functions from among a plurality of candidate reshaping functions is generated. To generate a reshaped image of the first dynamic range, denoising operations are performed based at least in part on the first array of co-occurrence statistics, whereas reshaping operations are performed based at least in part on the second array of reshaping function index values.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image

99.

SOURCE SEPARATION AND REMIXING IN SIGNAL PROCESSING

      
Numéro d'application US2022047830
Numéro de publication 2023/091276
Statut Délivré - en vigueur
Date de dépôt 2022-10-26
Date de publication 2023-05-25
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Sun, Jundai
  • Shuang, Zhiwei
  • Ma, Yuanxing

Abrégé

inin) including a mixture of speech content and noise content, determining (S2a, S2b, S2c), from the audio signal, speech content (formula A), stationary noise content (formula C) and non-speech content (formula B). The stationary noise content (formula C) is a true subset of the non-speech content (formula B) and the method further comprises determining (S3), based on a difference between the stationary noise content (formula C) and the non-speech content (formula B) a non-stationary noise content formula D), obtaining (S5) a set of weighting factors and forming (S6) a processed audio signal based on a combination of the speech content (formula A), the stationary noise content (formula C), and the non-stationary noise content (formula D) weighted with their respective weighting factor.

Classes IPC  ?

  • G10L 21/028 - Séparation du signal de voix utilisant les propriétés des sources sonores
  • G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
  • G10L 25/84 - Détection de la présence ou de l’absence de signaux de voix pour différencier la parole du bruit
  • G10L 21/0208 - Filtration du bruit

100.

LEARNABLE HEURISTICS TO OPTIMIZE A MULTI-HYPOTHESIS FILTERING SYSTEM

      
Numéro d'application US2022048607
Numéro de publication 2023/086244
Statut Délivré - en vigueur
Date de dépôt 2022-11-01
Date de publication 2023-05-19
Propriétaire DOLBY LABORATORIES LICENSING CORPORATION (USA)
Inventeur(s)
  • Nosrati, Hadis
  • Southwell, Benjamin, John

Abrégé

Some disclosed methods involve receiving microphone signals from a microphone system, including signals corresponding to one or more sounds detected by the microphone system. Some methods may involve determining, via a trained neural network, a filtering scheme for the microphone signals, the filtering scheme including one or more filtering processes. The trained neural network may be configured to implement one or more subband-domain adaptive filter management modules. Some methods may involve applying the filtering scheme to the microphone signals, to produce enhanced microphone signals.

Classes IPC  ?

  • H04R 3/00 - Circuits pour transducteurs
  • H04R 3/02 - Circuits pour transducteurs pour empêcher la réaction acoustique
  1     2     3     ...     12        Prochaine page