Snap Inc.

États‑Unis d’Amérique

Retour au propriétaire

1-100 de 3 320 pour Snap Inc. Trier par
Recheche Texte
Brevet
États-Unis - USPTO
Excluant les filiales
Affiner par Reset Report
Date
Nouveautés (dernières 4 semaines) 55
2024 avril (MACJ) 26
2024 mars 62
2024 février 57
2024 janvier 46
Voir plus
Classe IPC
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie 477
H04L 12/58 - Systèmes de commutation de messages 335
G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus 328
G02B 27/01 - Dispositifs d'affichage "tête haute" 312
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur 289
Voir plus
Statut
En Instance 964
Enregistré / En vigueur 2 356
Résultats pour  brevets
  1     2     3     ...     34        Prochaine page

1.

HEAD PROPERTY DETECTION IN DISPLAY-ENABLED WEARABLE DEVICES

      
Numéro d'application 17968289
Statut En instance
Date de dépôt 2022-10-18
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Olgun, Ugur
  • You, Choonshin
  • Zhang, Bo Ya

Abrégé

A display-enabled eyewear device has an integrated head sensor that dynamically and continuously measures or detects various cephalic parameters of a wearer's head. The head sensor includes a loop coupler system integrated in a lens-carrying frame to sense proximate ambient RF absorption influenced by head presence, size, and/or distance. Autonomous device management dynamically adjust or cause adjustment of selected device features based on current detected values for the cephalic parameters, which can include wear status, head size, and frame-head spacing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques

2.

SIGN LANGUAGE INTERPRETATION WITH COLLABORATIVE AGENTS

      
Numéro d'application 17967209
Statut En instance
Date de dépôt 2022-10-17
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Zhou, Kai
  • Pounds, Jennica
  • Robotka, Zsolt
  • Kajtár, Márton Gergely

Abrégé

A method for recognizing sign language using collaborative augmented reality devices is described. In one aspect, a method includes accessing a first image generated by a first augmented reality device and a second image generated by a second augmented reality device, the first image and the second image depicting a hand gesture of a user of the first augmented reality device, synchronizing the first augmented reality device with the second augmented reality device, in response to the synchronizing, distributing one or more processes of a sign language recognition system between the first and second augmented reality devices, collecting results from the one or more processes from the first and second augmented reality devices, and displaying, in near real-time in a first display of the first augmented reality device, text indicating a sign language translation of the hand gesture based on the results.

Classes IPC  ?

  • G06F 40/58 - Utilisation de traduction automatisée, p.ex. pour recherches multilingues, pour fournir aux dispositifs clients une traduction effectuée par le serveur ou pour la traduction en temps réel
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • G06V 10/26 - Segmentation de formes dans le champ d’image; Découpage ou fusion d’éléments d’image visant à établir la région de motif, p.ex. techniques de regroupement; Détection d’occlusion
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

3.

ENERGY-EFFICIENT ADAPTIVE 3D SENSING

      
Numéro d'application 18299923
Statut En instance
Date de dépôt 2023-04-13
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Wang, Jian
  • Ma, Sizhuo
  • Tilmon, Brevin
  • Wu, Yicheng
  • Krishnan Gorumkonda, Gurunandan
  • Zahreddine, Ramzi
  • Evangelidis, Georgios

Abrégé

An energy-efficient adaptive 3D sensing system. The adaptive 3D sensing system includes one or more cameras and one or more projectors. The adaptive 3D sensing system captures images of a real-world scene using the one or more cameras and computes depth estimates and depth estimate confidence values for pixels of the images. The adaptive 3D sensing system computes an attention mask based on the one or more depth estimate confidence values and commands the one or more projectors to send a distributed laser beam into one or more areas of the real-world scene based on the attention mask. The adaptive 3D sensing system captures 3D sensing image data of the one or more areas of the real-world scene and generates 3D sensing data for the real-world scene based on the 3D sensing image data.

Classes IPC  ?

  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

4.

SUSPICIOUS GROUP DETECTION

      
Numéro d'application 18530502
Statut En instance
Date de dépôt 2023-12-06
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Shah, Neil
  • Nilforoshan-Dardashti, Hamed

Abrégé

Systems, devices, media, and methods are presented for determining a level of abusive network behavior suspicion for groups of entities and for identifying suspicious entity groups. A suspiciousness metric is developed and used to evaluate a multi-view graph across multiple views where entities are associated with nodes of the graph and attributes of the entities are associated with levels of the graph.

Classes IPC  ?

  • H04L 9/40 - Protocoles réseaux de sécurité
  • G06F 16/23 - Mise à jour
  • G06F 16/901 - Indexation; Structures de données à cet effet; Structures de stockage

5.

DATA RETRIEVAL USING REINFORCED CO-LEARNING FOR SEMI-SUPERVISED RANKING

      
Numéro d'application 18543330
Statut En instance
Date de dépôt 2023-12-18
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • He, Shibi
  • Li, Yanen
  • Xu, Ning

Abrégé

A computer-implement method comprises: training a classifier with labeled data from a dataset; classifying, by the trained classifier, unlabeled data from the dataset; providing, by the classifier to a policy gradient, a reward signal for each data/query pair; transferring, by the classifier to a ranker, learning; training, by the policy gradient, the ranker; ranking data from the dataset based on a query; and retrieving data from the ranked data in response to the query.

Classes IPC  ?

6.

WEB DOCUMENT ENHANCEMENT

      
Numéro d'application 18535988
Statut En instance
Date de dépôt 2023-12-11
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Rotem, Efrat
  • Krieger, Ariel
  • Merali, Emmanuel

Abrégé

A method for enhancing a presentation of a network document by a client terminal with real time social media content. The method comprises analyzing a content in a web document to identify a relation to a first of a plurality of multi participant events documented in an event dataset, each of the plurality of multi participant events is held in a geographical venue which hosts an audience of a plurality of participants, matching a plurality of event indicating tags of each of a plurality of user uploaded media content files with at least one feature of the first multi participant event to identify a group of user uploaded media content files selected from the plurality of user uploaded media content files, and forwarding at least some members of the group to a simultaneous presentation on a browser running on a client terminal and presenting the web document.

Classes IPC  ?

  • G06F 16/9536 - Personnalisation de la recherche basée sur le filtrage social ou collaboratif
  • G06F 16/28 - Bases de données caractérisées par leurs modèles, p.ex. des modèles relationnels ou objet
  • G06F 16/951 - Indexation; Techniques d’exploration du Web
  • G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
  • G06F 16/9538 - Présentation des résultats des requêtes
  • G06F 16/958 - Organisation ou gestion de contenu de sites Web, p.ex. publication, conservation de pages ou liens automatiques
  • G06F 40/20 - Analyse du langage naturel
  • G06Q 50/00 - Systèmes ou procédés spécialement adaptés à un secteur particulier d’activité économique, p.ex. aux services d’utilité publique ou au tourisme
  • H04L 67/02 - Protocoles basés sur la technologie du Web, p.ex. protocole de transfert hypertexte [HTTP]

7.

SYSTEMS, METHODS AND DEVICES FOR PROVIDING SEQUENCE BASED DISPLAY DRIVERS

      
Numéro d'application 18393052
Statut En instance
Date de dépôt 2023-12-21
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Goetz, Howard V.
  • Sands, Glen R.

Abrégé

A display driver device (210) receives a downloadable “sequence” for dynamically reconfiguring displayed image characteristics in an image system. The display driver device comprises one or more storage devices, for example, memory devices, for storing image data (218) and portions of drive sequences (219) that are downloadable and/or updated in real time depending on various inputs (214).

Classes IPC  ?

  • G09G 3/20 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p.ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice

8.

HYPEREXTENDING HINGE FOR WEARABLE ELECTRONIC DEVICE

      
Numéro d'application 18399378
Statut En instance
Date de dépôt 2023-12-28
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Ryner, Michael
  • Steger, Stephen

Abrégé

Eyewear having a frame, a hinge, and a hyperextendable temple. An extender is coupled to the hinge and the temple, and the extender extends with respect to the hinge allowing hyperextension of the temple with respect to the frame. The extender may include a bushing and a spring that allows the temple hyperextension, and which also creates a bias force to urge the temple against a user's head during use.

Classes IPC  ?

9.

STYLIZING A WHOLE-BODY OF A PERSON

      
Numéro d'application 17967230
Statut En instance
Date de dépôt 2022-10-17
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Koujan, Mohammad Rami
  • Kokkinos, Iason

Abrégé

Methods and systems are disclosed for performing real-time stylizing operations. The system receives an image that includes a depiction of a whole body of a real-world person. The system applies a machine learning model to the image to generate a stylized version of the whole body of the real-world person corresponding to a given style, the machine learning model being trained using training data to establish a relationship between a plurality of training images depicting synthetically rendered whole bodies of persons and corresponding ground-truth stylized versions of the whole bodies of the persons of the given style. The system replaces the depiction of the whole body of the real-world person in the image with the generated stylized version of the whole body of the real-world person.

Classes IPC  ?

  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 17/20 - Description filaire, p.ex. polygonalisation ou tessellation

10.

VOICE CONTROLLED UIS FOR AR WEARABLE DEVICES

      
Numéro d'application 18397786
Statut En instance
Date de dépôt 2023-12-27
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Moll, Sharon
  • Gurgul, Piotr

Abrégé

Systems, methods, and computer readable media for voice-controlled user interfaces (UIs) for augmented reality (AR) wearable devices are disclosed. Embodiments are disclosed that enable a user to interact with the AR wearable device without using physical user interface devices. An application has a non-voice-controlled UI mode and a voice-controlled UI mode. The user selects the mode of the UI. The application running on the AR wearable device displays UI elements on a display of the AR wearable device. The UI elements have types. Predetermined actions are associated with each of the UI element types. The predetermined actions are displayed with other information and used by the user to invoke the corresponding UI element.

Classes IPC  ?

  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport utilisant des icônes
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 

11.

REMOTE ANNOTATION AND NAVIGATION USING AN AR WEARABLE DEVICE

      
Numéro d'application 18046367
Statut En instance
Date de dépôt 2022-10-13
Date de la première publication 2024-04-18
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Canberk, Ilteris Kaan
  • Hallberg, Matthew
  • Jung, Bernhard

Abrégé

Systems, methods, and computer readable media for remote annotations, drawings, and navigation instructions sent to an augmented reality (AR) wearable device from a computing device are disclosed. The AR wearable device captures images and sends them to the remote computing device to provide a real-time view of what the user of the AR wearable device sees. A user of the remote computing device can add navigation instructions and can select an image to annotate or draw on. The AR wearable device provides 3-dimensional (3D) coordinate information within a 3D world of the AR wearable device for the selected image. The user of the remote computing device then annotates or draws on the selected image. The remote computing device determines 3D coordinates for the annotations and drawings within the 3D world of the AR wearable device. The annotations and drawings are sent to the AR wearable device with associated 3D coordinates.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras

12.

Antenna system for unmanned aerial vehicles with propellers

      
Numéro d'application 17082438
Numéro de brevet 11958603
Statut Délivré - en vigueur
Date de dépôt 2020-10-28
Date de la première publication 2024-04-16
Date d'octroi 2024-04-16
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Boals, Justin
  • Olgun, Ugur
  • Shukla, Ashutosh Y.

Abrégé

A UAV having a wireless-front end including propellers that are dual purposed to function as ground communication antenna elements. This design reduces weight and size of the UAV, hence enabling a compact design with the capability of handling a heavier payload.

Classes IPC  ?

  • B64C 39/02 - Aéronefs non prévus ailleurs caractérisés par un emploi spécial
  • B64U 10/13 - Plates-formes volantes
  • B64U 101/30 - Véhicules aériens sans pilote spécialement adaptés à des utilisations ou à des applications spécifiques à l’imagerie, à la photographie ou à la vidéographie
  • H01Q 1/28 - Adaptation pour l'utilisation dans ou sur les avions, les missiles, les satellites ou les ballons
  • H01Q 1/48 - ANTENNES, c. à d. ANTENNES RADIO - Détails de dispositifs associés aux antennes Écrans de terre; Contrepoids
  • H01Q 15/14 - Surfaces réfléchissantes; Structures équivalentes

13.

AUGMENTED REALITY EXPERIENCE EVENT METRICS SYSTEM

      
Numéro d'application 18543475
Statut En instance
Date de dépôt 2023-12-18
Date de la première publication 2024-04-11
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Grover, Benjamin Todd
  • Lazarenko, Taras
  • Lewis, Elliot
  • Powell, Michael Aubrey
  • Zhao, Jialu

Abrégé

Methods and systems are disclosed for performing generating AR experiences on a messaging platform. The methods and systems receive, from a client device, a request to access an augmented reality (AR) experience and access a list of event types associated with the AR experience used to generate one or more metrics. The methods and systems determine that an interaction associated with the AR experience corresponds to a first event type of the list of event types and generates interaction data for the first event type representing the interaction. In response to receiving a request to terminate the AR experience, the systems and methods transmit the interaction data to a remote server.

Classes IPC  ?

  • H04L 41/50 - Gestion des services réseau, p.ex. en assurant une bonne réalisation du service conformément aux accords
  • H04L 67/50 - Services réseau

14.

9-DOF OBJECT TRACKING

      
Numéro d'application 17937153
Statut En instance
Date de dépôt 2022-09-30
Date de la première publication 2024-04-11
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Berger, Itamar
  • Dudovitch, Gal
  • Harel, Peleg
  • Mishin Shuvi, Ma'Ayan

Abrégé

Aspects of the present disclosure involve a system for presenting AR items. The system receives a video that includes a depiction of a real-world object in a real-world environment. The system generates a three-dimensional (3D) bounding box for the real-world object and stabilizes the 3D bounding box based on one or more sensors of the device. The system determines a position, orientation, and dimensions of the real-world object based on the stabilized 3D bounding box and renders a display of an augmented reality (AR) item within the video based on the position, orientation, and dimensions of the real-world object.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée

15.

SYSTEM AND METHOD FOR IMAGE PROJECTION MAPPING

      
Numéro d'application 18390608
Statut En instance
Date de dépôt 2023-12-20
Date de la première publication 2024-04-11
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Nielsen, Simon Saito Haagen
  • Conatser, Zachary Collins

Abrégé

A system including a drone having a projector to project an image from a projection origin. The drone also has a navigation unit to determine location information for the drone. A processor coupled to the drone includes a memory. Execution of programming by the processor configures the system to obtain a projection surface architecture for a projection surface. The projection surface architecture includes reference points that correspond to physical locations on the projection surface. Each reference point is associated with relationship data with respect to an architecture origin. The system also receives location information for the drone, adapts the relationship data responsive to change in the location information, adjusts the image using the adapted relationship data, and projects the adjusted image onto the projection surface.

Classes IPC  ?

  • G03B 21/14 - Projecteurs ou visionneuses du type par projection; Leurs accessoires - Détails
  • G06F 9/30 - Dispositions pour exécuter des instructions machines, p.ex. décodage d'instructions
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan

16.

ANIMATED EXPRESSIVE ICON

      
Numéro d'application 18541369
Statut En instance
Date de dépôt 2023-12-15
Date de la première publication 2024-04-11
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Al Majid, Newar Husam
  • Boyd, Nathan Kenneth
  • Chang, Sheldon
  • Samaranayake, Chamal
  • Voss, Jeremy

Abrégé

Embodiments described herein include an expressive icon system to present an animated graphical icon, wherein the animated graphical icon is generated by capture facial tracking data at a client device. In some embodiments, the system may track and capture facial tracking data of a user via a camera associated with a client device (e.g., a front facing camera, or a paired camera), and process the facial tracking data to animate a graphical icon.

Classes IPC  ?

  • G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p.ex. d’êtres humains, d’animaux ou d’êtres virtuels
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport utilisant des icônes
  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
  • H04L 67/306 - Profils des utilisateurs
  • H04M 1/72427 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens de soutien local des applications accroissant la fonctionnalité pour donner accès à des jeux ou à des animations graphiques
  • H04M 1/7243 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens de soutien local des applications accroissant la fonctionnalité avec des moyens interactifs de gestion interne des messages
  • H04M 1/72469 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles pour faire fonctionner le dispositif en sélectionnant des fonctions à partir de plusieurs éléments affichés, p.ex. des menus ou des icônes

17.

EMOTION RECOGNITION FOR WORKFORCE ANALYTICS

      
Numéro d'application 18541970
Statut En instance
Date de dépôt 2023-12-15
Date de la première publication 2024-04-11
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Shaburov, Victor
  • Monastyrshyn, Yurii

Abrégé

Methods and systems for videoconferencing include generating work quality metrics based on emotion recognition of an individual such as a call center agent. The work quality metrics allow for workforce optimization. One example method includes the steps of receiving a video including a sequence of images, detecting an individual in one or more of the images, locating feature reference points of the individual, aligning a virtual face mesh to the individual in one or more of the images based at least in part on the feature reference points, dynamically determining over the sequence of images at least one deformation of the virtual face mesh, determining that the at least one deformation refers to at least one facial emotion selected from a plurality of reference facial emotions, and generating quality metrics including at least one work quality parameter associated with the individual based on the at least one facial emotion.

Classes IPC  ?

  • G06Q 10/0639 - Analyse des performances des employés; Analyse des performances des opérations d’une entreprise ou d’une organisation
  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
  • H04N 21/4402 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4 impliquant des opérations de reformatage de signaux vidéo pour la redistribution domestique, le stockage ou l'affichage en temps réel

18.

EXTERNAL SCREEN STREAMING FOR AN EYEWEAR DEVICE

      
Numéro d'application 17960627
Statut En instance
Date de dépôt 2022-10-05
Date de la première publication 2024-04-11
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Canberk, Ilteris Kaan
  • Jung, Bernhard
  • Kang, Shin Hwun
  • Skrypnyk, Daria
  • Sun, Tianyi
  • Tran, Lien Le Hong

Abrégé

Systems and methods are provided for performing operations on an augmented reality (AR) device using an external screen streaming system. The system establishes, by one or more processors of an AR device, a communication with an external client device. The system causes overlay of, by the AR device, a first AR object on a real-world environment being viewed using the AR device. The system receives, by the AR device, a first image from the external client device. The system, in response to receiving the first image from the external client device, overlays the first image on the first AR object by the AR device.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

19.

PERSONAL VEHICLE LINEAR SENSOR DATA FOR AR ODOMETRY SENSOR FUSION

      
Numéro d'application 18536920
Statut En instance
Date de dépôt 2023-12-12
Date de la première publication 2024-04-04
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Brown, Edmund Graves
  • Lucas, Benjamin
  • Rodriguez, Ii, Jonathan M.
  • Zhuang, Richard

Abrégé

A method of providing an interactive personal mobility system, performed by one or more processors, comprises determining an initial pose by visual-inertial odometry performed on images and inertial measurement unit (IMU) data generated by a wearable augmented reality device. Sensor data transmitted from a personal mobility system is received, and sensor fusion is performed on the data received from the personal mobility system to provide an updated pose. Augmented reality effects are displayed on the wearable augmented reality device based on the updated pose.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • B60L 3/12 - Enregistrement des paramètres de fonctionnement
  • B60L 15/20 - Procédés, circuits ou dispositifs pour commander la propulsion des véhicules à traction électrique, p.ex. commande de la vitesse des moteurs de traction en vue de réaliser des performances désirées; Adaptation sur les véhicules à traction électrique de l'installation de commande à distance à partir d'un endroit fixe, de différents endroits du véhicule ou de différents véhicules d'un même train pour la commande du véhicule ou de son moteur en vue de réaliser des performances désirées, p.ex. vitesse, couple, variation programmée de la vitesse
  • G01C 22/02 - Mesure de la distance parcourue sur le sol par des véhicules, des personnes, des animaux ou autres corps solides en mouvement, p.ex. en utilisant des odomètres ou en utilisant des podomètres par conversion en formes d'onde électrique et intégration ultérieure, p.ex. en utilisant un générateur tachymétrique
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

20.

GENERATING USER INTERFACES IN AUGMENTED REALITY ENVIRONMENTS

      
Numéro d'application 17959985
Statut En instance
Date de dépôt 2022-10-04
Date de la première publication 2024-04-04
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Kang, Shin Hwun
  • Tran, Lien Le Hong

Abrégé

An augmented reality (AR) content system is provided. The AR content system may analyze audio input obtained from a user to generate a search request. The AR content system may obtain search results in response to the search request and determine a layout by which to display the search results. The search results may be displayed in a user interface within an AR environment according to the layout. The AR content system may also analyze audio input to detect commands to perform with respect to content displayed in the user interface.

Classes IPC  ?

  • G06T 11/60 - Edition de figures et de texte; Combinaison de figures ou de texte
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras

21.

Prohibited Content Propagation using a Social Network Data Structure

      
Numéro d'application 18540657
Statut En instance
Date de dépôt 2023-12-14
Date de la première publication 2024-04-04
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Hammer, Mette F.M.
  • Harpur, Liam
  • Jaquinta, Joseph M.
  • Nurmenkari, Pauli P.O.

Abrégé

A method for prohibiting email content propagation that receives, at a server, an email message. At the server, at least one email address associated with the email message which is designated not to receive a content of the email message is identified. At the server, the email message is modified by selectively removing a content of the email message to be conveyed to the at least one email address. The server conveys the modified email message to the at least one email address. The server conveys the email message to one or more recipient email addresses except the at least one email address. Consequently, the server has sent a submitted message to multiple email addresses, while modifying the content sent to a subset of the addresses that received the email message.

Classes IPC  ?

  • H04L 51/212 - Surveillance ou traitement des messages utilisant un filtrage ou un blocage sélectif
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06Q 10/107 - Gestion informatisée du courrier électronique
  • G06Q 50/00 - Systèmes ou procédés spécialement adaptés à un secteur particulier d’activité économique, p.ex. aux services d’utilité publique ou au tourisme
  • H04L 51/214 - Surveillance ou traitement des messages en utilisant le transfert sélectif
  • H04L 51/48 - Adressage des messages, p.ex. format des adresses ou messages anonymes, alias
  • H04L 51/52 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel pour la prise en charge des services des réseaux sociaux

22.

REAL-TIME MACHINE LEARNING BASED IN-PAINTING

      
Numéro d'application 17937734
Statut En instance
Date de dépôt 2022-10-03
Date de la première publication 2024-04-04
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Dudovitch, Gal
  • Harel, Peleg
  • Mishin Shuvi, Ma'Ayan
  • Sasson, Gal
  • Zohar, Matan

Abrégé

Aspects of the present disclosure involve a system for performing real-time in-painting using machine learning techniques. The system receives a video that includes a depiction of a real-world object in a real-world environment. The system accesses a segmentation associated with the real-world object and removes a depiction of the real-world object from a region of a first frame of the video. The system processes, by a machine learning model, the first frame and one or more previous frames of the video that precede the first frame to generate a new frame in which portions of the first frame have been blended into the region from which the depiction of the real-world object has been removed.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image
  • G06T 5/50 - Amélioration ou restauration d'image en utilisant plusieurs images, p.ex. moyenne, soustraction
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/20 - Analyse du mouvement
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]

23.

AR SYSTEM BENDING CORRECTION

      
Numéro d'application 17937950
Statut En instance
Date de dépôt 2022-10-04
Date de la première publication 2024-04-04
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Kalkgruber, Matthias
  • Pereira Torres, Tiago Miguel
  • Welge, Weston
  • Zahreddine, Ramzi

Abrégé

A system for deformation or bending correction in an Augmented Reality (AR) system. Sensors are positioned in a frame of a head-worn AR system to sense forces or pressure acting on the frame by temple pieces attached to the frame. The sensed forces or pressure are used in conjunction with a model of the frame to determine a corrected model of the frame. The corrected model is used to correct video data captured by the AR system and to correct a video virtual overlay that is provided to a user wearing the head-worn AR system.

Classes IPC  ?

  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

24.

UAV with manual flight mode selector

      
Numéro d'application 16833526
Numéro de brevet 11945579
Statut Délivré - en vigueur
Date de dépôt 2020-03-28
Date de la première publication 2024-04-02
Date d'octroi 2024-04-02
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Nielsen, Simon
  • Patton, Russell Douglas

Abrégé

A UAV having a manual gimbal including a camera, and a flight mode selector configured to select both a flight mode and manually establish a camera position as a function of the selected fight mode. A controller responds to a position of the gimbal or selector to establish the flight mode. The flight mode is selected from several available modes, for example, a horizontal flight mode, a 45-degree flight mode, and a vertical (aerial) flight mode. The flight mode selector is mechanically coupled to the gimbal and establishes a pitch angle of the gimbal, and thus the camera angle attached to the gimbal.

Classes IPC  ?

  • B64C 39/02 - Aéronefs non prévus ailleurs caractérisés par un emploi spécial
  • B64C 19/00 - Dispositifs de commande des aéronefs non prévus ailleurs
  • B64U 101/30 - Véhicules aériens sans pilote spécialement adaptés à des utilisations ou à des applications spécifiques à l’imagerie, à la photographie ou à la vidéographie
  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p.ex. pilote automatique
  • G05D 1/08 - Commande de l'attitude, c. à d. élimination ou réduction des effets du roulis, du tangage ou des embardées
  • G06F 3/0362 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection des translations ou des rotations unidimensionnelles [1D] d’une partie agissante du dispositif de pointage, p.ex. molettes de défilement, curseurs, boutons, rouleaux ou bandes
  • B64U 50/14 - Propulsion utilisant des soufflantes ou des hélices externes carénées

25.

Mixed reality media content

      
Numéro d'application 17956603
Numéro de brevet 11949969
Statut Délivré - en vigueur
Date de dépôt 2022-09-29
Date de la première publication 2024-04-02
Date d'octroi 2024-04-02
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Moll, Sharon
  • Gurgul, Piotr
  • Zhang, Dawei

Abrégé

A mixed-reality media content system may be configured to perform operations that include: causing display of image data at a client device, the image data comprising a depiction of an object that includes a graphical code at a position upon the object; detecting the graphical code at the position upon the depiction of the object based on the image data; accessing media content within a media repository based on the graphical code scanned by the client device; and causing display of a presentation of the media content at the position of the graphical code upon the depiction of the object at the client device.

Classes IPC  ?

  • H04N 21/8545 - Création de contenu pour générer des applications interactives
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport utilisant des icônes
  • G06K 19/06 - Supports d'enregistrement pour utilisation avec des machines et avec au moins une partie prévue pour supporter des marques numériques caractérisés par le genre de marque numérique, p.ex. forme, nature, code

26.

Privacy-preserving multi-touch attribution

      
Numéro d'application 17477383
Numéro de brevet 11949778
Statut Délivré - en vigueur
Date de dépôt 2021-09-16
Date de la première publication 2024-04-02
Date d'octroi 2024-04-02
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Chopra, Samarth
  • Datta, Amit
  • Deshpande, Apoorvaa

Abrégé

Systems and methods herein describe privacy preserving multi-touch attribution. The described systems access a plurality of impression events and a plurality of conversion events, and for each impression event and each conversion event, wherein each impression event and each conversion event are associated with user identifiers, the described systems generates a hashed user identifier based on the associated user identifier, initiates a key agreement protocol comprising a key, generates an encrypted identifier by encrypting the hashed user identifier with the key, and stores the encrypted identifier.

Classes IPC  ?

  • G06F 21/00 - Dispositions de sécurité pour protéger les calculateurs, leurs composants, les programmes ou les données contre une activité non autorisée
  • H04L 9/08 - Répartition de clés
  • H04L 9/30 - Clé publique, c. à d. l'algorithme de chiffrement étant impossible à inverser par ordinateur et les clés de chiffrement des utilisateurs n'exigeant pas le secret
  • H04L 9/32 - Dispositions pour les communications secrètes ou protégées; Protocoles réseaux de sécurité comprenant des moyens pour vérifier l'identité ou l'autorisation d'un utilisateur du système
  • H04L 29/06 - Commande de la communication; Traitement de la communication caractérisés par un protocole

27.

STEERABLE CAMERA FOR AR HAND TRACKING

      
Numéro d'application 18357607
Statut En instance
Date de dépôt 2023-07-24
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Colascione, Daniel
  • Simons, Patrick Timothy Mcsweeney
  • Welge, Weston
  • Zahreddine, Ramzi

Abrégé

A system for hand tracking for an Augmented Reality (AR) system. The AR system uses a camera of the AR system to capture tracking video frame data of a hand of a user of the AR system. The AR system generates a skeletal model based on the tracking video frame data and determines a location of the hand of the user based on the skeletal model. The AR system causes a steerable camera of the AR system to focus on the hand of the user.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

28.

AUGMENTED EXPRESSION SYSTEM

      
Numéro d'application 18528098
Statut En instance
Date de dépôt 2023-12-04
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Cao, Chen
  • Gao, Yang
  • Xue, Zehao

Abrégé

Embodiments described herein relate to an augmented expression system to generate and cause display of a specially configured interface to present an augmented reality perspective. The augmented expression system receives image and video data of a user and tracks facial landmarks of the user based on the image and video data, in real-time to generate and present a 3-dimensional (3D) bitmoji of the user.

Classes IPC  ?

  • G06T 13/20 - Animation tridimensionnelle [3D]
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p.ex. d’êtres humains, d’animaux ou d’êtres virtuels
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions

29.

SOFTWARE APPLICATION MANAGER FOR MESSAGING APPLICATIONS

      
Numéro d'application 18528429
Statut En instance
Date de dépôt 2023-12-04
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Eirinberg, Dylan Shane
  • Son, Aaron Daniel
  • Wu, William

Abrégé

Among other things, embodiments of the present disclosure improve the functionality of electronic messaging systems by enabling users in an electronic chat conversation to run applications together. In some embodiments, when one user in a chat launches an application, an icon or other visual representation of the application appears in a portion of the chat window (e.g., in a “chat dock”) for other users in the chat to access.

Classes IPC  ?

  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p.ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04L 51/04 - Messagerie en temps réel ou quasi en temps réel, p.ex. messagerie instantanée [IM]
  • H04L 51/046 - Interopérabilité avec d'autres applications ou services réseau
  • H04L 51/18 - Commandes ou codes exécutables
  • H04L 65/1089 - Procédures en session en supprimant des médias
  • H04L 65/403 - Dispositions pour la communication multipartite, p.ex. pour les conférences
  • H04L 67/00 - Dispositions ou protocoles de réseau pour la prise en charge de services ou d'applications réseau
  • H04L 67/1095 - Réplication ou mise en miroir des données, p.ex. l’ordonnancement ou le transport pour la synchronisation des données entre les nœuds du réseau

30.

AUGMENTED REALITY SPATIAL AUDIO EXPERIENCE

      
Numéro d'application 18532679
Statut En instance
Date de dépôt 2023-12-07
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Canberk, Ilteris
  • Kang, Shin Hwun

Abrégé

Devices, media, and methods are presented for an immersive augmented reality (AR) experience using an eyewear device with spatial audio. The eyewear device has a processor, a memory, an image sensor, and a speaker system. The eyewear device captures image information for an environment surrounding the device and identifies an object location within the same environment. The eyewear device then associates a virtual object with the identified object location. The eyewear device monitors the position of the device with respect to the virtual object and presents audio signals to alert the user that the identified object is in the environment.

Classes IPC  ?

  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

31.

FACIAL SYNTHESIS IN AUGMENTED REALITY CONTENT FOR ONLINE COMMUNITIES

      
Numéro d'application 18534258
Statut En instance
Date de dépôt 2023-12-08
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Golobokov, Roman
  • Marinenko, Alexandr
  • Mashrabov, Aleksandr
  • Bromot, Aleksei
  • Tkachenko, Grigoriy

Abrégé

The subject technology captures first image data by a computing device, the first image data comprising a target face of a target actor and facial expressions of the target actor, the facial expressions including lip movements. The subject technology generates, based at least in part on frames of a source media content, sets of source pose parameters. The subject technology receives a selection of a particular facial expression from a set of facial expressions. The subject technology generates, based at least in part on sets of source pose parameters and the selection of the particular facial expression, an output media content. The subject technology provides augmented reality content based at least in part on the output media content for display on the computing device.

Classes IPC  ?

  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

32.

PROVIDING BOT PARTICIPANTS WITHIN A VIRTUAL CONFERENCING SYSTEM

      
Numéro d'application 18534341
Statut En instance
Date de dépôt 2023-12-08
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Lin, Andrew Cheng-Min
  • Lin, Walton

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for providing bot participants for virtual conferencing. The program and method provide, in association with designing a virtual space, a first interface for configuring plural participant video elements, each being assignable to a respective participant; receive, via the first interface, an indication of user input for setting first properties for the plural participant video elements; provide a second interface for configuring a bot participant for simulating an actual participant in association with a participant video element of the plural participant video elements; receive, via the second interface, an indication of second user input for setting second properties for the bot participant; and provide, in association with designing the virtual space, display of the virtual space based on the first and second properties, the bot participant being assigned to the participant video element.

Classes IPC  ?

  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G06T 5/00 - Amélioration ou restauration d'image
  • G06T 5/20 - Amélioration ou restauration d'image en utilisant des opérateurs locaux
  • H04L 51/02 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel en utilisant des réactions automatiques ou la délégation par l’utilisateur, p.ex. des réponses automatiques ou des messages générés par un agent conversationnel
  • H04L 65/403 - Dispositions pour la communication multipartite, p.ex. pour les conférences

33.

MENU HIERARCHY NAVIGATION ON ELECTRONIC MIRRORING DEVICES

      
Numéro d'application 18535771
Statut En instance
Date de dépôt 2023-12-11
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Eirinberg, Dylan Shane
  • Goodrich, Kyle
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

Systems and methods are provided for performing operations comprising: capturing, by an electronic mirroring device, a video feed received from a camera of the electronic mirroring device, the video feed depicting a user; displaying, by one or more processors of the electronic mirroring device, one or more menu options on the video feed that depicts the user, the one or more menu options relating to a first level in a hierarchy of levels; detecting a gesture performed by the user in the video feed; and in response to detecting the gesture, displaying a set of options related to a given option of the one or more menu options, the set of options relating to a second level in the hierarchy of levels.

Classes IPC  ?

  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation

34.

REMOTELESS CONTROL OF DRONE BEHAVIOR

      
Numéro d'application 18536951
Statut En instance
Date de dépôt 2023-12-12
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Meisenholder, David
  • Horowitz, Steven

Abrégé

A drone system is configured to capture an audio stream that includes voice commands from an operator, to process the audio stream for identification of the voice commands, and to perform operations based on the identified voice commands. The drone system can identify a particular voice stream in the audio stream as an operator voice, and perform the command recognition with respect to the operator voice to the exclusion of other voice streams present in the audio stream. The drone can include a directional camera that is automatically and continuously focused on the operator to capture a video stream usable in disambiguation of different voice streams captured by the drone.

Classes IPC  ?

  • G05D 1/12 - Commande pour la recherche d'un objectif
  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p.ex. pilote automatique
  • G05D 1/10 - Commande de la position ou du cap dans les trois dimensions simultanément
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G10L 15/24 - Reconnaissance de la parole utilisant des caractéristiques non acoustiques
  • G10L 15/25 - Reconnaissance de la parole utilisant des caractéristiques non acoustiques utilisant la position des lèvres, le mouvement des lèvres ou l’analyse du visage
  • G10L 17/00 - Identification ou vérification du locuteur

35.

DYNAMICALLY ASSIGNING PARTICIPANT VIDEO FEEDS WITHIN VIRTUAL CONFERENCING SYSTEM

      
Numéro d'application 17948508
Statut En instance
Date de dépôt 2022-09-20
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Cho, Emily
  • Lin, Andrew Cheng-Min

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for dynamically assigning participant video feeds within a virtual conferencing system. The program and method provide, in association with designing a virtual space for virtual conferencing, an interface for configuring a set of rooms, each room being associated with a different number of participant video elements assignable to respective participant video feeds; receive, via the interface, an indication of user input for setting properties for the set of rooms; determine, in association with virtual conferencing, a first number of participants for a room; select a first room corresponding to the first number of participants; provide display of the first room; and assign, for each of the first number of participants, a participant video feed corresponding to the participant with a respective participant video element in the first room.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs

36.

OPACITY CONTROL OF AUGMENTED REALITY DEVICES

      
Numéro d'application 17950923
Statut En instance
Date de dépôt 2022-09-22
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s) Zare Seisan, Farid

Abrégé

An augmented reality (AR) eyewear device has a lens system which includes an optical screening mechanism that enables switching the lens system between a conventional see-through state and an opaque state in which the lens system screens or functionally blocks out the wearer's view of the external environment. Such a screening mechanism allows for expanded use cases of the AR glasses compared to conventional devices, e.g.: as a sleep mask; to view displayed content like movies or sports events against a visually non-distracting background instead of against the external environment; and/or to enable VR functionality.

Classes IPC  ?

  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/60 - Extraction de caractéristiques d’images ou de vidéos relative aux propriétés luminescentes, p.ex. utilisant un modèle de réflectance ou d’éclairage
  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique

37.

GENERATING A CONTEXTUAL SEARCH STREAM

      
Numéro d'application 18523697
Statut En instance
Date de dépôt 2023-11-29
Date de la première publication 2024-03-28
Propriétaire Snap Inc (USA)
Inventeur(s) Lo, Bobby

Abrégé

Systems and methods are provided for retrieving first query result data associated with a first user account and rendering the first query result data into a first result item, generating a shareable search result stream comprising the first result item associated with the first user account, retrieving second query result data associated with a second user account and rendering the second query result data into a second result item, adding the second result item to the shareable search result stream associated with the first user account, and providing the sharable search result stream comprising the first result item and the second result item to a first computing device associated with the first user account and a second computing device associated with the second user account.

Classes IPC  ?

  • G06F 16/951 - Indexation; Techniques d’exploration du Web
  • G06F 16/2457 - Traitement des requêtes avec adaptation aux besoins de l’utilisateur
  • G06F 16/9038 - Présentation des résultats des requêtes

38.

TEXT-GUIDED CAMEO GENERATION

      
Numéro d'application 17950945
Statut En instance
Date de dépôt 2022-09-22
Date de la première publication 2024-03-28
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Ghosh, Arnab
  • Ren, Jian
  • Savchenkov, Pavel
  • Tulyakov, Sergey

Abrégé

A method of generating an image for use in a conversation taking place in a messaging application is disclosed. Conversation input text is received from a user of a portable device that includes a display. Model input text is generated from the conversation input text, which is processed with a text-to-image model to generate an image based on the model input text. The coordinates of a face in the image are determined, and the face of the user or another person is added to the image at the location. The final image is displayed on the portable device, and user input is received to transmit the image to a remote recipient.

Classes IPC  ?

  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06F 40/289 - Analyse syntagmatique, p.ex. techniques d’états finis ou regroupement
  • G06F 40/35 - Représentation du discours ou du dialogue
  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions

39.

DEVICE AND METHOD FOR COMPENSATING EFFECTS OF PANTOSCOPIC TILT OR WRAP/SWEEP TILT ON AN IMAGE PRESENTED ON AN AUGMENTED REALITY OR VIRTUAL REALITY DISPLAY

      
Numéro d'application 18263837
Statut En instance
Date de dépôt 2021-12-07
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Valera, Mohmed Salim
  • Poussin, David Louis Maxime

Abrégé

An optical device is disclosed for use in an augmented reality or virtual reality display, comprising a waveguide (12; 22; 32) and an input diffractive optical element (H0; H3; 34) positioned in or on the waveguide, configured to receive light from a projector and couple it into the waveguide so that it is captured within the waveguide under total internal reflection. The input diffractive optical element has an input grating vector (G0; Gig) in the plane of the waveguide. The device includes a first diffractive optical element (H1; H4) and a second diffractive optical element (H2; H5) having first and second grating vectors (G2, G3; GV1, GV2) respectively in the plane of the waveguide, wherein the first diffractive optical element is configured to receive light from the input diffractive optical element and to couple it towards the second diffractive optical element, and wherein the second diffractive optical element is configured to receive light from the first diffractive optical element and to couple it out of the waveguide towards a viewer. The input grating vector, the first grating vector and the second grating vector have different respective magnitudes, and wherein a vector addition of the input grating vector, the first grating vector and the second grating vector sums to zero.

Classes IPC  ?

  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • F21V 8/00 - Utilisation de guides de lumière, p.ex. dispositifs à fibres optiques, dans les dispositifs ou systèmes d'éclairage
  • G02B 27/42 - Optique de diffraction

40.

VISUAL AND AUDIO WAKE COMMANDS

      
Numéro d'application 18367278
Statut En instance
Date de dépôt 2023-09-12
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Colascione, Daniel
  • Hanover, Matthew
  • Korolev, Sergei
  • Marr, Michael David
  • Myers, Scott
  • Powderly, James

Abrégé

A gesture-based wake process for an AR system is described herein. The AR system places a hand-tracking input pipeline of the AR system in a suspended mode. A camera component of the hand-tracking input pipeline detects a possible visual wake command being made by a user of the AR system. On the basis of detecting the possible visual wake command, the AR system wakes the hand-tracking input pipeline and places the camera component in a fully operational mode. If the AR system, using the hand-tracking input pipeline, verifies the possible visual wake command as an actual wake command, the AR system initiates execution of an AR application.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

41.

AUGMENTING IMAGE CONTENT WITH SOUND

      
Numéro d'application 18519735
Statut En instance
Date de dépôt 2023-11-27
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Boyd, Nathan Kenneth
  • Brody, Jonathan Dale
  • Cooper, Andrew Grosvenor
  • Francis, Brandon
  • Heikkinen, Christie Marie
  • Lankage, Ranidu

Abrégé

Aspects of the present disclosure involve a system and a method for performing operations comprising: receiving, by a messaging application implemented on a client device, input that selects a sound option to add sound to one or more images; in response to receiving the input, presenting a sound editing user interface element that visually indicates a played portion of the sound and separately visually indicates an un-played portion of the sound; receiving an interaction with the sound editing user interface element to modify a start point of the sound; embedding a graphical element representing the sound in the one or more images; playing, by the messaging application, the sound associated with the graphical element starting from the start point together with displaying the one or more images.

Classes IPC  ?

  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans

42.

CIRCUITS AND METHODS FOR WEARABLE DEVICE CHARGING AND WIRED CONTROL

      
Numéro d'application 18520094
Statut En instance
Date de dépôt 2023-11-27
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Tham, Yu Jiang
  • Larson, Nicolas
  • Brook, Peter
  • Patton, Russell Douglas
  • Alhaideri, Miran
  • Hong, Zhihao

Abrégé

Methods and devices for wired charging and communication with a wearable device are described. In one embodiment, a symmetrical contact interface comprises a first contact pad and a second contact pad, and particular wired circuitry is coupled to the first and second contact pads to enable charging as well as receive and transmit communications via the contact pads as part of various device states.

Classes IPC  ?

  • H02J 7/00 - Circuits pour la charge ou la dépolarisation des batteries ou pour alimenter des charges par des batteries
  • G02C 5/14 - Branches
  • G02C 11/00 - Accessoires non optiques; Fixation de ceux-ci
  • H01L 27/02 - Dispositifs consistant en une pluralité de composants semi-conducteurs ou d'autres composants à l'état solide formés dans ou sur un substrat commun comprenant des éléments de circuit passif intégrés avec au moins une barrière de potentiel ou une barrière de surface
  • H01R 13/62 - Moyens pour faciliter l'engagement ou la séparation des pièces de couplage ou pour les maintenir engagées
  • H02J 7/04 - Régulation du courant ou de la tension de charge
  • H02J 7/34 - Fonctionnement en parallèle, dans des réseaux, de batteries avec d'autres sources à courant continu, p.ex. batterie tampon
  • H03K 19/0185 - Dispositions pour le couplage; Dispositions pour l'interface utilisant uniquement des transistors à effet de champ
  • H04B 3/56 - Circuits de couplage, blocage ou dérivation des signaux

43.

USER INTERFACE FOR POSE DRIVEN VIRTUAL EFFECTS

      
Numéro d'application 18520255
Statut En instance
Date de dépôt 2023-11-27
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Alavi, Amir
  • Rykhliuk, Olha
  • Shi, Xintong
  • Solichin, Jonathan
  • Voronova, Olesia
  • Yagodin, Artem

Abrégé

Systems and methods herein describe a method for capturing a video in real-time by an image capture device. The system provides a plurality of visual pose hints, identifies first pose information in the video while capturing the video, applies a first series of virtual effects to the video, identifies second pose information, and applies a second series of virtual effects to the video, the second series of virtual effects based on the first series of virtual effects.

Classes IPC  ?

  • H04N 5/262 - Circuits de studio, p.ex. pour mélanger, commuter, changer le caractère de l'image, pour d'autres effets spéciaux
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • H04N 23/611 - Commande des caméras ou des modules de caméras en fonction des objets reconnus les objets reconnus comprenant des parties du corps humain
  • H04N 23/63 - Commande des caméras ou des modules de caméras en utilisant des viseurs électroniques

44.

MEDIA CONTENT PLAYBACK AND COMMENTS MANAGEMENT

      
Numéro d'application 18521428
Statut En instance
Date de dépôt 2023-11-28
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Boyd, Nathan Kenneth
  • Voss, Jeremy Baker

Abrégé

A method and a system include receiving a request from a client device to view a media content item, determining at least one comment associated with a respective user profile from a set of connected profiles, generating a summary comments selectable item based at least in part on the respective user profile, causing a display of playback of the media content item and the summary comments selectable item in response to the request to view the media content item, and during the playback of the media content item at the particular time, causing a display of at least one comment.

Classes IPC  ?

  • H04L 51/52 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel pour la prise en charge des services des réseaux sociaux
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport utilisant des icônes
  • H04L 67/306 - Profils des utilisateurs

45.

GEO-FENCE AUTHORIZATION PROVISIONING

      
Numéro d'application 18521752
Statut En instance
Date de dépôt 2023-11-28
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Allen, Nicholas Richard
  • Chang, Sheldon

Abrégé

A system includes a communication module that receives a request to post content to an event gallery associated with an event. The request in turn includes geo-location data for a device sending the content, and identification data identifying the device or a user of the device. The system further has an event gallery module to perform a first authorization operation that includes determining that the geo-location data corresponds to a geo-location fence associated with an event. The event gallery module also performs a second authorization operation that includes using the identification data to verify an attribute of the user. Finally, based on the first and second authorization operations, the event gallery module may selectively authorize the device to post the content to the event gallery.

Classes IPC  ?

  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04L 51/222 - Surveillance ou traitement des messages en utilisant des informations de localisation géographique, p.ex. des messages transmis ou reçus à proximité d'un certain lieu ou d'une certaine zone
  • H04L 51/52 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel pour la prise en charge des services des réseaux sociaux
  • H04W 4/02 - Services utilisant des informations de localisation
  • H04W 4/021 - Services concernant des domaines particuliers, p.ex. services de points d’intérêt, services sur place ou géorepères
  • H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
  • H04W 4/18 - Conversion de format ou de contenu d'informations, p.ex. adaptation, par le réseau, des informations reçues ou transmises pour une distribution sans fil aux utilisateurs ou aux terminaux
  • H04W 12/06 - Authentification
  • H04W 12/64 - Sécurité dépendant du contexte dépendant de la proximité utilisant des zones géorepérées

46.

SELECTING ITEMS DISPLAYED BY A HEAD-WORN DISPLAY DEVICE

      
Numéro d'application 18523197
Statut En instance
Date de dépôt 2023-11-29
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Stolzenberg, Karen
  • Meisenholder, David
  • Vignau, Mathieu Emmanuel
  • Park, Sana
  • Sun, Tianyi
  • Fortier, Joseph Timothy
  • Anvaripour, Kaveh
  • Moreno, Daniel
  • Goodrich, Kyle

Abrégé

Disclosed is a method of receiving and processing content-sending inputs received by a head-worn device system including one or more display devices, one or more cameras and a vertically-arranged touchpad. The method includes displaying a content item on the one or more display devices, receiving a touch input on the touchpad corresponding to a send instruction, displaying a carousel of potential recipients, receiving a horizontal touch input on the touchpad, scrolling the carousel left or right on the one or more display devices in response to the horizontal touch input, receiving a tap touch input on the touchpad to select a particular recipient, receiving a further touch input, and in response to the further touch input, transmitting the content item to the selected recipient.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/0485 - Défilement ou défilement panoramique
  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p.ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p.ex. des gestes en fonction de la pression exer utilisant un écran tactile ou une tablette numérique, p.ex. entrée de commandes par des tracés gestuels
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

47.

REAL-TIME UPPER-BODY GARMENT EXCHANGE

      
Numéro d'application 18525285
Statut En instance
Date de dépôt 2023-11-30
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Assouline, Avihay
  • Berger, Itamar
  • Malbin, Nir
  • Sasson, Gal

Abrégé

Methods and systems are disclosed for performing operations for transferring garments from one real-world object to another in real time. The operations comprise receiving a first video that includes a depiction of a first person wearing a first upper-body garment in a first pose and obtaining a second video that includes a depiction of a second person wearing a second upper-body garment in a second pose. A pose of the second person depicted in the second video is modified to match the first pose of the first person depicted in the first video. The operations comprise generating an upper-body segmentation of the second upper-body garment which the second person is wearing in the second video in the modified pose and replacing the first upper-body garment worn by the first person in the first video with the second upper-body garment based on the upper-body segmentation.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

48.

CONFIGURING A 3D MODEL WITHIN A VIRTUAL CONFERENCING SYSTEM

      
Numéro d'application 17948480
Statut En instance
Date de dépôt 2022-09-20
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Chou, William
  • Lin, Andrew Cheng-Min

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for configuring a three-dimensional (3D) model within a virtual conferencing system. The program and method provide, in association with designing a room for virtual conferencing, an interface for configuring a 3D model; receiving, via the interface, an indication of user input for setting properties for the 3D model, the properties specifying image data for projecting onto the 3D model; and in association with virtual conferencing, providing display of the room based on the properties for the 3D model, and causing the image data to be projected onto the 3D model within the room.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

49.

VIDEO GENERATION SYSTEM TO RENDER FRAMES ON DEMAND USING A FLEET OF GPUS

      
Numéro d'application 18520203
Statut En instance
Date de dépôt 2023-11-27
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Kotsopoulos, Bradley
  • Semory, Eli
  • Sheth, Rahul Bhupendra

Abrégé

A content controller system to render frames on demand comprises a rendering server system that includes a plurality of graphics processing units (GPUs). The GPUs in the rendering server system render a set of media content item segments using a media content identification and a main user identification. Rendering the set of media content item segments includes retrieving metadata from a metadata database associated with the media content identification, rendering the set of media content item segments using the metadata, generating a main user avatar based on the main user identification, and incorporating the main user avatar into the set of media content item segments. The rendering server system then uploads the set of media content item segments to a segment database; and updates segment states in a segment state database to indicate that the set of media content item segments are available. Other embodiments are disclosed herein.

Classes IPC  ?

  • H04N 21/262 - Ordonnancement de la distribution de contenus ou de données additionnelles, p.ex. envoi de données additionnelles en dehors des périodes de pointe, mise à jour de modules de logiciel, calcul de la fréquence de transmission de carrousel, retardement d
  • G06F 16/23 - Mise à jour
  • G06F 16/43 - Requêtes
  • G06T 1/20 - Architectures de processeurs; Configuration de processeurs p.ex. configuration en pipeline
  • H04N 21/234 - Traitement de flux vidéo élémentaires, p.ex. raccordement de flux vidéo ou transformation de graphes de scènes MPEG-4
  • H04N 21/235 - Traitement de données additionnelles, p.ex. brouillage de données additionnelles ou traitement de descripteurs de contenu
  • H04N 21/239 - Interfaçage de la voie montante du réseau de transmission, p.ex. établissement de priorité des requêtes de clients
  • H04N 21/258 - Gestion de données liées aux clients ou aux utilisateurs finaux, p.ex. gestion des capacités des clients, préférences ou données démographiques des utilisateurs, traitement des multiples préférences des utilisateurs finaux pour générer des données co
  • H04N 21/84 - Génération ou traitement de données de description, p.ex. descripteurs de contenu

50.

MEDIA GALLERY SHARING AND MANAGEMENT

      
Numéro d'application 18520365
Statut En instance
Date de dépôt 2023-11-27
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Kennedy, David James
  • Muñoz Escalante, Diego
  • Spool, Arianne
  • Xia, Yinghua David

Abrégé

Various embodiments include systems, methods, and non-transitory computer-readable media for sharing and managing media galleries. Consistent with these embodiments, a method includes receiving a request from a first device to share a media gallery that includes a user avatar; generating metadata associated with the media gallery; generating a message associated with the media gallery, the message at least including the media gallery identifier and the identifier of the user avatar; and transmitting the message to a second device of the recipient user.

Classes IPC  ?

  • H04L 51/10 - Informations multimédias
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • H04L 67/146 - Marqueurs pour l'identification sans ambiguïté d'une session particulière, p.ex. mouchard de session ou encodage d'URL

51.

PUSH NOTIFICATION MANAGEMENT

      
Numéro d'application 18525658
Statut En instance
Date de dépôt 2023-11-30
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Castro, Alex Joseph
  • Murray, Michael Brian
  • Wu, William

Abrégé

A push notification mechanism at a mobile user device provides for automated limiting of the rate of production of push notification alerts (such as an audible alert or a vibratory alert) and/or push notifications responsive to the occurrence of chat events relevant to a chat application hosted by the user device. Some chat events automatically trigger suppression periods during which push notification alerts are prevented for subsequent chat events that satisfy predefined suppression criteria. Such push notification and/or alert limiting can be performed separately for separate users, chat groups, and/or chat event types.

Classes IPC  ?

  • H04L 67/55 - Services réseau par poussée
  • H04L 51/04 - Messagerie en temps réel ou quasi en temps réel, p.ex. messagerie instantanée [IM]
  • H04L 51/224 - Surveillance ou traitement des messages en fournissant une notification sur les messages entrants, p.ex. des poussées de notifications des messages reçus
  • H04L 51/52 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel pour la prise en charge des services des réseaux sociaux

52.

LOW LATENCY HAND-TRACKING IN AUGMENTED REALITY SYSTEMS

      
Numéro d'application 17844541
Statut En instance
Date de dépôt 2022-06-20
Date de la première publication 2024-03-21
Propriétaire SNAP INC. (USA)
Inventeur(s)
  • Bajana, Jan
  • Jung, Bernhard
  • Wagner, Daniel

Abrégé

A method for reducing motion-to-photon latency for hand tracking is described. In one aspect, a method includes accessing a first frame from a camera of an Augmented Reality (AR) device, tracking a first image of a hand in the first frame, rendering virtual content based on the tracking of the first image of the hand in the first frame, accessing a second frame from the camera before the rendering of the virtual content is completed, the second frame immediately following the first frame, tracking, using the computer vision engine of the AR device, a second image of the hand in the second frame, generating an annotation based on tracking the second image of the hand in the second frame, forming an annotated virtual content based on the annotation and the virtual content, and displaying the annotated virtual content in a display of the AR device.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/20 - Analyse du mouvement
  • G06T 15/00 - Rendu d'images tridimensionnelles [3D]

53.

GRAPHICAL ASSISTANCE WITH TASKS USING AN AR WEARABLE DEVICE

      
Numéro d'application 17947889
Statut En instance
Date de dépôt 2022-09-19
Date de la première publication 2024-03-21
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Gurgul, Piotr
  • Moll, Sharon

Abrégé

Systems, methods, and computer readable media for graphical assistance with tasks using an augmented reality (AR) wearable devices are disclosed. Embodiments capture an image of a first user view of a real-world scene and access indications of surfaces and locations of the surfaces detected in the image. The AR wearable device displays indications of the surfaces on a display of the AR wearable device where the locations of the indications are based on the locations of the surfaces and a second user view of the real-world scene. The locations of the surfaces are indicated with 3D world coordinates. The user views are determined based on a location of the user. The AR wearable device enables a user to add graphics to the surfaces and select tasks to perform. Tools such as a bubble level or a measuring tool are available for the user to utilize to perform the task.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/74 - Appariement de motifs d’image ou de vidéo; Mesures de proximité dans les espaces de caractéristiques
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée

54.

Eyewear tether

      
Numéro d'application 18141661
Numéro de brevet 11934038
Statut Délivré - en vigueur
Date de dépôt 2023-05-01
Date de la première publication 2024-03-19
Date d'octroi 2024-03-19
Propriétaire SNAP INC. (USA)
Inventeur(s)
  • Ben-Haim, Yoav
  • Sehrawat, Varun
  • Dabov, Teodor
  • Ardisana, John Bernard

Abrégé

Eyewear devices including a tether and methods for identifying proper installation of the tether are disclosed. An eyewear device includes transmission lines extending through the temples to electrical and electronic components positioned adjacent to edges of a frame. A tether is attached to the temples to enable power and communication flow between the electrical and electronic components rather than through the frame. Proper installation is identified based on communications passing between the electrical and electronic components via the tether.

Classes IPC  ?

  • G02C 11/00 - Accessoires non optiques; Fixation de ceux-ci
  • G02C 3/00 - Dispositions particulières pour supporter des assemblages de verres ou des monocles
  • G02C 5/00 - Structure de pièces non optiques
  • G02C 5/02 - Pontets; Arcades; Barres intermédiaires
  • G02C 5/14 - Branches

55.

Controlling brightness based on eye tracking

      
Numéro d'application 18051330
Numéro de brevet 11935442
Statut Délivré - en vigueur
Date de dépôt 2022-10-31
Date de la première publication 2024-03-19
Date d'octroi 2024-03-19
Propriétaire SNAP INC. (USA)
Inventeur(s) Patton, Russell Douglas

Abrégé

Methods and systems are disclosed for performing operations for controlling brightness in an AR device. The operations comprise displaying an image on an eyewear device worn by a user; detecting a gaze direction of a pupil of the user; identifying a first region of the image that corresponds to the gaze direction of the pupil; and modifying a brightness level or value of pixels in the image based on the gaze direction such that pixels in the first region of the image are set to a first brightness value and pixels in a second region of the image are set to a second brightness value that is lower than the first brightness value.

Classes IPC  ?

  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

56.

MUTABLE GEO-FENCING SYSTEM

      
Numéro d'application 18508771
Statut En instance
Date de dépôt 2023-11-14
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Azmoodeh, Farnaz
  • Sellis, Peter
  • Yang, Jinlin

Abrégé

In various embodiments, boundaries of geo-fences can be made mutable based on principles described herein. The term “mutable” refers to the ability of a thing (in this case, the boundary of a geo-fence) to change and adjust. In a typical embodiment, a mutable geo-fence system is configured to generate and monitor a geo-fence that encompasses a region, in order to dynamically vary the boundary of the geo-fence based on a number of boundary variables. The term “geo-fence” as used herein describes a virtual perimeter (e.g., a boundary) for a real-world geographic area. A geo-fence could be a radius around a point (e.g., a store), or a set of predefined boundaries. Boundary variables, as used herein, refers to a set of variables utilized by the mutable geo-fence system in determining a location of the boundary of the geo-fence.

Classes IPC  ?

  • G06Q 30/0251 - Publicités ciblées
  • G06Q 30/0272 - Période d’exposition à la publicité
  • H04M 15/00 - Dispositions de comptage, de contrôle de durée ou d'indication de durée
  • H04W 4/021 - Services concernant des domaines particuliers, p.ex. services de points d’intérêt, services sur place ou géorepères
  • H04W 4/24 - Comptabilité ou facturation

57.

Augmented reality guidance that generates guidance markers

      
Numéro d'application 18510286
Statut En instance
Date de dépôt 2023-11-15
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Kang, Shin Hwun
  • Kucher, Dmytro
  • Hovorov, Dmytro
  • Canberk, Ilteris

Abrégé

Augmented reality guidance for guiding a user through an environment using an eyewear device. The eyewear device includes a display system and a position detection system. A user is guided though an environment by monitoring a current position of the eyewear device within the environment, identifying marker positions within a threshold of the current position, the marker positions defined with respect to the environment and associated with guidance markers, registering the marker positions, generating overlay image including the guidance markers, and presenting the overlay image on a display of the eyewear device.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques

58.

SELECTING ADS FOR A VIDEO WITHIN A MESSAGING SYSTEM

      
Numéro d'application 18514929
Statut En instance
Date de dépôt 2023-11-20
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Blackwood, John Cain
  • Lonkar, Chinmay
  • Lue, David B.
  • Penner, Kevin Lee

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for selecting ads for a video. The program and method provide for receiving a request for an ad to insert into a video playing on a client device, the request including a first content identifier that identifies a first type of content included in the video; determining a set of content identifiers associated with the first content identifier, the set of content identifiers identifying second types of content to filter with respect to providing the ad in response to the request; selecting an ad from among plural ads, by filtering ads tagged with a second content identifier included in the set of content identifiers; and providing the selected ad as a response to the request.

Classes IPC  ?

  • H04N 21/44 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4
  • G06F 16/245 - Traitement des requêtes
  • H04N 21/4788 - Services additionnels, p.ex. affichage de l'identification d'un appelant téléphonique ou application d'achat communication avec d'autres utilisateurs, p.ex. discussion en ligne
  • H04N 21/81 - Composants mono média du contenu
  • H04N 21/84 - Génération ou traitement de données de description, p.ex. descripteurs de contenu

59.

CARRY CASE FOR RECHARGEABLE EYEWEAR DEVICES

      
Numéro d'application 18515096
Statut En instance
Date de dépôt 2023-11-20
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Kim, Jinwoo
  • Lin, Jun

Abrégé

A carry case for an electronics-enabled eyewear device, such as smart glasses, has charging contacts that are movable relative to a storage chamber in which the eyewear device is receivable. The charging contacts are connected to a battery carried by the case for charging the eyewear device via contact coupling of the charging contacts to corresponding contact formations on an exterior of the eyewear device. The charging contacts are in some instances mounted on respective flexible walls defining opposite extremities of the storage chamber. The contact formations on the eyewear device are in some instances provided by hinge assemblies that couple respective temples to a frame of the eyewear device.

Classes IPC  ?

  • A45C 11/04 - Etuis à lunettes; Etuis à pince-nez
  • H02J 7/00 - Circuits pour la charge ou la dépolarisation des batteries ou pour alimenter des charges par des batteries
  • H02J 7/34 - Fonctionnement en parallèle, dans des réseaux, de batteries avec d'autres sources à courant continu, p.ex. batterie tampon

60.

DESTINATION SHARING IN LOCATION SHARING SYSTEM

      
Numéro d'application 18516785
Statut En instance
Date de dépôt 2023-11-21
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Baylin, Benoit
  • Dancie, Nicolas
  • Martin, Antoine
  • Martin, Julien
  • Sinton, Antoine
  • Uzan, Steven

Abrégé

Methods, systems, and devices are described for predicting a destination of a user and sharing the presumed destination with the other users via a geographically-based graphical user interface. Consistent with some embodiments, an electronic communication containing location information is received from a location sensor coupled to a first client device. A current trajectory of the first user is determined based on the location information. A presumed destination of the first user is determined, by correlating the current trajectory of the first user with historical location information of the first user. A map depicting an icon associated with the presumed destination of the first user is displayed, on a display screen of a second client device of a second user.

Classes IPC  ?

  • H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
  • G01C 21/34 - Recherche d'itinéraire; Guidage en matière d'itinéraire
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus
  • H04W 4/024 - Services d’orientation
  • H04W 8/18 - Traitement de données utilisateur ou abonné, p.ex. services faisant l'objet d'un abonnement, préférences utilisateur ou profils utilisateur; Transfert de données utilisateur ou abonné
  • H04W 12/63 - Sécurité dépendant du contexte dépendant de la proximité
  • H04W 64/00 - Localisation d'utilisateurs ou de terminaux pour la gestion du réseau, p.ex. gestion de la mobilité

61.

SCULPTING AUGMENTED REALITY CONTENT USING GESTURES IN A MESSAGING SYSTEM

      
Numéro d'application 17930927
Statut En instance
Date de dépôt 2022-09-09
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Goodrich, Kyle
  • Kaminski, Kurt
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

The subject technology detects from a set of frames, a first gesture, the first gesture corresponding to a pinch gesture. The subject technology detects a first location and a first position of a first representation of a first finger from the first gesture and a second location and a second position of a second representation of a second finger from the first gesture. The subject technology detects a first collision event corresponding to a first collider and a second collider intersecting with a third collider of a first virtual object. The subject technology detects a first change in the first location and the first position and a second change in the second location and the second position. The subject technology modifies the first virtual object to include an additional augmented reality content based at least in part on the first change and the second change.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/74 - Appariement de motifs d’image ou de vidéo; Mesures de proximité dans les espaces de caractéristiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • H04L 51/046 - Interopérabilité avec d'autres applications ou services réseau

62.

CLUSTERING VIDEOS USING A SELF-SUPERVISED DNN

      
Numéro d'application 17939256
Statut En instance
Date de dépôt 2022-09-07
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Coskun, Huseyin
  • Zareian, Alireza
  • Moore, Joshua
  • Wang, Chen

Abrégé

Systems and methods are provided for clustering videos. The system accesses a plurality of content items, the plurality of content items comprising a first set of RGB video frames and a second set of optical flow frames corresponding to the first set of RGB video frames. The system processes the first set of RGB video frames by a first machine learning model to generate a first optimal assignment for the first set of RGB video frames, the first optimal assignment representing initial clustering of the first set of RGB video frames. The system generates an updated first optimal assignment for the first set of RGB video frames based on the first optimal assignment for the first set of RGB video frames and a second optimal assignment of the second set of optical flow frames, the second optimal assignment representing initial clustering of the second set of optical flow frames.

Classes IPC  ?

  • G06V 10/762 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant le regroupement, p.ex. de visages similaires sur les réseaux sociaux
  • G06T 5/50 - Amélioration ou restauration d'image en utilisant plusieurs images, p.ex. moyenne, soustraction
  • G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux

63.

Virtual object manipulation with gestures in a messaging system

      
Numéro d'application 17941435
Numéro de brevet 11948266
Statut Délivré - en vigueur
Date de dépôt 2022-09-09
Date de la première publication 2024-03-14
Date d'octroi 2024-04-02
Propriétaire SNAP INC. (USA)
Inventeur(s)
  • Goodrich, Kyle
  • Lazarov, Maxim Maximov
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

The subject technology detects a first gesture and a second gesture, each gesture corresponding to an open trigger finger gesture. The subject technology detects a third gesture and a fourth gesture, each gesture corresponding to a closed trigger finger gesture. The subject technology, selects a first virtual object in a first scene. The subject technology detects a first location and a first position of a first representation of a first finger from the third gesture and a second location and a second position of a second representation of a second finger from the fourth gesture. The subject technology detects a first change in the first location and the first position and a second change in the second location and the second position. The subject technology modifies a set of dimensions of the first virtual object to a different set of dimensions.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

64.

GESTURES TO ENABLE MENUS USING AUGMENTED REALITY CONTENT IN A MESSAGING SYSTEM

      
Numéro d'application 17941522
Statut En instance
Date de dépôt 2022-09-09
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Goodrich, Kyle
  • Lazarov, Maxim Maximov
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

The subject technology detects a first location and a first position of a first representation of a first finger and a second location and a second position of a second representation of a second finger. The subject technology detects a first particular location and a first particular position of a first particular representation of a first particular finger and a second particular location and a second particular position of a second particular representation of a second particular finger. The subject technology detects a first change in the first location and the first position and a second change in the second location and the second position. The subject technology detects a first particular change in the first particular location and the first particular position and a second particular change in the second particular location and the second particular position. The subject technology generates a set of virtual objects.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/74 - Appariement de motifs d’image ou de vidéo; Mesures de proximité dans les espaces de caractéristiques
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • H04L 51/046 - Interopérabilité avec d'autres applications ou services réseau

65.

DEFORMING REAL-WORLD OBJECT USING IMAGE WARPING

      
Numéro d'application 17973295
Statut En instance
Date de dépôt 2022-10-25
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Guler, Riza Alp
  • Tam, Himmy
  • Wang, Haoyang
  • Kakolyris, Antonios

Abrégé

Methods and systems are disclosed for performing real-time deforming operations. The system receives an image that includes a depiction of a real-world object. The system applies a machine learning model to the image to generate a warping field and segmentation mask, the machine learning model trained to establish a relationship between a plurality of training images depicting real-world objects and corresponding ground-truth warping fields and segmentation masks associated with a target shape. The system applies the generated warping field and segmentation mask to the image to warp the real-world object depicted in the image to the target shape.

Classes IPC  ?

  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 3/00 - Transformation géométrique de l'image dans le plan de l'image
  • G06T 7/10 - Découpage; Détection de bords
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

66.

ADAPTIVE ILLUMINATOR SEQUENCING

      
Numéro d'application 18507252
Statut En instance
Date de dépôt 2023-11-13
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s) Ramanath, Rajeev

Abrégé

An eyewear device is disclosed including an illumination device including illumination sources, each illumination source including a first illuminator, a second illuminator, and a third illuminator, and a spatial light modulator coupled to the illumination device to control when each of the first, second, and third illuminators are on during an illumination frame. The spatial light modulator is adapted to turn on the first illuminator while the second and third illuminators are off, turn on the second illuminator while the first and third illuminators are off, turn on the third illuminator while the first and second illuminators are off during a third time period of the illumination frame, and turn on the first, second and third illuminators during a fourth time period. An illumination method is also disclosed.

Classes IPC  ?

  • H04N 9/31 - Dispositifs de projection pour la présentation d'images en couleurs

67.

GENERATING PERSONALIZED VIDEOS WITH CUSTOMIZED TEXT MESSAGES

      
Numéro d'application 18509420
Statut En instance
Date de dépôt 2023-11-15
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Mashrabov, Alexander
  • Shaburov, Victor
  • Savinova, Sofia
  • Matov, Dmitriy
  • Osipov, Andrew
  • Semenov, Ivan
  • Golobokov, Roman

Abrégé

Described are systems and methods for generating personalized videos with customized text messages. An example method includes receiving an input text, a video template including a sequence of frame images, and at least one parameter for animation of the input text across the sequence of frame images, generating, based on the input text and the at least one parameter for animation, a configuration file including a text style for the input text for a frame in the sequence of frame images, and rendering, based on the configuration file, an output frame of an output video, where the output frame includes the frame in the sequence of frame images and a layer, and where the layer includes the input text stylized based on the text style. The method further includes providing an option enabling a user to change the at least one parameter for animation.

Classes IPC  ?

  • G06T 13/80 - Animation bidimensionnelle [2D], p.ex. utilisant des motifs graphiques programmables
  • G11B 27/031 - Montage électronique de signaux d'information analogiques numérisés, p.ex. de signaux audio, vidéo
  • H04L 51/04 - Messagerie en temps réel ou quasi en temps réel, p.ex. messagerie instantanée [IM]
  • H04L 51/10 - Informations multimédias

68.

CUSTOMIZING MODIFIABLE VIDEOS OF MULTIMEDIA MESSAGING APPLICATION

      
Numéro d'application 18509589
Statut En instance
Date de dépôt 2023-11-15
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Voss, Jeremy
  • Shaburov, Victor
  • Babanin, Ivan
  • Mashrabov, Aleksandr
  • Golobokov, Roman

Abrégé

Provided are systems and methods for customizing modifiable videos. An example method includes analyzing recent messages associated with a user in a multimedia messaging application to determine a context of the recent messages, determining, based on the context, a property of a modifiable feature, selecting, based on the context, a list of relevant modifiable videos from a database configured to store modifiable videos associated with a preset modifiable feature, replacing a property of the preset modifiable feature in relevant modifiable videos of the list of relevant modifiable videos with the property of the modifiable feature, and rendering the list of relevant modifiable videos for viewing by the user, where the rendering includes displaying the modifiable feature in the relevant modifiable videos.

Classes IPC  ?

  • H04M 1/72439 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens de soutien local des applications accroissant la fonctionnalité avec des moyens interactifs de gestion interne des messages pour la messagerie visuelle ou vidéo
  • G06T 11/60 - Edition de figures et de texte; Combinaison de figures ou de texte
  • G06T 13/80 - Animation bidimensionnelle [2D], p.ex. utilisant des motifs graphiques programmables
  • H04L 51/02 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel en utilisant des réactions automatiques ou la délégation par l’utilisateur, p.ex. des réponses automatiques ou des messages générés par un agent conversationnel
  • H04L 51/216 - Gestion de l'historique des conversations, p.ex. regroupement de messages dans des sessions ou des fils de conversation
  • H04M 1/72427 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens de soutien local des applications accroissant la fonctionnalité pour donner accès à des jeux ou à des animations graphiques
  • H04M 1/72436 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens de soutien local des applications accroissant la fonctionnalité avec des moyens interactifs de gestion interne des messages pour la messagerie textuelle, p.ex. SMS ou courriel
  • H04M 1/72442 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens de soutien local des applications accroissant la fonctionnalité pour faire jouer des fichiers musicaux

69.

AUTOMATICALLY ESTIMATING PLACE DATA ACCURACY

      
Numéro d'application 18510195
Statut En instance
Date de dépôt 2023-11-15
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s) Shughrue, Christopher

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and a method for performing operations comprising: receiving a plurality of records associated with a first geographical area; identifying a plurality of corrections to a first attribute in the first geographical area in the plurality of records for a particular time period; based on identifying the plurality of corrections to the first attribute, computing a first metric representing a quantity of the plurality of corrections to the first attribute per effort during the particular time period; accumulating a first value representing a total number of errors across a plurality of time periods up to and including the particular time period based on the identified plurality of corrections; and generating a first model that predicts accuracy of the first attribute in the first geographical area based on the metric and the accumulated first value.

Classes IPC  ?

70.

CONTEXT-SENSITIVE REMOTE EYEWEAR CONTROLLER

      
Numéro d'application 18510381
Statut En instance
Date de dépôt 2023-11-15
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Nielsen, Simon
  • Rodriguez, Jonathan
  • Tham, Yu Jiang

Abrégé

Context-sensitive remote controls for use with electronic devices (e.g., eyewear device). The electronic device is configured to perform activities (e.g., email, painting, navigation, gaming). The context-sensitive remote control includes a display having a display area, a display driver coupled to the display, and a transceiver. The remote control additionally includes memory that stores controller layout configurations for display in the display area of the display by the display driver. A processor in the context-sensitive remote control is configured to establish, via the transceiver, communication with an electronic device, detect an activity currently being performed by the electronic device, select one of the controller layout configurations responsive to the detected activity, and present, via the display driver, the selected controller layout configuration in the display area of the display.

Classes IPC  ?

  • A63F 13/22 - Opérations de configuration, p.ex. le calibrage, la configuration des touches ou l’affectation des boutons
  • A63F 13/211 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types utilisant des capteurs d’inertie, p.ex. des accéléromètres ou des gyroscopes
  • A63F 13/2145 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types pour localiser des contacts sur une surface, p.ex. des tapis de sol ou des pavés tactiles la surface étant aussi un dispositif d’affichage, p.ex. des écrans tactiles
  • A63F 13/24 - Dispositions d'entrée pour les dispositifs de jeu vidéo - Parties constitutives, p.ex. manettes de jeu avec poignées amovibles
  • A63F 13/327 - Dispositions d’interconnexion entre des serveurs et des dispositifs de jeu; Dispositions d’interconnexion entre des dispositifs de jeu; Dispositions d’interconnexion entre des serveurs de jeu utilisant des connexions de réseau local [LAN] utilisant des réseaux sans fil, p.ex. WIFI ou piconet
  • A63F 13/40 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p.ex. les signaux générés par le joueur ou dérivés de l’environnement
  • A63F 13/92 - Dispositifs de jeu vidéo spécialement adaptés à une prise manuelle pendant le jeu
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p.ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p.ex. des gestes en fonction de la pression exer utilisant un écran tactile ou une tablette numérique, p.ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p.ex. claviers virtuels ou menus

71.

FAST DATA ACCESSING SYSTEM USING OPTICAL BEACONS

      
Numéro d'application 18514725
Statut En instance
Date de dépôt 2023-11-20
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Wang, Jian
  • Bayer, Karl
  • Nayar, Shree K.

Abrégé

An apparatus to perform fast data access comprises a receiver, a processor, and a memory. The processor receives using the receiver a light signal from a light source. The light signal can be structured to generate a temporal code. The light source is an optical beacon that includes a Light-Emitting Diode (LED). The processor then decodes the light signal to generate a network address, and causes a display of a client device coupled to the apparatus to display information based on the network address. The network address can be a Uniform Resource Locator (URL) address and the information based on the network address includes a webpage associated with the URL. Other embodiments are described herein.

Classes IPC  ?

  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p.ex. lecture de la lumière blanche réfléchie
  • G06K 7/10 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire

72.

RADIAL GESTURE NAVIGATION

      
Numéro d'application 18514760
Statut En instance
Date de dépôt 2023-11-20
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Blachly, Ty
  • Boyd, Nathan
  • Giovannini, Donald
  • Jayaram, Krish
  • Spiegel, Evan
  • Wu, William

Abrégé

Systems and methods for radial gesture navigation are provided. In example embodiments, user input data is received from a user device. The user input data indicates a continuous physical user interaction associated with a display screen of the user device. An initial point and a current point are detected from the user input data. A radius distance for a circle that includes the current point and is centered about the initial point is determined. An action is selected from among multiple actions based on the radius distance being within a particular range among successive ranges along a straight line that starts at the initial point and extends through the circle. Each range among the successive ranges corresponds to a particular action among the multiple actions. The selected action is performed in response to detecting a completion of the continuous physical user interaction.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/041 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction

73.

CUSTOMIZED DIGITAL AVATAR ACCESSORIES

      
Numéro d'application 18516664
Statut En instance
Date de dépôt 2023-11-21
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Blackstock, Jacob Edward
  • Escalante, Diego Muñoz
  • Grantham, Matthew Colin

Abrégé

Among other things, embodiments of the present disclosure improve the functionality of electronic messaging software and systems by generating customized images with avatars of different users within electronic messages. For example, users of different mobile computing devices can exchange electronic communications with images generated to include avatars representing themselves as well as their friends, colleagues, and other acquaintances.

Classes IPC  ?

  • H04L 51/046 - Interopérabilité avec d'autres applications ou services réseau
  • G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
  • H04L 51/10 - Informations multimédias
  • H04L 51/216 - Gestion de l'historique des conversations, p.ex. regroupement de messages dans des sessions ou des fils de conversation
  • H04L 51/52 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel pour la prise en charge des services des réseaux sociaux
  • H04L 67/10 - Protocoles dans lesquels une application est distribuée parmi les nœuds du réseau
  • H04L 67/306 - Profils des utilisateurs

74.

AUTO TRIMMING FOR AUGMENTED REALITY CONTENT IN MESSAGING SYSTEMS

      
Numéro d'application 17941292
Statut En instance
Date de dépôt 2022-09-09
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Goodrich, Kyle
  • Lazarov, Maxim Maximov
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

The subject technology receives frames of a source media content. The subject technology detects from the frames of the source media content, a first gesture indicating a cut point at a particular frame of the source media content, the cut point associated with a trimming operation to be performed on the source media content. The subject technology selects a starting frame and an ending frame from the frames based at least in part on the cut point at the particular frame. The subject technology performs the trimming operation based on the starting frame and the ending frame. The subject technology generates a second media content using the third set of frames. The subject technology provides for display at least a portion of the third set of frames of the second media content.

Classes IPC  ?

  • G11B 27/031 - Montage électronique de signaux d'information analogiques numérisés, p.ex. de signaux audio, vidéo
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

75.

3D CURSOR FUNCTIONALITY FOR AUGMENTED REALITY CONTENT IN MESSAGING SYSTEMS

      
Numéro d'application 17941293
Statut En instance
Date de dépôt 2022-09-09
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Goodrich, Kyle
  • Lazarov, Maxim Maximov
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

The subject technology detects a location and a position of a representation of a finger. The subject technology generates a first virtual object based on the location and the position of the representation of the finger. The subject technology detects a first collision event. The subject technology in response to the first collision event, modifies a set of dimensions of the second virtual object to a second set of dimensions. The subject technology detects a second location and a second position of the representation of the finger. The subject technology detects a second collision event. The subject technology modifies a set of dimensions of the third virtual object to a third set of dimensions. The subject technology renders the third virtual object based on the third set of dimensions within a third scene, the third scene comprising a modified scene from a second scene.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

76.

SHOOTING INTERACTION USING AUGMENTED REALITY CONTENT IN A MESSAGING SYSTEM

      
Numéro d'application 17941301
Statut En instance
Date de dépôt 2022-09-09
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Goodrich, Kyle
  • Lazarov, Maxim Maximov
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

The subject technology receives a set of frames. The subject technology detect a first gesture correspond to an open trigger finger gesture. The subject technology receives a second set of frames. The subject technology detects from the second set of frames, a second gesture correspond to a closed trigger finger gesture. The subject technology detects a location and a position of a representation of a finger from the closed trigger finger gesture. The subject technology generates a first virtual object based at least in part on the location and the position of the representation of the finger. The subject technology renders a movement of the first virtual object along a vector away from the location and the position of the representation of the finger within a first scene. The subject technology provides for display the rendered movement of the first virtual object along the vector within the first scene.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

77.

CURSOR FUNCTIONALITY FOR AUGMENTED REALITY CONTENT IN MESSAGING SYSTEMS

      
Numéro d'application 17941303
Statut En instance
Date de dépôt 2022-09-09
Date de la première publication 2024-03-14
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Goodrich, Kyle
  • Lazarov, Maxim Maximov
  • Mcphee, Andrew James
  • Moreno, Daniel

Abrégé

The subject technology detects a location and a position of a representation of a finger in a set of frames captured by a camera of a client device. The subject technology generates a first virtual object based at least in part on the location and the position of the representation of the finger. The subject technology renders the first virtual object within a first scene. The subject technology detects a first collision event corresponding to a first collider of the first virtual object intersecting with a second collider of a second virtual object. The subject technology modifies a set of dimensions of the second virtual object to a second set of dimensions. The subject technology renders the second virtual object based on the second set of dimensions within a second scene. The subject technology provides for display the rendered second virtual object within the second scene.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

78.

MEDIA CONTENT ITEM GENERATION FOR A CONTENT SHARING PLATFORM

      
Numéro d'application 18143331
Statut En instance
Date de dépôt 2023-05-04
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Wehrman, Ian Anthony
  • Goodwin, Giles
  • Iwata, Jared
  • Feingold, Eugene
  • Lemieux, David

Abrégé

Systems and methods are provided for determining a set of selectors associated with the publisher identifier, each selector comprising specified content to extract from source data and one or more rules for extracting the specified content. The system and methods further provided for each location data in the list of location data, extracting, from the source data, specified content for each selector of at least a subset of the set of selectors based on the one or more rules specified in each selector of the at least the subset of the set of selectors; determining a template to use to generate the media content item, the template comprising regions corresponding to the one or more selectors; populating each region of the template using specified content for the corresponding selector; and generating the media content item from the populated template.

Classes IPC  ?

  • G06F 9/451 - Dispositions d’exécution pour interfaces utilisateur
  • G06F 8/36 - Réutilisation de logiciel
  • G06F 8/38 - Création ou génération de code source pour la mise en œuvre d'interfaces utilisateur
  • G06F 16/93 - Systèmes de gestion de documents
  • G06F 16/955 - Recherche dans le Web utilisant des identifiants d’information, p.ex. des localisateurs uniformisés de ressources [uniform resource locators - URL]
  • G06F 16/958 - Organisation ou gestion de contenu de sites Web, p.ex. publication, conservation de pages ou liens automatiques

79.

AUTOMATED GIF GENERATION PLATFORM

      
Numéro d'application 18388987
Statut En instance
Date de dépôt 2023-11-13
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Zhou, Kai
  • Au, Kenneth

Abrégé

A system and a method for generating an automated GIF file generation system is described. In one aspect, the method includes accessing an animated GIF file, identifying a plurality of elements displayed in the animated GIF file, applying a variation of one or more elements to the animated GIF file, and generating a variant animated GIF file by applying the variation of the one or more elements to the animated GIF file. The system measures a trending metric of the variant animated GIF file based on a number of times the variant animated GIF file is shared on the communication platform and uses the trending metric as a feedback to generating the variant animated GIF file.

Classes IPC  ?

  • G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p.ex. d’êtres humains, d’animaux ou d’êtres virtuels
  • G06F 16/903 - Requêtes
  • G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 20/30 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les albums, les collections ou les contenus partagés, p.ex. des photos ou des vidéos issus des réseaux sociaux
  • H04L 67/50 - Services réseau

80.

PRESENTING OVERVIEW OF PARTICIPANT REACTIONS WITHIN A VIRTUAL CONFERENCING SYSTEM

      
Numéro d'application 18506861
Statut En instance
Date de dépôt 2023-11-10
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Lin, Andrew Cheng-Min
  • Lin, Walton

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for presenting an overview of participant reactions to a virtual conference. The program and method provide for a virtual conference between plural participants; provide, for each of the plural participants, display of reaction buttons which are selectable by the participant to indicate different reactions to the virtual conference; receive indication of selections of the reaction buttons by one or more of the plural participants; store an indication of the selections over time in association with recording the virtual conference; generate a graphical overview of reactions to the virtual conference based on the stored indication of the selections; and provide, for a first participant of the plural participants, display of the graphical overview.

Classes IPC  ?

  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 65/4038 - Dispositions pour la communication multipartite, p.ex. pour les conférences avec commande de la prise de parole

81.

FACE REENACTMENT

      
Numéro d'application 18509502
Statut En instance
Date de dépôt 2023-11-15
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Savchenkov, Pavel
  • Matov, Dmitry
  • Mashrabov, Aleksandr
  • Pchelnikov, Alexey

Abrégé

Provided are systems and methods for face reenactment. An example method includes receiving a target video that includes at least one target frame, where the at least one target frame includes a target face, receiving a scenario including a series of source facial expressions, determining, based on the target face, a target facial expression of the target face, synthesizing, based on a parametric face model and a texture model, an output face including the target face, where the target facial expression of the target face is modified to imitate a source facial expression of the series of source facial expressions, and generating, based on the output face, a frame of an output video. The parametric face model includes a template mesh pre-generated based on historical images of faces of a plurality of individuals, where the template mesh includes a pre-determined number of vertices.

Classes IPC  ?

  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
  • G06N 3/04 - Architecture, p.ex. topologie d'interconnexion
  • G06Q 30/0251 - Publicités ciblées
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]

82.

REMOTELY CHANGING SETTINGS ON AR WEARABLE DEVICES

      
Numéro d'application 17929985
Statut En instance
Date de dépôt 2022-09-06
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Gurgul, Piotr
  • Moll, Sharon

Abrégé

Systems, methods, and computer readable media are described for remotely changing settings on augmented reality (AR) wearable devices. Embodiments are disclosed that enable a user to change settings of an AR wearable device on a user interface (UI) provided by a host client device that can communicate wirelessly with the AR wearable device. The host client device and AR wearable device provide remote procedure calls (RPCs) and an application program interface (API) to access settings and determine if settings have been changed. The API enables the host client device to determine the settings on the AR wearable device without any prior knowledge of the settings on the AR wearable device. The RPCs and the API enable the host client device to automatically update the settings on the AR wearable device when the user changes the settings on the host client device.

Classes IPC  ?

  • G06F 9/54 - Communication interprogramme
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

83.

SELECTING A TILT ANGLE OF AN AR DISPLAY

      
Numéro d'application 17930263
Statut En instance
Date de dépôt 2022-09-07
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Lucas, Benjamin
  • Meisenholder, David

Abrégé

Systems, methods, and computer readable media for selecting a tilt angle of an augmented reality (AR) display of an AR wearable device. Some examples of the present disclosure capture simulation data of gaze fixations while users are performing tasks using applications resident on the AR wearable device. The tilt angle of the AR display is selected based on including more gaze fixations that are within the field of view (FOV) of the AR display than are outside the FOV of the AR display. In some examples, an AR wearable device is manufactured with a fixed vertical tilt angle for the AR display. In some examples, the AR wearable device can dynamically adjust the vertical tilt angle of the AR display based on the applications that a user of the AR wearable device is likely to use or is using.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

84.

SELECTING AR BUTTONS ON A HAND

      
Numéro d'application 17939296
Statut En instance
Date de dépôt 2022-09-07
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s) Crispin, Sterling

Abrégé

Systems and methods are provided for performing AR button selection operations on an augmented reality (AR) device. The system displays, by an AR device, a plurality of AR objects on a display region that overlaps a first real-world object, each of the plurality of AR objects being associated with an object selection region. The system computes a first spatial relationship factor for a first AR object of the plurality of AR objects based on a position of the first AR object relative to a position of a second real-world object and adjusts the object selection region of the first AR object based on the first spatial relationship factor. The system activates the first AR object in response to determining that the second real-world object overlaps the object selection region of the first AR object.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

85.

CODED VISION SYSTEM

      
Numéro d'application 18388977
Statut En instance
Date de dépôt 2023-11-13
Date de la première publication 2024-03-07
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Charlton, Ebony James
  • Cansizoglu, Omer
  • Ouimet, Kirk
  • Boyd, Nathan Kenneth

Abrégé

A system and method for presentation of computer vision (e.g., augmented reality, virtual reality) using user data and a user code is disclosed. A client device can detect an image feature (e.g., scannable code) in one or more images. The image feature is determined to be linked to a user account. User data from the user account can then be used to generate one or more augmented reality display elements that can be anchored to the image feature in the one or more images.

Classes IPC  ?

  • G06T 11/60 - Edition de figures et de texte; Combinaison de figures ou de texte
  • A63F 13/00 - Jeux vidéo, c. à d. jeux utilisant un affichage à plusieurs dimensions généré électroniquement
  • A63F 13/213 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types comprenant des moyens de photo-détection, p.ex. des caméras, des photodiodes ou des cellules infrarouges
  • A63F 13/352 - Dispositions d’interconnexion entre des serveurs et des dispositifs de jeu; Dispositions d’interconnexion entre des dispositifs de jeu; Dispositions d’interconnexion entre des serveurs de jeu - Détails des serveurs de jeu comportant des dispositions particulières de serveurs de jeu, p.ex. des serveurs régionaux connectés à un serveur national ou à plusieurs serveurs gérant les partitions de jeu
  • A63F 13/58 - Commande des personnages ou des objets du jeu en fonction de la progression du jeu en calculant l’état des personnages du jeu, p.ex. niveau de vigueur, de force, de motivation ou d’énergie
  • A63F 13/65 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p.ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu automatiquement par des dispositifs ou des serveurs de jeu, à partir de données provenant du monde réel, p.ex. les mesures en direct dans les compétitions de course réelles
  • A63F 13/79 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p.ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
  • H04L 51/52 - Messagerie d'utilisateur à utilisateur dans des réseaux à commutation de paquets, transmise selon des protocoles de stockage et de retransmission ou en temps réel, p.ex. courriel pour la prise en charge des services des réseaux sociaux
  • H04L 67/306 - Profils des utilisateurs
  • H04L 67/52 - Services réseau spécialement adaptés à l'emplacement du terminal utilisateur

86.

System to generate contextual queries

      
Numéro d'application 16732068
Numéro de brevet 11921773
Statut Délivré - en vigueur
Date de dépôt 2019-12-31
Date de la première publication 2024-03-05
Date d'octroi 2024-03-05
Propriétaire SNAP INC. (USA)
Inventeur(s) Adler, Manny Jerrold

Abrégé

A contextual query system is configured to perform operations that include: causing display of a graphical user interface at a client device, the graphical user interface including a display of image data that comprises a set of image features; generating a query based on the set of image features of the image data; accessing media content based on the query at a repository, the repository comprising a collection of media content; and causing display of a presentation of the media content within the graphical user interface at the client device.

Classes IPC  ?

  • G06F 16/532 - Formulation de requêtes, p.ex. de requêtes graphiques
  • G06F 16/535 - Filtrage basé sur des données supplémentaires, p.ex. sur des profils d'utilisateurs ou de groupes
  • G06F 16/538 - Présentation des résultats des requêtes
  • G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
  • G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
  • G06F 16/587 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des informations géographiques ou spatiales, p.ex. la localisation

87.

Normalized brightness control for user perception of visual media

      
Numéro d'application 18157403
Numéro de brevet 11922901
Statut Délivré - en vigueur
Date de dépôt 2023-01-20
Date de la première publication 2024-03-05
Date d'octroi 2024-03-05
Propriétaire Snap Inc. (USA)
Inventeur(s) Fawcett, Rudd

Abrégé

A system and method for control of perceived brightness level in a display device based on the brightness of individual content items to provide a consistent viewing experience. This is a method of visual content-based brightness control. Adjusting the perceived display of individual visual content items does not rely on the adjustment of a display device's settings or controls, such as a general setting to control the brightness of a display screen, but rather evaluates the visual content being presented and adjusts the presentation layers for display of the visual content provided as part of the display screen. In this way, adjusting parameter(s) of one or more of these presentation layers provides control over the brightness level of the displayed content as a function of the brightness of the content.

Classes IPC  ?

88.

Emotion recognition for workforce analytics

      
Numéro d'application 16667366
Numéro de brevet 11922356
Statut Délivré - en vigueur
Date de dépôt 2019-10-29
Date de la première publication 2024-03-05
Date d'octroi 2024-03-05
Propriétaire SNAP INC. (USA)
Inventeur(s)
  • Shaburov, Victor
  • Monastyrshyn, Yurii

Abrégé

Methods and systems for videoconferencing include generating work quality metrics based on emotion recognition of an individual such as a call center agent. The work quality metrics allow for workforce optimization. One example method includes the steps of receiving a video including a sequence of images, detecting an individual in one or more of the images, locating feature reference points of the individual, aligning a virtual face mesh to the individual in one or more of the images based at least in part on the feature reference points, dynamically determining over the sequence of images at least one deformation of the virtual face mesh, determining that the at least one deformation refers to at least one facial emotion selected from a plurality of reference facial emotions, and generating quality metrics including at least one work quality parameter associated with the individual based on the at least one facial emotion.

Classes IPC  ?

  • G06Q 10/0639 - Analyse des performances des employés; Analyse des performances des opérations d’une entreprise ou d’une organisation
  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
  • G10L 25/63 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour estimer un état émotionnel
  • H04N 21/4402 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4 impliquant des opérations de reformatage de signaux vidéo pour la redistribution domestique, le stockage ou l'affichage en temps réel
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G10L 17/26 - Reconnaissance de caractéristiques spéciales de voix, p.ex. pour utilisation dans les détecteurs de mensonge; Reconnaissance des voix d’animaux
  • H04N 7/15 - Systèmes pour conférences
  • H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
  • H04N 21/4788 - Services additionnels, p.ex. affichage de l'identification d'un appelant téléphonique ou application d'achat communication avec d'autres utilisateurs, p.ex. discussion en ligne

89.

TOUCH-BASED AUGMENTED REALITY EXPERIENCE

      
Numéro d'application 18056142
Statut En instance
Date de dépôt 2022-11-16
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Vaish, Rajan
  • Kratz, Sven
  • Monroy-Hernández, Andrés
  • Smith, Brian Anthony

Abrégé

The present disclosure relates to methods and systems for providing a touch-based augmented reality (AR) experience. During a capture phase, a first user may grip an object. An intensity of a force applied on the object in the grip and/or a duration of the grip may be recorded. A volumetric representation of the first user holding the object may also be captured. During an experience phase, a second user may touch the object, the object may provide haptic feedback (e.g., a vibration) to the second user at an intensity and a duration corresponding to an intensity of the force applied on the object and a duration of the grip of the object. If a volumetric representation of the first user holding the object is captured, touching the object may also cause a presentation of the first user's volumetric body that holds the object.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

90.

MULTI-DIMENSIONAL EXPERIENCE PRESENTATION USING AUGMENTED REALITY

      
Numéro d'application 18169631
Statut En instance
Date de dépôt 2023-02-15
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Vaish, Rajan
  • Kratz, Sven
  • Monroy-Hernández, Andrés
  • Smith, Brian Anthony

Abrégé

The present disclosure relates to methods and systems for providing a presentation of an experience (e.g., a journey) to a user using augmented reality (AR). During a capture phase, persons in the journey may take videos or pictures using their smartphones, GoPros, and/or smart glasses. A drone may also take videos or pictures during the journey. During an experience phase, an AR topographical rendering of the real-world environment of the journey may be rendered on a tabletop, highlighting/animating a path persons took in the journey. The persons may be rendered as miniature avatars/dolls overlaid on the representation of the real-world environment. When the user clicks on a point in the presentation of the journey, a perspective (e.g., the videos or pictures) at that point is presented.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 5/268 - Distribution ou commutation du signal

91.

OBJECT RELIGHTING USING NEURAL NETWORKS

      
Numéro d'application 18387212
Statut En instance
Date de dépôt 2023-11-06
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Volkov, Yurii
  • Nemchinov, Egor
  • Dmukhin, Gleb

Abrégé

A messaging system performs image processing to relight objects with neural networks for images provided by users of the messaging system. A method of relighting objects with neural networks includes receiving an input image with first lighting properties comprising an object with second lighting properties and processing the input image using a convolutional neural network to generate an output image with the first lighting properties and comprising the object with third lighting properties, where the convolutional neural network is trained to modify the second lighting properties to be consistent with lighting conditions indicated by the first lighting properties to generate the third lighting properties. The method further includes modifying the second lighting properties of the object to generate the object with modified second lighting properties and blending the third lighting properties with the modified second lighting properties to generate a modified output image comprising the object with fourth lighting properties.

Classes IPC  ?

  • G06T 15/50 - Effets de lumière
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

92.

PRESENTING PARTICIPANT REACTIONS WITHIN A VIRTUAL WORKING ENVIRONMENT

      
Numéro d'application 18450740
Statut En instance
Date de dépôt 2023-08-16
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Francis, Brandon
  • Lin, Andrew Cheng-Min
  • Lin, Walton

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for presenting participant reactions within a virtual working environment. The program and method provide a configuration interface for configuring a virtual working environment for plural participants, the configuration interface for specifying groups of participants, each group comprising respective participants selected from among the plural participants; receive first user input, provided via the configuration interface, specifying a first group of participants; provide, for each participant in the first group, display of a reactions interface with user-selectable buttons to indicate respective reactions for displaying to the first group; receive second user input, provided via the reactions interface, selecting one of the user-selectable buttons to indicate a reaction for displaying to the first group; and provide, for each participant in the first group, display of a reaction icon corresponding to the reaction.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport utilisant des icônes
  • G06Q 10/10 - Bureautique; Gestion du temps
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

93.

INTERACTIVE AUGMENTED REALITY CONTENT INCLUDING FACIAL SYNTHESIS

      
Numéro d'application 18500803
Statut En instance
Date de dépôt 2023-11-02
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Babanin, Ivan
  • Fisiun, Valerii
  • Maksimova, Diana
  • Pchelnikov, Alexey

Abrégé

The subject technology displays first augmented reality content on a computing device, the first augmented reality content comprising a first output media content. The subject technology provides for display a plurality of selectable graphical items, each of the selectable graphical items corresponding to a different augmented reality content including a set of media content modified utilizing facial synthesis. The subject technology receives a selection of one of the plurality of selectable graphical items. The subject technology, based at least in part on the selection, identifies second augmented reality content. The subject technology provides the second augmented reality content for display on the computing device.

Classes IPC  ?

  • G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
  • G06N 3/045 - Combinaisons de réseaux
  • G06T 11/60 - Edition de figures et de texte; Combinaison de figures ou de texte
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

94.

COMPUTER VISION BASED SIGN LANGUAGE INTERPRETER

      
Numéro d'application 18501349
Statut En instance
Date de dépôt 2023-11-03
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Retek, Dávid
  • Pálházi, Dávid
  • Kajtar, Márton
  • Alvarez, Attila
  • Pócsi, Péter
  • Németh, András
  • Trosztel, Mátyás
  • Robotka, Zsolt
  • Rovnyai, János

Abrégé

A system and method for translating sign language utterances into a target language, including: receiving motion capture data; producing phonemes/sign fragments from the received motion capture data; producing a plurality of sign sequences from the phonemes/sign fragments; parsing these sign sequences to produce grammatically parsed sign utterances; translating the grammatically parsed sign utterances into grammatical representations in the target language; and generating output utterances in the target language based upon the grammatical representations.

Classes IPC  ?

  • G06F 40/58 - Utilisation de traduction automatisée, p.ex. pour recherches multilingues, pour fournir aux dispositifs clients une traduction effectuée par le serveur ou pour la traduction en temps réel
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 40/205 - Analyse syntaxique
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

95.

HAND-TRACKING STABILIZATION

      
Numéro d'application 17822634
Statut En instance
Date de dépôt 2022-08-26
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s) Lucas, Benjamin

Abrégé

An Augmented Reality (AR) system provides stabilization of hand-tracking input data. The AR system provides for display a user interface of an AR application. The AR system captures, using one or more cameras of the AR system, video frame tracking data of a gesture being made by a user while the user interacts with the AR user interface. The AR system generates skeletal 3D model data of a hand of the user based on the video frame tracking data that includes one or more skeletal 3D model features corresponding to recognized visual landmarks of portions of the hand of the user. The AR system generates targeting data based on the skeletal 3D model data where the targeting data identifies a virtual 3D object of the AR user interface. The AR system filters the targeting data using a targeting filter component and provides the filtered targeting data to the AR application.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/64 - Objets tridimensionnels

96.

PRESENTING CAPTURED SCREEN CONTENT WITHIN A VIRTUAL CONFERENCING SYSTEM

      
Numéro d'application 17823688
Statut En instance
Date de dépôt 2022-08-31
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s) Lin, Andrew Cheng-Min

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for presenting captured screen content within a virtual conferencing system. The program and method provide, in association with designing a room for virtual conferencing, a first interface for configuring at least one participant video element which is assignable to a respective participant video feed; receive, via the first interface, an indication of user input for setting first properties for the at least one participant video element; provide, in association with designing the room, a second interface for configuring presentation of screen content captured during virtual conferencing; receive, via the second interface, an indication of user input for setting second properties for the presentation of the screen content captured during virtual conferencing; and provide, in association with virtual conferencing, display of the room based on the first properties and the second properties.

Classes IPC  ?

  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs

97.

COORDINATING SIDE CONVERSATIONS WITHIN VIRTUAL CONFERENCING SYSTEM

      
Numéro d'application 17823731
Statut En instance
Date de dépôt 2022-08-31
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s) Lin, Walton

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for coordinating a side conversation within a virtual conferencing system. The program and method provide, for each of plural participants within a room, display of a participant video element correspond to the participant and including a user-selectable button to initiate a side conversation with the participant; receive indication of a user selection, by a first participant, of the user-selectable button for initiating the side conversation with a second participant; provide for a side conversation between a first device of the first participant and a second device of the second participant, the first and second participants maintaining presence in the room during the side conversation; and cause, for each of the plural participants, modified display of the participant video elements corresponding to the first and second participants, to indicate the side conversation.

Classes IPC  ?

  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs

98.

PRESENTING TIME-LIMITED VIDEO FEED WITHIN VIRTUAL WORKING ENVIRONMENT

      
Numéro d'application 17823778
Statut En instance
Date de dépôt 2022-08-31
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Francis, Brandon
  • Lin, Andrew Cheng-Min
  • Lin, Walton

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for presenting a time-limited video feed within a virtual working environment. The program and method provide, within a virtual working environment for plural participants, display of an interface element which is user-selectable to capture video for sending to a group of participants within the virtual working environment, the group of participants having been selected from among the plural participants; receive, based on user selection of the interface element by a first participant in the group of participants, a time-limited video feed from a client device of the first participant; and provide, in response to the receiving and for each participant in the group of participants, display of the time-limited video feed.

Classes IPC  ?

99.

RECREATING KEYBOARD AND MOUSE SOUNDS WITHIN VIRTUAL WORKING ENVIRONMENT

      
Numéro d'application 17823789
Statut En instance
Date de dépôt 2022-08-31
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Francis, Brandon
  • Lin, Andrew Cheng-Min
  • Lin, Walton

Abrégé

Aspects of the present disclosure involve a system comprising a computer-readable storage medium storing a program and method for recreating keyboard and mouse sounds within a virtual working environment. The program and method provide for receiving, from a first client device of a first participant of a group of participants within a virtual working environment, a timing of keyboard and mouse input detected at the client device, the group of participants having been selected from among plural participants of the virtual working environment; generating, in response to the receiving, keyboard and mouse sounds that correspond to the timing of the keyboard and mouse input; and providing the generated keyboard and mouse sounds to one or more second client devices of respective one or more second participants of the group of participants, for presentation on the one or more second client devices.

Classes IPC  ?

  • H04N 7/15 - Systèmes pour conférences
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p.ex. des claviers ou des cadrans
  • H04L 65/1083 - Procédures en session
  • H04N 7/14 - Systèmes à deux voies

100.

WRIST ROTATION MANIPULATION OF VIRTUAL OBJECTS

      
Numéro d'application 17823814
Statut En instance
Date de dépôt 2022-08-31
Date de la première publication 2024-02-29
Propriétaire Snap Inc. (USA)
Inventeur(s)
  • Mahalingam, Anoosh Kruba Chandar
  • Pounds, Jennica
  • Rybin, Andrei
  • Santerre, Pierre-Yves

Abrégé

An Augmented Reality (AR) system is provided. The AR system uses a combination of gesture and DMVO methodologies to provide for the user's selection and modification of virtual object of an AR experience. The user indicates that they want to interact with a virtual object of the AR experience by moving their hand to overlap the virtual object. While keeping their hand in an overlapping position, the user rotates their wrist and the virtual object is rotated as well. To end the interaction, the user moves their hand such that their hand is no longer overlapping the virtual object.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  1     2     3     ...     34        Prochaine page