A method, system and product includes capturing a noisy audio signal from an environment of a user, a plurality of people is located in the environment, the user having a mobile device used for obtaining user input, the user having at least one hearable device used for providing audio output to the user, the method comprising; processing the noisy audio signal to generate a first separate audio signal that represents a first voice, and a second separate audio signal that represents a second voice, said processing is performed based on first and second acoustic fingerprints that correspond to the first and second voices, respectively; combining the first and second separate audio signals to obtain an enhanced audio signal; and outputting to the user, via the at least one hearable device, the enhanced audio signal.
A method, system and product includes obtaining a first activation selection of a first person in an environment of a user, the environment comprising the first person and a second person, the user having a mobile device and a hearable device; capturing a first signal from the environment; applying speech separation on the first signal to extract a first audio signal associated with the first person; outputting to the user via the hearable device, a first output signal comprising the first audio signal; obtaining a second activation selection of the second person; capturing a second signal from the environment; applying speech separation on the second signal to extract a second audio signal associated with the second person; and outputting to the user, via the hearable device, a second output signal comprising the second audio signal.
A method, system and product includes capturing a noisy audio signal from an environment of a user in which a plurality of people participate in a conversation, the plurality of people comprising a person, the noisy audio signal includes audio emitted by a non-human object and audio emitted by the person; applying speech separation on the noisy audio signal to obtain a separate audio signal that represents a sound-of-interest, the separate audio signal is based on the audio emitted by the non-human object; generating an enhanced audio signal based on the separate audio signal, wherein said generating comprises ensuring that the separate audio signal is present in the enhanced audio signal; and outputting the enhanced audio signal to the user via at least one hearable device.
G10L 25/84 - Détection de la présence ou de l’absence de signaux de voix pour différencier la parole du bruit
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
G10L 25/54 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour la recherche
4.
Tagging Characteristics of an Interpersonal Encounter Based on Vocal Features
Embodiments are provided for a system comprising a camera, a microphone, and at least one processor programmed to execute a method, which may include: identifying at least one individual speaker in a first environment of a user; applying a voice classification model to classify at least a portion of an audio signal into one of a plurality of voice classifications based on at least one voice characteristic, the voice classifications denoting an emotional state of the at least one individual speaker; applying a context classification model to classify the first environment of the user into one of a plurality of contexts; associating, in at least one database, the at least one individual speaker with the voice classification, and the context classification of the first environment; and providing, to the user, at least one of an audible, visible, or tactile indication of the association.
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G10L 17/06 - Techniques de prise de décision; Stratégies d’alignement de motifs
G10L 25/63 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour estimer un état émotionnel
G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p.ex. des objets vidéo
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
A system for selectively amplifying audio signals may include a microphone configured to capture sounds from an environment of a user. The system may also include a processor programmed to: receive audio signals representative of the sounds captured by the microphone; cause selective conditioning of at least one audio signal received by the microphone from a region associated with the recognized individual; and cause transmission of the at least one conditioned audio signal to a hearing interface device configured to provide sound to an ear of the user.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources
G06V 10/80 - Fusion, c. à d. combinaison des données de diverses sources au niveau du capteur, du prétraitement, de l’extraction des caractéristiques ou de la classification
A system for generating processed audio signals may include an earphone comprising a microphone configured to capture sounds from an environment of the earphone, a first communication component, and a first processor; and an earphone case comprising an earphone compartment configured to receive the earphone, a second communication component, and a second processor. The first processor may be programmed to receive a captured audio signal representative of the sounds captured by the microphone; and transmit the captured audio signal via the first communication component. The second processor may be programmed to receive the captured audio signal via the second communication component; generate a processed audio signal based on analysis of the captured audio signal; and transmit the processed audio signal via the second communication component to the first communication component.
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
A method for adjusting an audio transmission when a user of the system is being spoken to by another person includes receiving audio signals representative of sounds from an environment of the user captured by at least one microphone; determining at least from the received audio signals that the another person is speaking to user; and subject to the user being spoken to by the another person, adjusting the audio transmission to the user and signaling to the user that the user is being spoken to.
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
G10L 15/25 - Reconnaissance de la parole utilisant des caractéristiques non acoustiques utilisant la position des lèvres, le mouvement des lèvres ou l’analyse du visage
G06V 20/62 - Texte, p.ex. plaques d’immatriculation, textes superposés ou légendes des images de télévision
G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
System and methods for processing audio signals are disclosed. In one implementation, a system may include a wearable device. The wearable device may include a microphone having an audio sensor configured to capture the audio signals from an environment of the user; and a processor. The processor may be programmed to receive the audio signals captured by the microphone; analyze the audio signals to generate a transcription; generate a summary of the transcription; cause the summary to be displayed to the user; receive a confirmation input from the user indicating that the displayed summary is correct; and cause the displayed summary to be stored.
G10L 13/02 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole
G06F 40/103 - Mise en forme, c. à d. modification de l’apparence des documents
G10L 15/25 - Reconnaissance de la parole utilisant des caractéristiques non acoustiques utilisant la position des lèvres, le mouvement des lèvres ou l’analyse du visage
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
A hearing aid and related systems and methods. In one implementation, a hearing aid system may comprise a wearable camera configured to capture images from an environment of a user, a microphone configured to capture sounds from the environment of the user, and a processor. The processor may be programmed to receive images captured by the camera; receive audio signals representative of sounds captured by the microphone; operate in a first mode to cause a first selective conditioning of a first audio signal; determine, based on analysis of at least one of the images or the audio signals, to switch to a second mode to cause a second selective conditioning of the first audio signal; and cause transmission of the first audio signal selectively conditioned in the second mode to a hearing interface device configured to provide sound to an ear of the user.
Systems and methods are disclosed for selectively reading text. A system may comprise an image capture device, an audio capture device, and a processor. The processor may be configured to receive images captured by the image capture device and audio signals captured by the audio capture device. The processor may analyze the image to identify text represented in the image; identify, based on the image, a structural element of the text; identify a request to read a first portion of the text associated with the structural element, the request being identified by at least one of analyzing the audio signals to detect a spoken request or detecting a gesture in the plurality of images; and present the first portion of text to the user of the wearable device.
A method for responding to a user query based on captured images and audio. An audio signal captured by at least one microphone is analyzed to determine at least one word. At least one image captured by at least one image sensor is analyzed to determine at least one identifier of at least one of a person, an object, a location, or an event represented in the image. The at least one word and the at least one identifier are stored in a database. A question is received from the user and is analyzed to determine at least one term. The database is searched to determine a correlation between the at least one term and the at least one word or between the at least one term and the at least one identifier. A response to the question is generated based on the correlation and is provided to the user.
A hearing aid system for generating processed audio signals may include at least one processor. The processor may be configured to receive an audio signal representative of the sounds captured by the at least one microphone; generate a processed audio signal based on analysis of the audio signal; determine a quality degradation of at least one aspect of the processed audio signal; and provide an auditory cue to the user indicating the quality degradation.
Systems and methods are disclosed for locating an object for a user. A system may comprise an image capture device, an audio capture device, and a processor. The processor may be configured to receive images captured by the image capture device and audio signals received by the audio capture device. The processor may analyze the audio signals to identify a descriptor word describing the object and retrieve a visual characteristic of the object based on the descriptor word. The processor may then determine a location of the object in the images based on the visual characteristic, determine a location of a hand of the user in the images, and determine a direction between the hand and the object. The processor may then determine feedback indicative of the direction and provide the feedback to the user.
A hearing aid and related systems and methods are disclosed. In one implementation, a hearing aid system may include a wearable camera; a microphone; and a processor. The processor may be programmed to receive images captured by the camera; receive audio signals representative of sounds received by the at least one microphone; determine a look direction of the user based on analysis of the images; determine an amplitude of a first audio signal associated with an individual or object in a region associated with the look direction of the user; determine an amplitude of a second audio signal from a region other than the look direction of the user; adjust the second amplitude in accordance with the first amplitude; and cause transmission of the second audio signal at the adjusted amplitude to a hearing interface device configured to provide sound to an ear of the user.
A hearing aid and related systems and methods are disclosed. In one implementation, a system may comprise a microphone, a wearable camera, and a processor. The processor may be configured to receive a composite audio signal representative of sounds captured by the microphone, the composite audio signal including a representation of an audio source and additional audio source in the environment of the user; obtain an indication of a direction of arrival associated with the audio source, the direction of arrival representing a position of the audio source relative to the user; provide the composite audio signal, information associated with the plurality of images, and the indication of the direction of arrival to a trained model; and extract, based on an output from the trained model, an isolated audio signal from the composite audio signal, the isolated audio signal representing sounds emanating from the audio source.
A hearing aid and related systems and methods are disclosed. In one implementation, a system may comprise a microphone and a processor. The processor may be configured to receive an original audio signal representative of sounds captured by the microphone; determine that the original audio signal includes a voice of the user; process the original audio signal according to a first processing scheme to generate a first processed audio signal; transmit the first processed audio signal to a hearing interface device after a first time delay associated with the first processing scheme; determine that the original audio signal includes an additional sound; process the original audio signal according to a second processing scheme to generate a second processed audio signal; and transmit the second processed audio signal to the hearing interface device after a second time delay associated with the second processing scheme.
A hearing aid and related systems and methods is disclosed. In one implementation, a system may comprise a microphone and a processor. The processor may be configured to receive an audio signal representative of sounds captured by the microphone; process a first sample period of the audio signal using a first engine; determine, based on the processing of the first sample period using the first engine, that the audio signal is not to be transmitted to a hearing interface device; process a second sample period of the audio signal using a second engine; determine, based on the processing of the second sample period using the second engine, that the audio signal is to be transmitted to the hearing interface device; and transmit at least a part of the first portion of the audio signal to the hearing interface device at an increased rate.
Systems and methods for modifying audio signals based on context may include at least one microphone configured to capture sounds from an environment of a user; and at least one processor. The processor may be programmed to receive an audio signal representative of sounds captured by the at least one microphone; and determine a context associated with the captured sounds based on the audio signal. Subject to the context being included in a set of stored contexts, the processor may be programmed to determine at least one first speaker whose speech is to be amplified; identify at least one first portion of the audio signal associated with the determined at least one first speaker; amplify the at least one first portion of the audio signal; and transmit to a hearing interface device the amplified at least one first portion of the audio signal.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/72 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques utilisant une analyse de contexte basée sur l'identité provisoire attribuée à une série de formes successives, p.ex. d'un mot
G10L 17/02 - Opérations de prétraitement, p.ex. sélection de segment; Représentation ou modélisation de motifs, p.ex. fondée sur l’analyse linéaire discriminante [LDA] ou les composantes principales; Sélection ou extraction des caractéristiques
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G10L 17/06 - Techniques de prise de décision; Stratégies d’alignement de motifs
19.
Systems and methods for selectively attenuating a voice
Systems and methods for amplifying and/or attenuating audio signals are disclosed. In one implementation, a system for selectively amplifying audio signals may include at least one microphone for capturing sounds from an environment of the user and a processor. The processor may be programmed to receive an audio signal representative of sounds captured by the at least one microphone; determine whether the audio signal comprises speech by a user of the system; subject to the audio signal comprising speech by the user, modify the audio signal by attenuating a first part of the audio signal comprising the speech by the user; subject to the audio signal comprising audio other than speech by the user, modify the audio signal by amplifying a second part of the audio signal comprising audio other than the speech by the user; and transmit the modified audio signal to a hearing interface device.
System and methods for processing audio signals are disclosed. In one implementation, a system may include a microphone configured to capture sounds from an environment of a user; and at least one processor. The processor may be programmed to receive at least one audio signal representative of the sounds captured by the microphone; transcribe at least a portion of the at least one audio signal into text; generate metadata based on the transcribed text; after receiving the at least one audio signal, receive a request for information associated with a topic; select an information source from a plurality of information sources based on the received request for information; search the selected information source for a word or phrase based on the request; and output the word or phrase for entry into a record associated with the topic.
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine
G06Q 50/00 - Systèmes ou procédés spécialement adaptés à un secteur particulier d’activité économique, p.ex. aux services d’utilité publique ou au tourisme
21.
Wearable apparatus and methods for providing transcription and/or summary
System and methods for processing audio signals are disclosed. In one implementation, a system may include a wearable apparatus including an image sensor to capture images from an environment of a user; an audio sensor to capture an audio signal from the environment of the user; and at least one processor. The processor may be programmed to receive the audio signal captured by the audio sensor; identify at least one segment including speech in the audio signal; receive an image including a representation of a code; analyze the code to determine whether the code is associated with the user and/or the wearable apparatus; and after determining that the code is associated with the user and/or the wearable apparatus, transmit at least one segment of the audio signal, at least one image of the plurality of images, and/or other information to a computing platform.
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G10L 15/26 - Systèmes de synthèse de texte à partir de la parole
G06K 19/06 - Supports d'enregistrement pour utilisation avec des machines et avec au moins une partie prévue pour supporter des marques numériques caractérisés par le genre de marque numérique, p.ex. forme, nature, code
G06F 21/32 - Authentification de l’utilisateur par données biométriques, p.ex. empreintes digitales, balayages de l’iris ou empreintes vocales
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
22.
Selectively conditioning audio signals based on an audioprint of an object
A hearing aid system for selectively conditioning audio signals associated with a recognized object may include at least one processor. The processor may be programmed to receive audio signals acquired by a wearable microphone; analyze the received audio signals to obtain an isolated audio stream associated with a sound-emanating object in the environment of the user; determine an audioprint from the isolated audio stream; and use the audioprint to retrieve from a database information relating to the particular sound-emanating object. Based on the retrieved information, the processor may cause selective conditioning of at least one audio signal received by the wearable microphone from a region associated with the at least one sound-emanating object; and cause transmission of the at least one conditioned audio signal to a hearing interface device configured to provide sounds to an ear of the user.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G10L 17/06 - Techniques de prise de décision; Stratégies d’alignement de motifs
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
A hearing aid system for selective modification of background noises may include at least one processor. The processor may be programmed to receive a plurality of images from an environment of a user captured by a wearable camera during a time period and receive an audio signal representative of sounds acquired by a wearable microphone during the time period. The processor may determine that at least one of the sounds was generated by a sound-emanating object in the environment of the user, but outside of a field of view of the wearable camera and retrieve from a database information associated with the sound-emanating object. Based on the retrieved information, the processor may cause selective conditioning of audio signals acquired by the wearable microphone during the time period and cause transmission of the conditioned audio signals to a hearing interface device configured to provide sounds to an ear of the user.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
System and methods for processing audio signals are disclosed. In one implementation, a system may include a microphone configured to capture sounds from an environment of a user; and at least one processor. The processor may be programmed to receive at least one audio signal representative of the sounds captured by the microphone; analyze the at least one audio signal to distinguish a plurality of voices in the at least one audio signal; transcribe at least a portion of speech associated with at least one voice in the plurality of voices; and cause at least a part of the transcribed portion to be displayed to the user via a display device.
G10L 15/26 - Systèmes de synthèse de texte à partir de la parole
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
System and methods for processing audio signals are disclosed. In one implementation, a system may include at least one microphone configured to capture sounds from an environment of a user; and at least one processor. The processor may be programmed to receive at least one audio signal representative of at least part of the sounds captured by the microphone; identify at least one word in the at least one audio signal; and in response to identifying the at least one word, cause feedback to be provided the user.
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G10L 17/26 - Reconnaissance de caractéristiques spéciales de voix, p.ex. pour utilisation dans les détecteurs de mensonge; Reconnaissance des voix d’animaux
G08B 25/10 - Systèmes d'alarme dans lesquels l'emplacement du lieu où existe la condition déclenchant l'alarme est signalé à une station centrale, p.ex. systèmes télégraphiques d'incendie ou de police caractérisés par le moyen de transmission utilisant des systèmes de transmission sans fil
A wearable device may include an image sensor configured to capture a plurality of images from an environment, a microphone configured to capture sounds from the environment, and at least one processor. The at least one processor may be programmed to receive audio signals representative of the sounds captured by the at least one microphone, and receive a first image including a representation of a first individual from among the plurality of images captured by the image sensor. The at least one processor may also be programmed to obtain a first audio segment from the audio signals using the first image. The first audio segment may include a first portion of the audio signals in which the first individual is speaking. The at least one processor may also be programmed to receive a second image including a representation of a second individual from among the plurality of images captured by the image sensor, and obtain a second audio segment from the audio signals using the second image. The second audio segment may include a second portion of the audio signals in which the second individual is speaking. The at least one processor may also be programmed to receive a third image including a representation of the first individual from among the plurality of images captured by the image sensor, and using the third image, obtain a third audio segment from the audio signals. The audio segment may include a third portion of the audio signals in which the first individual is speaking. The at least one processor may also associate the first and third audio segments with the first individual and associate the second audio segment with the second individual.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
System and methods for selectively amplifying audio signals are disclosed. In one implementation, a method includes receiving at least one image of a plurality of images captured by a wearable camera; receiving a first audio signal representative of the sounds captured by a microphone; determining a looking direction of a user; and processing the first audio signal by amplifying audio coming from the looking direction of the user and attenuating audio coming from at least one other direction; receiving a second audio signal representative of the sounds captured by a hearing interface device; transmitting the second audio signal to a speaker associated with the hearing interface device; transmitting an additional audio signal to the speaker, wherein the transmission of the additional audio signal at least partially overlaps the transmission of the second audio signal; and transmitting the processed first audio signal to the speaker.
H04R 1/32 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement
G10L 21/00 - Traitement du signal de parole ou de voix pour produire un autre signal audible ou non audible, p.ex. visuel ou tactile, afin de modifier sa qualité ou son intelligibilité
H04R 3/02 - Circuits pour transducteurs pour empêcher la réaction acoustique
H04R 1/02 - Boîtiers; Meubles; Montages à l'intérieur de ceux-ci
G10L 21/02 - Amélioration de l'intelligibilité de la parole, p.ex. réduction de bruit ou annulation d'écho
G10L 21/003 - Changement de la qualité de la voix, p.ex. de la hauteur tonale ou des formants
A wearable apparatus may include an image sensor configured to capture a first image from an environment of a user of the wearable apparatus and at least one processor. The processor may be programmed to receive, from an external device, a second image and an identifying detail associated with the second image; store the second image and the identifying detail in association with the second image; and recognize a person depicted in the first image based on the second image and the identifying detail associated with the second image.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 5/76 - Enregistrement du signal de télévision
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p.ex. lecture de la lumière blanche réfléchie
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G16H 40/63 - TIC spécialement adaptées à la gestion ou à l’administration de ressources ou d’établissements de santé; TIC spécialement adaptées à la gestion ou au fonctionnement d’équipement ou de dispositifs médicaux pour le fonctionnement d’équipement ou de dispositifs médicaux pour le fonctionnement local
30.
Processing audio and video in a hearing aid system
System and methods for processing audio signals are disclosed. In one implementation, a system may include at least one microphone configured to capture sounds from an environment of a user; a wearable camera configured to capture a plurality of images from the environment of the user; and at least one processor. The processor may be configured to receive at least one image of the plurality of images; receive at least one audio signal representative of the sounds captured by the at least one microphone; identify an item of information based on at least one of the at least one image or the at least one audio signal; determine at least a beginning of an informational time period for providing the item of information to the user; and transmit an informational audio signal representative of the item of information to a hearing interface device during the informational time period.
G10L 13/08 - Analyse de texte ou génération de paramètres pour la synthèse de la parole à partir de texte, p.ex. conversion graphème-phonème, génération de prosodie ou détermination de l'intonation ou de l'accent tonique
A hearing aid system for individual identification of a hearing aid system may include a wearable camera, a microphone, and at least one processor. The processor may be programmed to receive a plurality of images captured by the wearable camera; receive audio signals representative of sounds captured by the microphone; and identify a first audio signal, from among the received audio signals, representative of a voice of a first individual. The processor may transcribe and store, in a memory, text corresponding to speech associated with the voice of the first individual and determine whether the first individual is a recognized individual. If the first individual is a recognized individual, the processor may associate an identifier of the first recognized individual with the stored text corresponding to the speech associated with the voice of the first individual.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources
G06V 10/80 - Fusion, c. à d. combinaison des données de diverses sources au niveau du capteur, du prétraitement, de l’extraction des caractéristiques ou de la classification
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
32.
SELECTIVE INPUT FOR A HEARING AID BASED ON IMAGE DATA
Disclosed is a hearing aid system for selectively conditioning audio signals. The system may comprise a processor programmed to: receive a plurality of images captured by a wearable camera, wherein the plurality of images depict objects in an environment of a user; receive audio signals acquired by a wearable microphone, wherein the audio signals are representative of sounds emanating from the objects; analyze the plurality of images to identify at least one sound-emanating object in the environment of the user; retrieve, from a database, information about the at least one identified sound-emanating object; causing, based on the retrieved information, selective conditioning of at least one audio signal received by the wearable microphone from a region associated with the at least one sound-emanating object; and cause transmission of the at least one conditioned audio signal to a hearing interface device configured to provide sounds to an ear of the user.
A system may include a wearable camera configured to capture images and a microphone configured to capture sounds. The system may also include a processor programmed to receive audio signals from the microphone and detect, based on analysis of the audio signals, a first audio signal associated with a first time period. The first audio signal may be representative of a voice of a single individual. The processor may also be programmed to detect, based on analysis of the audio signals, a second audio signal associated with a second time period. The second time period may be different from the first time period, and the second audio signal may be representative of overlapping voices of two or more individuals. The processor may further be programmed to selectively condition the first and second audio signals, and cause transmission of the conditioned first audio signal to a hearing interface device.
G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources
G06V 10/80 - Fusion, c. à d. combinaison des données de diverses sources au niveau du capteur, du prétraitement, de l’extraction des caractéristiques ou de la classification
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
Disclosed is a system for identifying sound-emanating objects in an environment of a user. The system may comprise at least one memory device and at least one processor programmed to: receive a plurality of images captured by a wearable camera; analyze the received at least one of the plurality of images to determine one or more visual characteristics associated with the at least one sound-emanating object; identify within a database in view of the one or more visual characteristics, the at least one sound-emanating object and determine a degree of certainty of identification; receive audio signals acquired by a wearable microphone; analyze the received audio signals to determine a voiceprint of the at least one sound emanating object; identify the at least one sound-emanating object based on the determined voiceprint: and initiate at least one action based on an identity of the at least one sound-emanating object.
G10L 17/06 - Techniques de prise de décision; Stratégies d’alignement de motifs
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G10L 17/04 - Entraînement, enrôlement ou construction de modèle
A system may include a wearable camera configured to capture images and a microphone configured to capture sounds. The system may also include a processor programmed to receive the images; identify a representation of one or more individuals in the images; receive from the microphone a first audio signal associated with a voice; determine, based on analysis of the images, that the first audio signal is not associated with a voice of any of the one or more individuals; receive from the microphone a second audio signal associated with a voice; determine, based on analysis of the images, that the second audio signal is associated with a voice of one of the one or more individuals; and cause a first amplification of the first audio signal and a second amplification of the second audio signal. The first amplification may differ from the second amplification in one aspect.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G10L 17/00 - Identification ou vérification du locuteur
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G10L 17/04 - Entraînement, enrôlement ou construction de modèle
G10L 17/06 - Techniques de prise de décision; Stratégies d’alignement de motifs
G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources
G06V 10/80 - Fusion, c. à d. combinaison des données de diverses sources au niveau du capteur, du prétraitement, de l’extraction des caractéristiques ou de la classification
System and methods for processing audio signals are disclosed. In one implementation, a system may comprise a wearable camera configured to capture images from an environment of a user; a microphone; and a processor. The processor may be configured to receive an audio signal representative of sounds captured by the microphone during a time period; and receive the images captured by the wearable camera. The processor may process the audio signal in a first mode based on audio data accumulated in a buffer prior to the time period; detect a change in the active speaker from the first individual to a second individual; and cease processing in the first mode and process the audio signal in a second mode that differs from the first mode.
G10L 25/57 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour le traitement des signaux vidéo
G10L 21/0356 - Amélioration de l'intelligibilité de la parole, p.ex. réduction de bruit ou annulation d'écho en changeant l’amplitude pour la synchronisation avec d’autres signaux, p.ex. signaux vidéo
G10L 17/00 - Identification ou vérification du locuteur
H04N 23/57 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande - Détails mécaniques ou électriques de caméras ou de modules de caméras spécialement adaptés pour être intégrés dans d'autres dispositifs
37.
Systems and methods for matching audio and image information
System and methods for processing audio signals are disclosed. In one implementation, a system may comprise a wearable camera configured to capture images from an environment of a user; a microphone configured to capture sounds from the environment of the user; and a processor. The processor may be configured to receive at least one image of the plurality of images, the at least one image comprising a plurality of image portions associated with corresponding image portion timestamps; receive at least one audio signal representative of the sounds captured by the at least one microphone; identify an audio timestamp associated with a portion of the audio signal; identify an image portion from among the plurality of image portions, the image portion having an image portion timestamp associated with the audio timestamp; and analyze the image portion to identify a voice originating from an object represented in the image.
A system may include a camera configured to capture images from an environment of a user and a microphone configured to capture sounds from an environment of the user. The system may also include a processor programmed to: receive the images; identify a representation of a first individual and a representation of a second individual in the images; receive, from the microphone, a first audio signal associated with a voice of the first individual and a second audio signal associated with a voice of the second individual; detect an amplification criteria indicative of a voice amplification priority between the first individual and the second individual; selectively amplify the first audio signal relative to the second audio signal when the amplification criteria indicates that the first individual has voice amplification priority over the second individual; and cause transmission of the selectively amplified first audio signal to a hearing interface device.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
A system for selectively amplifying audio signals may include a wearable camera configured to capture a plurality of images from an environment of a user and a microphone configured to capture sounds from an environment of the user. The system may also include a processor programmed to: receive the plurality of images captured by the camera; identify a representation of at least one recognized individual in at least one of the plurality of images; receive audio signals representative of the sounds captured by the microphone; cause selective conditioning of at least one audio signal received by the microphone from a region associated with the at least one recognized individual; and cause transmission of the at least one conditioned audio signal to a hearing interface device configured to provide sound to an ear of the user.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources
G06V 10/80 - Fusion, c. à d. combinaison des données de diverses sources au niveau du capteur, du prétraitement, de l’extraction des caractéristiques ou de la classification
A system may include a wearable camera configured to capture a plurality of images from an environment of a user and a microphone configured to capture sounds from an environment of the user. The system may also include a processor programmed to receive the images; identify a representation of one individual in one of the images; identify a lip movement associated with a mouth of the individual, based on analysis of the images; receive audio signals representative of the sounds; identify, based on analysis of the sounds, a first audio signal associated with a first voice and a second audio signal associated with a second voice; cause selective conditioning of the first audio signal based on a determination that the first audio signal is associated with the identified lip movement; and cause transmission of the selectively conditioned first audio signal to a hearing interface device.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
A wearable apparatus may automatically monitor consumption by a user of the wearable apparatus by analyzing images captured from an environment of the user. The wearable apparatus may include at least one image capture device configured to capture a plurality of images from an environment of the user of the wearable apparatus. The wearable apparatus may also include at least one processing device configured to: analyze the plurality of images to detect a consumable product represented in at least one of the plurality of images; based on the detection of the consumable product represented in at least one of the plurality of images, analyze one or more of the plurality of images to determine a type indicator associated with the detected consumable product; analyze the one or more of the plurality of images to estimate an amount of the consumable product consumed by the user; determine a feedback based on the type indicator the detected consumable product and the estimated amount of the consumable product consumed by the user; and cause the feedback to be outputted to the user.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
G16H 20/60 - TIC spécialement adaptées aux thérapies ou aux plans d’amélioration de la santé, p.ex. pour manier les prescriptions, orienter la thérapie ou surveiller l’observance par les patients concernant le contrôle de l’alimentation, p.ex. les régimes
A system may include a wearable camera configured to capture images and a microphone configured to capture sounds, and a processor programmed to receive the images captured by the camera and audio signals representative of sounds received by the microphone. The processor may also be programmed to determine a look direction for a user based upon detection of a representation of a body part of the user in at least one of the captured images and a pointing direction of the body part relative to an optical axis associated with the wearable camera. The processor may further be programmed to cause selective conditioning of an audio signal received by the microphone from a region associated with the look direction of the user and cause transmission of the conditioned audio signal to an interface device.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
44.
Automatic low radiation mode for a wearable device
A wearable device may include a housing, a sensor in the housing configured to generate an output, and a transmitter in the housing. The wearable device may also include a processor programmed to alternatively operate in a normal radiation mode and a low radiation mode. The transmitter may be permitted to function at a normal capacity when operating in the normal radiation mode and may be caused to function at a reduced capacity when operating in the low radiation mode. During operation at the normal capacity, the transmitter may transmit at a higher radiation intensity than during operation at the reduced capacity. The processor may also be programmed to detect, based on the output generated by the sensor, whether the housing is currently worn by the user, and cause the transmitter to operate in the low radiation mode after detecting that the housing is being worn by the user.
G06F 21/32 - Authentification de l’utilisateur par données biométriques, p.ex. empreintes digitales, balayages de l’iris ou empreintes vocales
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
H04L 9/32 - Dispositions pour les communications secrètes ou protégées; Protocoles réseaux de sécurité comprenant des moyens pour vérifier l'identité ou l'autorisation d'un utilisateur du système
45.
Systems and methods for directing audio output of a wearable apparatus
The present disclosure relates to systems and methods for directing the audio output of a wearable device having a plurality of speakers. In one implementation, the system may include an image sensor configured to capture one or more images from an environment of the user of the wearable apparatus, a plurality of speakers, and at least one processing device. The at least one processing device may be configured to analyze the one or more images to determine at least one indicator of head orientation of the user of the wearable apparatus, select at least one of the plurality of speakers based on the at least one indicator of head orientation, and output the audio to the user of the wearable apparatus via the selected at least one of the plurality of speakers.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04R 1/40 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en combinant plusieurs transducteurs identiques
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04R 1/34 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en utilisant un seul transducteur avec des moyens réfléchissant, diffractant, dirigeant ou guidant des sons
Devices and a method are provided for providing feedback to a user. In one implementation, the method comprises obtaining a plurality of images from an image sensor. The image sensor is configured to be positioned for movement with the user's head. The method further comprises monitoring the images, and determining whether relative motion occurs between a first portion of a scene captured in the plurality of images and other portions of the scene captured in the plurality of images. If the first portion of the scene moves less than at least one other portion of the scene, the method comprises obtaining contextual information from the first portion of the scene. The method further comprises providing the feedback to the user based on at least part of the contextual information.
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
H04M 1/72403 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens de soutien local des applications accroissant la fonctionnalité
G06V 30/40 - Reconnaissance des formes à partir d’images axée sur les documents
G06V 30/224 - Reconnaissance de caractères caractérisés par le type d’écriture de caractères imprimés pourvus de marques de codage additionnelles ou de marques de codage
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
H04M 1/72463 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens permettant d’adapter la fonctionnalité du dispositif dans des circonstances spécifiques pour limiter la fonctionnalité du dispositif
A wearable apparatus and methods may analyze images. In one implementation, the wearable apparatus may comprise a wearable image sensor and at least one processor. The at least one processor may be programmed to: receive, from the wearable image sensor, a facial image of an individual with whom a user of the wearable apparatus is interacting; receive sound data captured during the interacting; process at least a portion of the sound data to determine a spoken name of the individual; convert the spoken name to text; store, in memory, text associated with the spoken name in a manner associating the text with the facial image; after a subsequent encounter with the individual, receive, from the wearable image sensor, a subsequent facial image of the individual; perform a look-up of an identity of the individual based on the subsequent facial image; receive, from the memory the text of the spoken name of the individual; and cause a display in text of the name of the individual on a device paired with the wearable apparatus.
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
A wearable apparatus and methods may analyze images. In one implementation, a wearable apparatus for capturing and processing images may comprise a wearable image sensor configured to capture a plurality of images from an environment of a user of the wearable apparatus and at least one programming device. The at least one processing device may be programmed to: perform a first analysis of the plurality of images to detect at least two persons; perform a second analysis of the plurality of images to determine association information related to the at least two detected persons; and update a social representation based on the determined association information.
G06F 16/951 - Indexation; Techniques d’exploration du Web
G06V 10/147 - Caractéristiques optiques de l’appareil qui effectue l’acquisition ou des dispositifs d’éclairage - Détails de capteurs, p.ex. lentilles de capteurs
G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
G06V 20/30 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les albums, les collections ou les contenus partagés, p.ex. des photos ou des vidéos issus des réseaux sociaux
G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
49.
Retrieving and displaying key words from prior conversations
A wearable apparatus is provided. The wearable apparatus may include: a wearable image sensor configured to capture a plurality of images from an environment of a user; and at least one processor programmed to: receive, from the wearable image sensor, a facial image of an individual with whom a user interacted in a first interaction during a time window; receive sound data captured in a vicinity of the image sensor during a part of the time window; process the sound data to identify a key word; store an association between the key word and the facial image; receive another facial image of the individual during a second interaction; determine that the individual is the individual in the second interaction; access the memory to locate the key word from the first interaction; and cause a display of the key word on a display visible to the user.
G06V 10/147 - Caractéristiques optiques de l’appareil qui effectue l’acquisition ou des dispositifs d’éclairage - Détails de capteurs, p.ex. lentilles de capteurs
G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
G06V 20/30 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les albums, les collections ou les contenus partagés, p.ex. des photos ou des vidéos issus des réseaux sociaux
G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
50.
Remotely identifying a location of a wearable apparatus
A wearable apparatus and methods may analyze images. In one implementation, a wearable apparatus for capturing and processing images may comprise a wearable image sensor configured to capture a plurality of images from an environment of a user of the wearable apparatus and at least one processing device. The at least one processing device may be programmed to: analyze the plurality of images to identify a plurality of people; analyze the plurality of images to determine an affinity level between the user and each of the plurality of people; obtain an image representation of each of the plurality of people; and generate, based on the affinity levels, a visualization comprising the image representations.
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
A wearable apparatus for providing information to a user of the wearable apparatus may include at least one image sensor configured to capture a plurality of images from an environment of the user of the wearable apparatus, at least one communication device, and at least one processing device. The processing device may be programmed to analyze at least one of the plurality of images to detect an object in the environment of the user of the wearable apparatus, determine a measurement of an estimated physical distance from the user to the object, and transmit, based on the measurement and using the at least one communication device, information related to the detected object.
G01S 5/00 - Localisation par coordination de plusieurs déterminations de direction ou de ligne de position; Localisation par coordination de plusieurs déterminations de distance
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G06N 5/04 - Modèles d’inférence ou de raisonnement
G06Q 50/00 - Systèmes ou procédés spécialement adaptés à un secteur particulier d’activité économique, p.ex. aux services d’utilité publique ou au tourisme
G06T 1/00 - Traitement de données d'image, d'application générale
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
Devices and a method are provided for providing feedback to a user. In one implementation, the method comprises obtaining a plurality of images from an image sensor. The image sensor is configured to be positioned for movement with the user's head. The method further comprises monitoring the images, and determining whether relative motion occurs between a first portion of a scene captured in the plurality of images and other portions of the scene captured in the plurality of images. If the first portion of the scene moves less than at least one other portion of the scene, the method comprises obtaining contextual information from the first portion of the scene. The method further comprises providing the feedback to the user based on at least part of the contextual information.
G06K 9/32 - Alignement ou centrage du capteur d'image ou de la zone image
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G10L 13/04 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole - Détails des systèmes de synthèse de la parole, p.ex. structure du synthétiseur ou gestion de la mémoire
G01B 11/24 - Dispositions pour la mesure caractérisées par l'utilisation de techniques optiques pour mesurer des contours ou des courbes
G02C 11/00 - Accessoires non optiques; Fixation de ceux-ci
53.
Wearable apparatus and method for capturing image data using multiple image sensors
A wearable apparatus and method are provided for capturing image data. In one implementation, a wearable apparatus for capturing image data is provided. The wearable apparatus includes a plurality of image sensors for capturing image data of an environment of a user. Each of the image sensors is associated with a different field of view. The wearable apparatus also includes a processing device programmed to process image data captured by at least two of the image sensors to identify an object in the environment. The processing device is also programmed to identify a first image sensor, which has a first optical axis closer to the object than a second optical axis of a second image sensor. After identifying the first image sensor, the processing device is also programmed to process image data from the first image sensor using a first processing scheme, and process image data from the second image sensor using a second processing scheme.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
H04N 1/21 - Enregistrement intermédiaire de l'information
Apparatuses and methods are provided for storing information related to objects associated with a hand of a user via a wearable camera system. In one implementation, a wearable apparatus for storing the information is provided comprising a wearable image sensor configured to capture a plurality of images from the environment of the user, and at least one processing device programmed to process the images. The processing device may detect the hand of the user, and an object associated with the user's hand. The processing device may proceed to store information related to the object. Consistent with disclosed embodiments, the stored information may be used for various purposes, such as warning the user of dangers, catering advertising to the user, and helping the user find objects when they are lost.
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
G06F 1/18 - Installation ou distribution d'énergie
G06F 16/532 - Formulation de requêtes, p.ex. de requêtes graphiques
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
The present disclosure relates to systems and methods for monitoring posture of a user of a wearable apparatus. In one implementation, the system may include an image sensor configured to capture one or more images from an environment of the user of the wearable apparatus and at least one processing device. The at least one processing device may be configured to analyze the one or more images to determine at least one indicator of the posture of the user, determine feedback for the user based on the at least one indicator of the posture of the user, and cause the feedback to be output to the user.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G09B 19/00 - Enseignement non couvert par d'autres groupes principaux de la présente sous-classe
G08B 21/04 - Alarmes pour assurer la sécurité des personnes réagissant à la non-activité, p.ex. de personnes âgées
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G06K 9/78 - Combinaison de l'obtention de l'image et de fonctions de reconnaissance
G09B 5/04 - Matériel à but éducatif à commande électrique avec présentation sonore du sujet à étudier
G09B 5/02 - Matériel à but éducatif à commande électrique avec présentation visuelle du sujet à étudier, p.ex. en utilisant une bande filmée
G08B 7/06 - Systèmes de signalisation selon plus d'un des groupes ; Systèmes d'appel de personnes selon plus d'un des groupes utilisant une transmission électrique
56.
Systems and methods for recognizing faces using non-facial information
A wearable apparatus is provided for identifying a person in an environment of a user of the wearable apparatus based on non-facial information. The wearable apparatus includes a wearable image sensor configured to capture a plurality of images from the environment of the user, and a processing device programmed to analyze a first image of the plurality of images to determine that a face appears in the first image. The processing device also analyzes a second image of the plurality of images to identify an item of non-facial information appearing in the second image that was captured within a time period including a time when the first image is captured. The processing device also determines identification information of a person associated with the face based on the item of non-facial information.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 21/2668 - Création d'un canal pour un groupe dédié d'utilisateurs finaux, p.ex. en insérant des publicités ciblées dans un flux vidéo en fonction des profils des utilisateurs finaux
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04L 29/08 - Procédure de commande de la transmission, p.ex. procédure de commande du niveau de la liaison
H04N 5/247 - Disposition des caméras de télévision
Devices and a method are provided for providing feedback to a user. In one implementation, the method comprises obtaining a plurality of images from an image sensor. The image sensor is configured to be positioned for movement with the user's head. The method further comprises monitoring the images, and determining whether relative motion occurs between a first portion of a scene captured in the plurality of images and other portions of the scene captured in the plurality of images. If the first portion of the scene moves less than at least one other portion of the scene, the method comprises obtaining contextual information from the first portion of the scene. The method further comprises providing the feedback to the user based on at least part of the contextual information.
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
G06K 9/18 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales utilisant des caractères imprimés pourvus de marques de codage additionnelles ou comportant des marques de codage, p.ex. le caractère étant composé de barres distinctes de formes différentes, chacune représentant une valeur de code différente
58.
Systems and methods for constructing and indexing a database of joint profiles for persons viewed by multiple wearable apparatuses
The present disclosure relates to systems and methods for constructing and indexing a database with joint profiles for persons viewed by multiple wearable apparatuses. In one implementation, a system for updating profile information based on data collected by a wearable apparatus may include a database storing a plurality of profiles and at least one processing device. The at least one processing device may be programmed to obtain identification information associated with a person detected in one or more images captured by a wearable image sensor included in the wearable apparatus; obtain, from the wearable apparatus, auxiliary information associated with the detected person; identify, in the database, a profile associated with the detected person based on the identification information; and update the identified profile based on the auxiliary information.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
H04N 21/414 - Plate-formes spécialisées de client, p.ex. récepteur au sein d'une voiture ou intégré dans un appareil mobile
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06Q 50/00 - Systèmes ou procédés spécialement adaptés à un secteur particulier d’activité économique, p.ex. aux services d’utilité publique ou au tourisme
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 1/00 - Traitement de données d'image, d'application générale
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
G01S 5/00 - Localisation par coordination de plusieurs déterminations de direction ou de ligne de position; Localisation par coordination de plusieurs déterminations de distance
H04N 1/32 - Circuits ou dispositions pour la commande ou le contrôle entre l'émetteur et le récepteur
A system for providing information to a user of a wearable apparatus is provided. The system includes at least one processing device programmed to identify a person represented in at least one image captured by a wearable image sensor included in the wearable apparatus, obtain information associated with the person represented in the at least one captured image, and obtain at least one affinity measurement representing a degree of a relationship between the user and the person. The processing device is also programmed to determine, based on the at least one affinity measurement, an information level to be disclosed to the user of the wearable apparatus and provide, to the user of the wearable apparatus, the information based on the information associated with the person and on the information level.
A wearable apparatus for registering a verbal contract is provided. The wearable apparatus includes an image sensor for capturing a plurality of images, an audio sensor for capturing audio data, and at least one processing device. The processing device is programmed to analyze the plurality of images to detect a person in the environment of the user of the wearable apparatus, obtain identification information associated with the detected person, analyze at least a portion of the audio data to identify one or more words associated with the verbal contract and spoken by the user of the wearable apparatus or the detected person, obtain at least one profile of the user, authenticate an identity of the user based on the at least one profile of the user, and, based on the authentication of the identity of the user, register the verbal contract and the identification information associated with the detected person.
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 21/414 - Plate-formes spécialisées de client, p.ex. récepteur au sein d'une voiture ou intégré dans un appareil mobile
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06Q 50/00 - Systèmes ou procédés spécialement adaptés à un secteur particulier d’activité économique, p.ex. aux services d’utilité publique ou au tourisme
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
G01S 5/00 - Localisation par coordination de plusieurs déterminations de direction ou de ligne de position; Localisation par coordination de plusieurs déterminations de distance
H04N 1/32 - Circuits ou dispositions pour la commande ou le contrôle entre l'émetteur et le récepteur
A wearable apparatus may include at least one image sensor configured to capture a plurality of images from an environment of a user of the wearable apparatus and at least one projector. The at least one light projector may be configured to emit a light pattern configured to visually indicate to the user of the wearable apparatus an active field of view of the at least one image sensor.
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06Q 50/00 - Systèmes ou procédés spécialement adaptés à un secteur particulier d’activité économique, p.ex. aux services d’utilité publique ou au tourisme
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 1/00 - Traitement de données d'image, d'application générale
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G01S 5/00 - Localisation par coordination de plusieurs déterminations de direction ou de ligne de position; Localisation par coordination de plusieurs déterminations de distance
A wearable apparatus and method are provided for capturing image data. In one implementation, a wearable apparatus for capturing image data is provided. The wearable apparatus includes at least one image sensor for capturing image data of an environment of a user, wherein a field of view of the image sensor includes a chin of the user. The wearable apparatus includes two or more microphones, and an attachment mechanism configured to enable the image sensor and microphones to be worn by the user. The wearable apparatus includes a processing device programmed to capture at least one image, identify the chin of the user to obtain a location of the chin, select a microphone from the two or more microphones based on the location, process input from the selected microphone using a first processing scheme, and process input from a microphone that is not selected using a second processing scheme.
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
G06F 1/18 - Installation ou distribution d'énergie
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
H04N 1/21 - Enregistrement intermédiaire de l'information
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
63.
Systems and methods for directing audio output of a wearable apparatus
The present disclosure relates to systems and methods for directing the audio output of a wearable device having a plurality of speakers. In one implementation, the system may include an image sensor configured to capture one or more images from an environment of the user of the wearable apparatus, a plurality of speakers, and at least one processing device. The at least one processing device may be configured to analyze the one or more images to determine at least one indicator of head orientation of the user of the wearable apparatus, select at least one of the plurality of speakers based on the at least one indicator of head orientation, and output the audio to the user of the wearable apparatus via the selected at least one of the plurality of speakers.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04R 1/40 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en combinant plusieurs transducteurs identiques
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04R 1/34 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en utilisant un seul transducteur avec des moyens réfléchissant, diffractant, dirigeant ou guidant des sons
64.
Systems and methods for determining and distributing an update to an inference model for wearable apparatuses
A system and a method determine a global update to an inference model and distribute the global update to a plurality of wearable apparatuses. In one implementation, the system includes a data interface and at least one processing device. The at least one processing device is programmed to receive, via the data interface and from a first one of the plurality of wearable apparatuses, first update information associated with the inference model. The at least one processing device is further programmed to receive, via the data interface and from a second one of the plurality of wearable apparatuses, second update information associated with the inference model. The at least one processing device is further programmed to analyze the first update information and the second update information to determine the global update to the inference model, and transmit, via the data interface, the global update to the plurality of wearable apparatuses.
H04L 29/08 - Procédure de commande de la transmission, p.ex. procédure de commande du niveau de la liaison
H04B 1/3827 - TRANSMISSION - Détails des systèmes de transmission non caractérisés par le milieu utilisé pour la transmission Émetteurs-récepteurs, c. à d. dispositifs dans lesquels l'émetteur et le récepteur forment un ensemble structural et dans lesquels au moins une partie est utilisée pour des fonctions d'émission et de réception Émetteurs-récepteurs portatifs
65.
Systems and methods for automatically varying privacy settings of wearable camera systems
A wearable imaging apparatus is provided for capturing and processing images from an environment of a user. In one implementation, the wearable apparatus may be configured with a memory for storing privacy mode triggers and associated automatically variable privacy mode settings, and at least one processing device. The processing device may analyze the images captured by the wearable apparatus, and recognize the presence of at least one of the privacy mode triggers within the images. After recognizing the at least one trigger, the processing device may cause one or more adjustments to the wearable apparatus based on the privacy mode settings associated with the at least one trigger.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G05B 15/02 - Systèmes commandés par un calculateur électriques
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06K 7/10 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a system for controlling one or more controllable devices includes a transceiver and at least one processing device. The processing device is programmed to obtain one or more images captured by an image sensor included in a wearable apparatus, analyze the one or more images to identify a controllable device in an environment of a user of the wearable apparatus, analyze the one or more images to detect a visual trigger associated with the controllable device and, based on the detection of the visual trigger, transmit, via the transceiver, a command. The command may be configured to change at least one aspect of the controllable device.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a wearable apparatus includes a transmitter, a memory, an image sensor configured to capture a stream of images from an environment of a user of the wearable apparatus, and a processing device. The processing device is programmed to receive the stream of images from the image sensor, analyze the stream of images to detect the external device in the environment of the user, and cause the transmitter to transmit an interrogation signal that is configured to cause a change in an aspect of the external device. The processing device is further programmed to analyze the stream of images to detect the change in the aspect of the external device and, after detection of the change, store in the memory information relating to the external device.
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
H04L 65/61 - Diffusion en flux de paquets multimédias pour la prise en charge des services de diffusion par flux unidirectionnel, p.ex. radio sur Internet
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
H04W 4/02 - Services utilisant des informations de localisation
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a system for facilitating collaboration between individuals includes a transceiver and at least one processing device. The at least one processing device is programmed to obtain and analyze one or more images captured by an image sensor included in a wearable apparatus. The at least one processing device is further programmed to detect, by the analysis, a visual trigger in an environment of a wearer of the wearable apparatus. The visual trigger may be associated with a collaborative action to be taken. The at least one processing device may be further programmed to use the transceiver to transmit an indicator relating to the visual trigger associated with the collaborative action to be taken.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a server-based system includes a data interface for receiving a data stream including image-based information. The image based information may include images captured by a camera present on a particular wearable apparatus from among the plurality of wearable apparatuses worn by different users. The server-based system also includes at least one processing device programmed to receive the data stream from each of the plurality of wearable apparatuses using the data interface, and analyze the data streams to determine at least one trait common to two or more of the different users of the plurality of wearable apparatuses. The at least one processing device may also be programmed to store in a database information relating to the determined at least one trait.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G05B 15/02 - Systèmes commandés par un calculateur électriques
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06K 7/10 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, the wearable apparatus is used for causing a device paired to the wearable apparatus to execute a selected function. The wearable apparatus includes an image capture device, a transmitter and at least one processing device. The at least one processing device is programmed to obtain images captured by the image capture device; analyze the images to detect a contextual situation associated with images; based on the detected contextual situation, associate with the at least one image a category tag, wherein the category tag is associated with a selected function; determine image-related information associated with the detected contextual situation; and cause the transmitter to transmit the determined image-related information to the paired device to cause the paired device to execute the selected function based on the determined image-related information.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
A wearable imaging apparatus is provided for capturing and processing images from an environment of a user. In one implementation, the wearable apparatus may be configured with a memory for storing privacy mode triggers and associated automatically variable privacy mode settings, and at least one processing device. The processing device may analyze the images captured by the wearable apparatus, and recognize the presence of at least one of the privacy mode triggers within the images. After recognizing the at least one trigger, the processing device may cause one or more adjustments to the wearable apparatus based on the privacy mode settings associated with the at least one trigger.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a system for facilitating collaboration between individuals includes a transceiver and at least one processing device. The at least one processing device is programmed to obtain and analyze one or more images captured by an image sensor included in a wearable apparatus. The at least one processing device is further programmed to detect, by the analysis, a visual trigger in an environment of a wearer of the wearable apparatus. The visual trigger may be associated with a collaborative action to be taken. The at least one processing device may be further programmed to use the transceiver to transmit an indicator relating to the visual trigger associated with the collaborative action to be taken.
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
H04W 4/02 - Services utilisant des informations de localisation
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a system for controlling one or more controllable devices includes a transceiver and at least one processing device. The processing device is programmed to obtain one or more images captured by an image sensor included in a wearable apparatus, analyze the one or more images to identify a controllable device in an environment of a user of the wearable apparatus, analyze the one or more images to detect a visual trigger associated with the controllable device and, based on the detection of the visual trigger, transmit, via the transceiver, a command. The command may be configured to change at least one aspect of the controllable device.
G05B 15/02 - Systèmes commandés par un calculateur électriques
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a server-based system includes a data interface for receiving a data stream including image-based information. The image based information may include images captured by a camera present on a particular wearable apparatus from among the plurality of wearable apparatuses worn by different users. The server-based system also includes at least one processing device programmed to receive the data stream from each of the plurality of wearable apparatuses using the data interface, and analyze the data streams to determine at least one trait common to two or more of the different users of the plurality of wearable apparatuses. The at least one processing device may also be programmed to store in a database information relating to the determined at least one trait.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
75.
Wearable apparatus and methods for processing images to identify contextual situations
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, the wearable apparatus is used for identifying a contextual situation related to a wearer. The wearable apparatus includes a wearable image sensor configured to capture a plurality of images from an environment of the wearer. The wearable apparatus further includes at least one processing device. The at least one processing device is programmed to analyze the plurality of images to identify the contextual situation related to the wearer; determine information associated with the contextual situation; and cause the transmitter to transmit the determined information to a device paired with the wearable apparatus to cause the paired device to provide at least one alert to the wearer based on the determined information associated with the contextual situation.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/51 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/583 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04W 4/029 - Services de gestion ou de suivi basés sur la localisation
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p.ex. transmission de fac-similés; Leurs détails
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a wearable apparatus includes a transmitter, a memory, an image sensor configured to capture a stream of images from an environment of a user of the wearable apparatus, and a processing device. The processing device is programmed to receive the stream of images from the image sensor, analyze the stream of images to detect the external device in the environment of the user, and cause the transmitter to transmit an interrogation signal that is configured to cause a change in an aspect of the external device. The processing device is further programmed to analyze the stream of images to detect the change in the aspect of the external device and, after detection of the change, store in the memory information relating to the external device.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 7/10 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire
G06F 21/62 - Protection de l’accès à des données via une plate-forme, p.ex. par clés ou règles de contrôle de l’accès
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
A wearable apparatus is provided for capturing and processing images from an environment of a user. In one implementation, a wearable apparatus for monitoring activities includes a wearable image sensor configured to capture a plurality of images from an environment of a user of the wearable apparatus. The wearable apparatus also includes at least one processing device programmed to analyze the plurality of images to identify in one or more of the plurality of images at least one indicator of an activity, and to transmit, to an external device, the at least one indicator of the activity.
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
H04N 21/2668 - Création d'un canal pour un groupe dédié d'utilisateurs finaux, p.ex. en insérant des publicités ciblées dans un flux vidéo en fonction des profils des utilisateurs finaux
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04L 29/08 - Procédure de commande de la transmission, p.ex. procédure de commande du niveau de la liaison
H04N 5/247 - Disposition des caméras de télévision
A system is provided for analyzing information collected by a plurality of wearable camera systems. In one implementation, the system may include a memory storing executable instructions and at least one processing device. The at least one processing device may be programmed to execute the instructions to receive information derived from image data captured by the wearable camera systems; analyze the derived information to identify a commonality related to the image data captured by at least two of the wearable camera systems; determine, based on the commonality, statistical data related to users of the at least two of the wearable camera systems; and select, based on the statistical data, at least one content item for at least one of the users of the wearable camera systems who share the commonality.
H04N 21/2668 - Création d'un canal pour un groupe dédié d'utilisateurs finaux, p.ex. en insérant des publicités ciblées dans un flux vidéo en fonction des profils des utilisateurs finaux
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04L 29/08 - Procédure de commande de la transmission, p.ex. procédure de commande du niveau de la liaison
H04N 5/247 - Disposition des caméras de télévision
A wearable apparatus is provided for identifying a person in an environment of a user of the wearable apparatus based on non-facial information. The wearable apparatus includes a wearable image sensor configured to capture a plurality of images from the environment of the user, and a processing device programmed to analyze a first image of the plurality of images to determine that a face appears in the first image. The processing device also analyzes a second image of the plurality of images to identify an item of non-facial information appearing in the second image that was captured within a time period including a time when the first image is captured. The processing device also determines identification information of a person associated with the face based on the item of non-facial information.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 21/2668 - Création d'un canal pour un groupe dédié d'utilisateurs finaux, p.ex. en insérant des publicités ciblées dans un flux vidéo en fonction des profils des utilisateurs finaux
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04L 29/08 - Procédure de commande de la transmission, p.ex. procédure de commande du niveau de la liaison
H04N 5/247 - Disposition des caméras de télévision
A wearable device and method are provided for reporting the time based on a wrist-related trigger. In one implementation, a wearable apparatus for providing time information to a user includes a wearable image sensor configured to capture real-time image data from an environment of a user of the wearable apparatus. The wearable apparatus also includes at least one processing device programmed to identify in the image data a wrist-related trigger associated with the user. The processing device is also programmed to provide an output to the user, the output including the time information, based on at least the identification of the wrist-related trigger.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
A wearable apparatus and method are provided for selectively disregarding triggers originating from persons other than a user of the wearable apparatus. The wearable apparatus comprises a wearable image sensor configured to capture image data from an environment of the user of the wearable apparatus. The wearable apparatus also includes at least one processing device programmed to receive the captured image data and identify in the image data a trigger. The trigger is associated with at least one action to be performed by the wearable apparatus. The processing device is also programmed to determine, based on the image data, whether the trigger identified in the image data is associated with a person other than the user of the wearable apparatus, and forgo performance of the at least one action if the trigger identified in the image data is determined to be associated with a person other than the user.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
H04N 1/21 - Enregistrement intermédiaire de l'information
Apparatuses and methods are provided for storing information related to objects associated with a hand of a user via a wearable camera system. In one implementation, a wearable apparatus for storing the information is provided comprising a wearable image sensor configured to capture a plurality of images from the environment of the user, and at least one processing device programmed to process the images. The processing device may detect the hand of the user, and an object associated with the user's hand. The processing device may proceed to store information related to the object. Consistent with disclosed embodiments, the stored information may be used for various purposes, such as warning the user of dangers, catering advertising to the user, and helping the user find objects when they are lost.
H04N 1/21 - Enregistrement intermédiaire de l'information
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
A wearable apparatus and method are provided for capturing image data. In one implementation, a wearable apparatus for capturing image data is provided. The wearable apparatus includes at least one image sensor for capturing image data of an environment of a user, wherein a field of view of the image sensor includes a chin of the user. The wearable apparatus includes two or more microphones, and an attachment mechanism configured to enable the image sensor and microphones to be worn by the user. The wearable apparatus includes a processing device programmed to capture at least one image, identify the chin of the user to obtain a location of the chin, select a microphone from the two or more microphones based on the location, process input from the selected microphone using a first processing scheme, and process input from a microphone that is not selected using a second processing scheme.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
H04N 1/21 - Enregistrement intermédiaire de l'information
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
A wearable apparatus is provided for securing a wearable apparatus to an article of clothing. In one implementation, an apparatus securable to an article of clothing may include a capturing unit including at least one image sensor configured to capture images of an environment of a user and a power unit configured to house a power source. The apparatus may further include a connector configured to connect the capturing unit and the power unit. The connector is configured to secure the apparatus to the article of clothing such that the capturing unit is positioned over an outer surface of the article of clothing and the powering unit is positioned under an inner surface of the article of clothing.
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
A wearable apparatus and method are provided for executing actions based on triggers identified in an environment of a user. In one implementation, a wearable apparatus for storing information related to objects identified in an environment of a user is provided. The wearable apparatus includes a wearable image sensor configured to capture a plurality of images from the environment of the user and at least one processing device. The processing device may be programmed to process the plurality of images to detect an object entering a receptacle, process at least one of the plurality of images that includes the object to determine at least a type of the object, and based on the type of the object, generate information related to an action to be taken related to the object.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
H04N 1/21 - Enregistrement intermédiaire de l'information
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
Systems are provided for analyzing the effectiveness of an advertisement using information provided by a wearable camera system. In one implementation, a system includes a memory storing executable instructions, and at least one processing device programmed to execute the instructions to receive, from the wearable camera system, information derived from image data related to an advertisement in an environment of a user of the wearable camera system. The processing device of the system may be further configured to receive information derived from the image data related to activities of the user, and may be configured to identify, based on this received information, a product acquired by the user that is associated with the advertisement.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
G06F 3/038 - Dispositions de commande et d'interface à cet effet, p.ex. circuits d'attaque ou circuits de contrôle incorporés dans le dispositif
H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
H04N 1/21 - Enregistrement intermédiaire de l'information
A device and method are provided for adjusting image capture settings. In one implementation, a wearable apparatus may include at least one wearable image sensor configured to capture a plurality of images from an environment of a user. The wearable apparatus may also include at least one processing device configured to identify, in at least one representation of at least one of the plurality of images, an existence of at least one visual trigger in the environment of the user, determine, based on a type of the at least one visual trigger, a value for at least one capturing parameter, cause the image sensor to capture at least one subsequent image according to at least the value of the at least one capturing parameter, determine a data size for storing at least one representation of the at least one subsequent image, and store, in a memory, the at least one representation of the at least one subsequent image.
A device and method are provided for providing feedback based on the state of an object. In one implementation, an apparatus for processing images is provided. The apparatus may include an image sensor configured to capture real time images from an environment of a user and at least one processor device configured to initially process at least one image to determine whether an object is likely to change its state. If a determination is made that the object is unlikely to change its state, the at least one processor device may additionally process the at least one image and provide a first feedback. If a determination is made that the object is likely to change its state, the at least one processor device may continue to capture images of the object and alert the user with a second feedback after a change in the state of the object occurs.
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G08B 3/10 - Systèmes de signalisation audible; Systèmes d'appel sonore de personnes utilisant une transmission électromagnétique
G08B 6/00 - Systèmes de signalisation tactile, p.ex. systèmes d'appel de personnes
G06K 9/74 - Dispositions pour la reconnaissance utilisant des masques de référence optiques
G10L 13/04 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole - Détails des systèmes de synthèse de la parole, p.ex. structure du synthétiseur ou gestion de la mémoire
An apparatus connectable to a pair of glasses provides information to a user by processing images captured from the environment of the user. In one embodiment, the apparatus includes a support configured for mounting on the pair of glasses and a sensory unit. The sensory unit includes a housing configured for selective attachment to the support and an image sensor contained within the housing. The support and the housing are configured to enable selective aiming of the image sensor to establish a set aiming direction relative to the pair of glasses. The support and the housing are configured to cooperate with each other such that each time the sensory unit is attached to the support, the image sensor assumes the set aiming direction without need for directional calibration.
A apparatus and method are provided for processing images. In one embodiment, the apparatus includes an image sensor configured to capture real time images from an environment of a user. The apparatus also includes a mobile power source, and at least one processor device configured to process, at an initial resolution, images to determine existence of a trigger, and access rules associating image context with image capture resolution to enable images of a first context to be processed at a lower capture resolution than images of a second context. The processor device analyzes at least one first image, selects a first image capture resolution rule, and applies the first image capture resolution rule to a subsequent captured image. The processor device analyzes at least one second image, selects a second image capture resolution rule, and applies the second image capture resolution rule to a second subsequent captured image.
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G06K 9/32 - Alignement ou centrage du capteur d'image ou de la zone image
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/22 - Obtention de l'image en utilisant des instruments déplacés manuellement
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
G08B 3/10 - Systèmes de signalisation audible; Systèmes d'appel sonore de personnes utilisant une transmission électromagnétique
G08B 6/00 - Systèmes de signalisation tactile, p.ex. systèmes d'appel de personnes
G06K 9/74 - Dispositions pour la reconnaissance utilisant des masques de référence optiques
G10L 13/04 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole - Détails des systèmes de synthèse de la parole, p.ex. structure du synthétiseur ou gestion de la mémoire
A system and method are provided for accelerating machine reading of text. In one embodiment, the system comprises at least one processor device. The processor device is configured to receive at least one image of text to be audibly read. The text includes a first portion and a second portion. The processor device is further configured to initiate optical character recognition (OCR) to recognize the first portion. The processor device is further configured to initiate an audible presentation of the first portion prior to initiating OCR of the second portion, and simultaneously perform OCR to recognize the second portion of the text to be audibly read during presentation of at least part of the first portion. The processor device is further configured to automatically cause the second portion of the text to be audibly presented immediately upon completion of the presentation of the first portion.
Devices and a method are provided for providing context-related feedback to a user. In one implementation, the method comprises capturing real time image data from an environment of the user. The method further comprises identifying in the image data a hand-related trigger. Multiple context-based alternative actions are associated with the hand-related trigger. Further, the method comprises identifying in the image data an object associated with the hand-related trigger. The object is further associated with a particular context. Also, the method comprises selecting one of the multiple alternative actions based on the particular context. The method further comprises outputting the context-related feedback based on a result of the executed alternative action.
H04N 9/47 - Synchronisation de couleurs pour des signaux séquentiels
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
G06K 9/32 - Alignement ou centrage du capteur d'image ou de la zone image
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/22 - Obtention de l'image en utilisant des instruments déplacés manuellement
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G08B 3/10 - Systèmes de signalisation audible; Systèmes d'appel sonore de personnes utilisant une transmission électromagnétique
G08B 6/00 - Systèmes de signalisation tactile, p.ex. systèmes d'appel de personnes
G06K 9/74 - Dispositions pour la reconnaissance utilisant des masques de référence optiques
G10L 13/04 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole - Détails des systèmes de synthèse de la parole, p.ex. structure du synthétiseur ou gestion de la mémoire
A device and method are provided for audible facial recognition. In one implementation, an apparatus for aiding a visually impaired user to identify individuals is provided. The apparatus may include a portable image sensor configured to be worn by the visually impaired user and to capture real-time image data from an environment of the user. The apparatus may also include at least one portable processor device configured to determine an existence of face-identifying information in the real-time image data, and access stored facial information and audible indicators. The at least one portable processor device may also be configured to compare the face-identifying information with the stored facial information, and identify a match. Based on the match, the at least one portable processor may be configured to cause an audible indicator to be announced to the visually impaired user.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G08B 3/10 - Systèmes de signalisation audible; Systèmes d'appel sonore de personnes utilisant une transmission électromagnétique
G08B 6/00 - Systèmes de signalisation tactile, p.ex. systèmes d'appel de personnes
G06K 9/74 - Dispositions pour la reconnaissance utilisant des masques de référence optiques
G10L 13/04 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole - Détails des systèmes de synthèse de la parole, p.ex. structure du synthétiseur ou gestion de la mémoire
A device and method are provided for automatic control of a continuous action. In one implementation, an apparatus for providing feedback to a user is provided. The apparatus may include an image sensor configured to be positioned for movement with a head of a user. The image sensor may also be configured to capture real time images from an environment of the user as the user's head moves. The apparatus may also include at least one processor device configured to process at least one image to identify an existence of an object within a field of view of the image sensor and to initiate a continuous action associated with the object. The processing device may also be configured to suspend the continuous action associated with the object when the object moves outside the field of view of the image sensor.
A device and method are provided for performing a triggered action. In one implementation, an apparatus for processing real time images of an environment of a user is provided. The apparatus may include an image sensor configured to capture image data for providing a plurality of sequential images of the environment of the user. The apparatus may also include at least one processor device configured to identify a trigger associated with a desire of the user to cause at least one pre-defined action associated with an object. The trigger may include an erratic movement of the object. In response to identification of the trigger, the at least one processor device may also be configured to identify a captured representation of the object. Based on at least the captured representation of the object, the at least one processor device may be configured to execute the at least one pre-defined action.
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
96.
Apparatus, method, and computer readable medium for recognizing text on a curved surface
A device and method are provided for recognizing text on a curved surface. In one implementation, the device comprises an image sensor configured to capture from an environment of a user multiple images of text on a curved surface. The device also comprises at least one processor device. The at least one processor device is configured to receive a first image of a first perspective of text on the curved surface, receive a second image of a second perspective of the text on the curved surface, perform optical character recognition on at least parts of each of the first image and the second image, combine results of the optical character recognition on the first image and on the second image, and provide the user with a recognized representation of the text, including a recognized representation of the first portion of text.
G06K 9/32 - Alignement ou centrage du capteur d'image ou de la zone image
G06K 9/22 - Obtention de l'image en utilisant des instruments déplacés manuellement
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G10L 13/04 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole - Détails des systèmes de synthèse de la parole, p.ex. structure du synthétiseur ou gestion de la mémoire
G08B 6/00 - Systèmes de signalisation tactile, p.ex. systèmes d'appel de personnes
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
An apparatus and method are provided for identifying and audibly presenting textual information within captured image data. In one implementation, a method is provided for audibly presenting text retrieved from a captured image. According to the method, at least one image of text is received from an image sensor, and the text may include a first portion and a second portion. The method includes identifying contextual information associated with the text, and accessing at least one rule associating the contextual information with at least one portion of text to be excluded from an audible presentation associated with the text. The method further includes performing an analysis on the at least one image to identify the first portion and the second portion, and causing the audible presentation of the first portion.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/74 - Dispositions pour la reconnaissance utilisant des masques de référence optiques
98.
Apparatus and method for hierarchical object identification using a camera on glasses
Apparatuses and a method are provided for providing environmental information to a user, who may be visually impaired. In one implementation, a method is provided for receiving real time image data including an object within the user environment. The method includes identifying a hand-related trigger in the image data. Upon identifying the hand-related trigger, the method includes executing a first search in the image data in an attempt to identify at least one object from a first category of objects. After initiating the first search, the method includes executing a second search in the image data in an attempt to identify at least one object from a second category of objects that differs from the first. The method also includes outputting audible feedback to the user associated with information related to an object or objects identified in the image data.
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
G08B 3/10 - Systèmes de signalisation audible; Systèmes d'appel sonore de personnes utilisant une transmission électromagnétique
G08B 6/00 - Systèmes de signalisation tactile, p.ex. systèmes d'appel de personnes
G06K 9/74 - Dispositions pour la reconnaissance utilisant des masques de référence optiques
G10L 13/04 - Procédés d'élaboration de parole synthétique; Synthétiseurs de parole - Détails des systèmes de synthèse de la parole, p.ex. structure du synthétiseur ou gestion de la mémoire
An apparatus is provided for audibly reading text retrieved from a captured image. In one implementation, the apparatus comprises an image sensor configured to capture image data from an environment of a user, and at least one processor. The processor is configured to determine an existence of a pointing trigger in the image data, the trigger being associated with a user's desire to hear text read aloud, and wherein the trigger identifies an intermediate portion of the text a distance from a level break in the text. The processor is further configured to perform a layout analysis on the text to identify a level break associated with the trigger; and cause the text to be read aloud from the level break associated with the trigger.
G09B 21/00 - Moyens d'enseignement ou de communication destinés aux aveugles, sourds ou muets
A61F 9/08 - Dispositifs ou méthodes permettant au patient de voir en remplaçant la perception directe de la vue par une autre
G06K 9/18 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales utilisant des caractères imprimés pourvus de marques de codage additionnelles ou comportant des marques de codage, p.ex. le caractère étant composé de barres distinctes de formes différentes, chacune représentant une valeur de code différente
G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
A device and method are provided for processing mages to prolong battery life. In one implementation, a wearable apparatus may include a wearable image sensor configured to capture a plurality of images from an environment of a user. The wearable apparatus may also include at least one processing device configured to, in a first processing-mode, process representations of the plurality of images to determine a value of at least one capturing parameter for use in capturing at least one subsequent image, and in a second processing-mode, process the representations of the plurality of images to extract information. In addition, the at least one processing device may operate in the first processing-mode when the wearable apparatus is powered by a mobile power source included in the wearable apparatus and may operate in the second processing-mode when the wearable apparatus is powered by an external power source.