宠物状态评估系统、宠物相机、服务器、宠物状态评估方法和程序与流程
1.本公开总体上涉及一种宠物状态评估系统、宠物相机、服务器、宠物状态评估方法和程序。更具体地说,本公开涉及一种用于评估图像数据中作为主体拍摄的宠物状态的宠物状态评估系统、包括该宠物状态评估系统的宠物相机、服务器、宠物状态评估方法和程序。
背景技术:
2.专利文献1公开了一种用于从图像中识别和检测动物和人的检测装置。该检测装置包括用于从图像中检测动物的动物检测器和用于从图像中检测人的人检测器。该检测装置进一步包括检测结果输出接口,用于在动物和人都被检测到时,输出检测到目标物体的信息,作为检测结果。
3.在该检测装置中,动物检测器参考反映存储在动物特征量存储装置中的动物特征的特征量数据来扫描输入图像。如果动物检测器21找到了任何与动物特征量数据相匹配或具有高度相似性的区域,那么动物检测器就确定该区域内拍摄的物体是动物。
4.一般来说,用户(例如可以是宠物的主人)可能希望了解图像数据中拍摄的宠物(动物)的特定状态,或者如果图像数据中拍摄的宠物处于特定状态,可能希望被通知该特定状态。
5.引文列表
6.专利文献
7.专利文献1:jp 2013-65110a
技术实现要素:
8.鉴于上述背景,因此,本公开的目的是提供一种宠物状态评估系统、宠物相机、服务器、宠物状态评估方法和程序,所有这些都被配置为或设计为使宠物的状态更容易被识别。
9.根据本公开的一个方面的宠物状态评估系统包括区域检测器、信息生成器和评估器。区域检测器在图像数据中检测代表作为主体的宠物外观的至少一部分的特定区域。信息生成器生成宠物信息。该宠物信息包括关于宠物的至少姿态的姿态信息。姿态信息是基于学习模型和图像数据。该学习模型已通过学习宠物的姿态而生成以在图像上识别宠物的姿态。评估器基于宠物信息评估关于在特定区域中出现的宠物的情绪或在特定区域中出现的宠物的动作的至少一个的宠物状态。
10.根据本公开的另一个方面的宠物相机包括上述所述的宠物状态评估系统和捕获图像数据的图像捕获装置。
11.根据本公开的另一个方面的服务器可以与配备有上述宠物状态评估系统的信息生成器和评估器的宠物相机进行通信。该服务器配备有区域检测器。
12.根据本公开的又一方面的服务器可以与配备有上述宠物状态评估系统的区域探测器的宠物相机进行通信。该服务器配备有信息生成器和评估器。
13.根据本公开的又一方面的宠物状态评估方法包括宠物检测步骤、信息生成步骤和评估步骤。宠物检测步骤包括在图像数据中检测代表作为主体的宠物外观的至少一部分的特定区域。信息生成步骤包括生成宠物信息。该宠物信息包括关于宠物的至少姿态的姿态信息。该姿态信息是基于学习模型和图像数据。该学习模型已通过学习宠物的姿态来生成,以便在图像上识别宠物的姿态。评估步骤包括基于宠物信息,来评估关于在特定区域中出现的宠物的情绪或在特定区域中出现的宠物的动作中的至少一个的宠物状态。
14.根据本公开的另一个方面的程序被设计为使一个或多个处理器执行上述的宠物状态评估方法。
附图说明
15.图1a示出了宠物相机的示意性配置,根据一个示例性实施例的宠物状态评估系统被应用于该宠物相机。
16.图1b示出了用于与宠物相机通信的演示装置的示意性配置。
17.图2是一个概念图,示出了包括宠物状态评估系统的宠物管理系统的整体配置。
18.图3a-3c示出了将由宠物状态评估系统进行评估处理的图像数据的例子。
19.图4a-4c示出了将由宠物状态评估系统进行评估处理的图像数据的其他例子。
20.图5a-5c示出了将由宠物状态评估系统进行评估处理的图像数据的其他例子。
21.图6示出了将由宠物状态评估系统进行评估处理的图像数据的又一例子。
22.图7a和7b是概念图,示出了由宠物状态评估系统作出的评估结果在其屏幕上呈现的演示装置。
23.图8是显示宠物状态评估系统的示例性操作的流程图。
24.图9是显示宠物状态评估系统的示例性操作的流程图;以及
25.图10示出了宠物相机的示意配置图,宠物状态评估系统的变化例被应用于该宠物相机。
具体实施方式
26.(1)概述
27.在下面的实施方案描述中所提到的附图都是示意图。因此,附图上例示的各组成元件的尺寸(包括厚度)的比例并不总是反映它们的实际尺寸比例。
28.根据一个示例性实施例的实施的宠物状态评估系统1包括区域检测器32、信息生成器33和评估器34,如图1a中所示。该宠物状态评估系统1包括作为其主要构成元件的计算机系统,该计算机系统包括一个或多个处理器和一个或多个存储器。在下面的描述中,作为一个例子,宠物状态评估系统1的各个组成元件(包括区域检测器32、信息生成器33和评估器34)被假定为全部一起聚集在宠物相机100的单个外壳中。然而,这只是一个例子,不应该被理解为限制性的。另外,根据本公开的宠物状态评估系统1的组成元件也可以分布在多个装置中。例如,宠物状态评估系统1的至少一些组成元件可以被设置在宠物相机100外面(例如,设置在外部服务器如服务器7中)。例如,宠物相机100可以配备信息生成器33和评估器
34,而具有与宠物相机100通信能力的服务器7可以配备有区域检测器32。可选地,宠物相机100可以配备区域检测器32,而具有与宠物相机100通信能力的服务器7可以配备有信息生成器33和评估器34。如本文所使用的,“服务器”可以是单个外部装置(也可以是安装在用户300屋内的装置)或由多个外部装置组成,以合适的为准。
29.区域检测器32在图像数据d1(参考图3b-图6)中检测代表作为主体h1的宠物5的外观的至少一部分的特定区域a1。在本实施例中,图像数据d1是由宠物相机100的图像捕获装置2(参照图1a)捕获(或生成)的图像(数据)。图像数据d1可以是一张静止的图片,也可以是构成动态图片的一帧的图片,以合适的为准。可选地,图像数据d1也可以是由图像捕获装置2捕获并部分地进行了图像处理的图像。在下面的描述中,其状态被宠物状态评估系统1评估的“宠物”的类型假定为狗(作为一种动物)。然而,“宠物”的类型不限于任何特定的类型,也可以是猫或任何其他类型的动物。
30.而且,在以下描述中,图像数据d1中拍摄的狗(作为感兴趣的宠物)(指定为主体)将被指定为参考符号“5”,而其他未指定的狗(作为不感兴趣的宠物)将被提及而不附加参考符号。
31.在本实施例中,特定区域a1是在图像数据d1中用矩形框包围的区域,并由“边界框”表示,如图3a-图6所示,该边界框包围作为主体h1拍摄的宠物5。宠物5在图像数据d1中的位置可以由例如边界框左上角的x和y坐标以及边界框的横向宽度和高度来限定。然而,特定区域a1不一定要由边界框来表示,而是也可以通过例如分段来表示,所述分段以逐个像素为基础将主体h1与背景区分开来。在本公开内容中,用于确定宠物5和除宠物5以外的特定物体6在图像数据d1中的位置的x-y坐标作为例子假定是以像素为基础定义的。
32.信息生成器33生成宠物信息。该宠物信息包括关于至少宠物5的姿态的姿态信息。姿态信息是基于学习模型(以下有时称为“第一模型m1”)和图像数据d1。该学习模型已通过学习宠物的姿态来生成,以便在图像上识别宠物的姿态。第一模型m1是通过机器学习产生的模型,并存储在宠物相机100的模型存储装置p1(参考图1a)中。
33.在本实施例中,区域检测器32和信息生成器33共同构成宠物检测器x1(参照图1a),用于从图像数据d1检测狗(作为宠物5的类型)。可选地,信息生成器33的至少一些功能可以在宠物检测器x1的外部提供。
34.评估器34基于宠物信息,来评估关于出现在特定区域a1中的宠物5的情绪和/或动作的宠物状态。在本实施例中,评估器34基于宠物信息和关于宠物的特定动作和/或特定情绪的条件信息9(参照图1a)来评估宠物状态。条件信息9被存储在宠物相机100的条件存储装置p2(参照图1a)中。
35.根据这种配置,评估器34基于宠物信息评估关于宠物5的情绪和/或动作的宠物状态,从而最终使得更容易识别宠物5的状态。
36.根据示例性实施例的另一个实施方案的宠物状态评估方法包括宠物检测步骤、信息生成步骤和评估步骤。宠物检测步骤包括在图像数据d1中检测代表作为主体h1的宠物5外观的至少一部分的特定区域a1。信息生成步骤包括生成宠物信息。该宠物信息包括关于宠物5的至少姿态的姿态信息。姿态信息是基于学习模型m1和图像数据d1。学习模型m1已通过学习宠物的姿态来产生,以便在图像上识别宠物的姿态。评估步骤包括基于宠物信息,来评估关于出现在特定区域a1中的宠物5的情绪和/或动作的宠物状态。
37.根据该方法,评估步骤包括基于宠物信息,评估关于宠物5的情绪和/或动作的宠物状态,从而最终使得宠物5的状态更容易识别。
38.该宠物状态评估方法使用在计算机系统(宠物状态评估系统1)上。也就是说,该宠物状态评估方法也可以作为程序来实现。根据本实施例的程序被设计为使一个或多个处理器执行根据本实施例的宠物状态评估方法。
39.(2)细节
40.接下来,将参照图1a-图9详细描述应用了根据本实施例的宠物状态评估系统1的系统(以下称为“宠物管理系统200”)。
41.(2.1)整体配置
42.如图2所示,宠物管理系统200包括一个或多个宠物相机100、一个或多个演示装置4和服务器7。在下面的描述中,要注意到使用该宠物管理系统200接收宠物5管理(或观看)服务的用户300(参考图2)。该用户300可以是,但不一定是宠物5的主人。
43.用户300在设施(例如用户300与宠物5居住的居住设施)中的预定位置(或多个预定位置)安装一个或多个宠物相机100。如果要安装多个宠物相机100,用户300可以在居住设施的每个房间安装一个宠物相机100。宠物相机100不一定要安装在室内,而是也可以安装在室外。在下面的描述中,为了描述的方便,将注意放到一个宠物相机100上。
44.演示装置4假定是,例如,由用户300拥有的电信装置。该电信装置假定是,例如,移动电信装置,例如智能手机或平板电脑。可选地,演示装置4也可以是笔记本电脑或台式电脑。
45.如图1b所示,演示装置4包括通信接口41、处理装置42和显示装置43。
46.通信接口41是这样的通信接口:允许通信接口41与宠物相机100(参照图2)和服务器7(参照图2)中的每一个进行通信。或者,通信接口41可以被配置为仅与宠物相机100或服务器7通信。
47.处理装置42被实施为例如包括一个或多个处理器(微处理器)和一个或多个存储器的计算机系统。也就是说,通过使一个或多个处理器执行存储在一个或多个存储器中的一个或多个程序(应用程序)来执行处理装置42的相应功能。在本实施例中,程序被存储在处理装置42的存储器中。可选地,该程序也可以通过电信线路如互联网下载,或在存储于非暂时性存储介质如存储卡后分发。用户300可以通过安装专门用于呈现关于要观看的宠物5的图形用户界面(gui)的应用软件程序(以下称为“宠物应用程序”)并启动宠物应用程序,使他或她的电信装置作为演示装置4发挥作用。
48.显示装置43可以被实现为触摸屏面板液晶显示器或有机电致发光(el)显示器。随着演示装置4执行宠物应用程序,在显示装置43上显示(输出)呈现关于宠物5的信息的屏幕图像。
49.如果多个居民(家庭成员)与宠物5一起居住在居住设施中并作为用户300接受宠物5管理服务,那么宠物管理系统200包括多个居民(多个用户300)分别携带的多个演示装置4。在下面的描述中,注意力将放在由一个用户300(居民)随身携带的一个演示装置4(智能手机)上。
50.宠物相机100是例如具有捕获图像以观看指定宠物的能力的装置。换句话说,宠物相机100包括图1a中所示的图像捕获装置2(摄像装置)。用户300安装宠物相机100,使他或
她自己的宠物5日常主要动作的区域(例如,放饲料的地方)在住宅设施内(或外)落在图像捕获装置2的视角内。这样,用户300就可以通过图像捕获装置2获取的图像来观察宠物5的状态,即使例如在他或她离开居住设施的时候。
51.如上所述,要观看的宠物的类型作为一个例子假定为狗。尽管在图3a-图6中作为例子说明了代表多个品种的狗的多帧图像数据d1,但这些图只是说明了狗可能采取的各种姿态以描述宠物状态评估系统1的操作,而不应被理解为限制该宠物状态评估系统1所适用的狗的品种。例如,该宠物状态评估系统1被配置为在一定程度上以同样的方式识别任何狗的姿态,而不论其品种如何。然而,这只是一个例子,不应该被理解为限制性的。可选地,宠物状态评估系统1也可以根据狗的品种在个体基础上识别特定狗的姿态。
52.如图1a所示,宠物相机100除了图像捕获装置2之外,还进一步包括通信接口11。通信接口11是这样的通信接口:允许通信接口11与演示装置4(参照图2)和服务器7(参照图2)中的每一个通信。可选地,通信接口11可以具有与演示装置4建立符合蓝牙(r)低能量(ble)标准的短距离无线通信的能力,例如。如果随身携带演示装置4的用户300(参照图2)呆在家里,通信接口11可以通过直接与演示装置4建立短程无线通信来向/从演示装置4发送和接收数据。
53.此外,通信接口11还通过安装在居住设施内部的路由器连接到网络nt1(参考图2),例如互联网。宠物相机100可以通过网络nt1与外部服务器7进行通信,以从服务器7获取信息和输出信息至服务器7。
54.可选地,图2中所示的演示装置4也可以通过例如由通信服务提供商提供的蜂窝电话网络(运营商网络)或公共无线局域网(lan)连接到网络nt1。蜂窝电话网络的例子包括第三代(3g)网络、长期进化(lte)网络、第四代(4g)网络和第五代(5g)网络。在演示装置4可连接到蜂窝电话网络的环境中,演示装置4可通过蜂窝电话网络连接到网络nt1。例如,如果随身携带演示装置4的用户300不在家,当通过蜂窝电话网络连接到网络nt1时,演示装置4被允许与宠物相机100和服务器7中的每一个进行通信。
55.可选地,演示装置4和宠物相机100之间的通信可以通过网络nt1和服务器7建立。
56.如上所述,宠物状态评估系统1被提供用于如图1a所示的宠物相机100。具体而言,如图1a所示,宠物相机100进一步包括处理装置3、模型存储装置p1和条件存储装置p2,它们共同构成宠物状态评估系统1。该宠物状态评估系统1将在下一节中进一步详细描述。
57.如图2所示,服务器7被连接到网络nt1。服务器7可通过网络nt1与宠物相机100和演示装置4中的每一个通信。服务器7管理例如用户信息(例如他或她的姓名、用户id、电话号码和电子邮件地址)、关于用户300拥有的宠物相机100和演示装置4的信息(例如识别信息)以及关于用户300拥有的宠物5的信息(例如关于其狗的品种的信息)。此外,服务器7还收集和积累由多个宠物相机100拍摄的各种图像数据和处理结果(特别是处理错误)。可选地,用户300可以通过演示装置4访问服务器7来下载宠物应用程序。
58.在本实施例中,服务器7假定是单个服务器装置。然而,这只是一个例子,并且不应该被理解为限制性的。可选地,服务器7也可以由多个服务器装置组成,例如,可以形成云计算系统。可选地,宠物状态评估系统1的至少一些功能可以在服务器7内部提供。
59.(2.2)宠物状态评估系统
60.如图1a所示,宠物相机100不仅包括图像捕获装置2和通信接口11,还包括如就上
述宠物状态评估系统1所述的处理装置3、模型存储装置p1和条件存储装置p2。宠物状态评估系统1执行“评估处理”以评估宠物状态。
61.模型存储装置p1被配置为存储包括多个学习模型的数据。模型存储装置p1包括可重写的存储器,例如电可擦除可编程只读存储器(eeprom)。同时,条件存储装置p2被配置为存储包括条件信息9的数据。条件存储装置p2包括一个可重写的存储器,如eeprom。模型存储装置p1和条件存储装置p2可以是同一个存储装置(存储器)。可选地,模型存储装置p1和条件存储装置p2也可以是内置于处理装置3中的存储器。
62.处理装置3被实施为例如包括一个或多个处理器(微处理器)和一个或多个存储器的计算机系统。也就是说,通过使一个或多个处理器执行存储在一个或多个存储器中的一个或多个程序(应用程序)来执行处理装置3的各自功能(将在后面描述)。在本实施例中,程序被存储在处理装置3的存储器中。可选地,该程序也可以通过电信线路如互联网下载,或在存储于非暂时性存储介质如存储卡后分发。
63.处理装置3具有控制器的功能,用于对宠物相机100进行整体控制,即控制图像捕获装置2、通信接口11、模型存储装置p1、条件存储装置p2和其他部件。
64.在本实施例中,处理装置3包括获取器31、区域检测器32、信息生成器33、评估器34、输出接口35和物体检测器36,如图1a所示。在本实施例中,区域检测器32和信息生成器33共同构成宠物检测器x1,用于从上述图像数据d1中检测狗(作为宠物5的类型)。
65.获取器31被配置为从图像捕获装置2获取图像数据d1(例如静态图片)。获取器31可以从图像捕获装置2获取作为移动图片的一帧的图像作为图像数据d1。当获取器31获取图像数据d1时,处理装置3执行评估处理。
66.宠物检测器x1的区域检测器32被配置为在图像数据d1中检测代表作为主体h1的宠物5外观的至少一部分的特定区域a1。在本实施例中,区域检测器32基于学习模型(以下有时称为“第二模型m2”)检测特定区域a1。第二模型m2已通过学习预定类型的宠物(例如本例中的狗)的外观因子(特征量)而产生,以便在图像上识别预定类型的宠物。第二模型m2被存储在模型存储装置p1中。
67.第二模型m2可以包括,例如,使用神经网络的模型或使用多层神经网络的深度学习产生的模型。神经网络(包括多层神经网络)的例子可以包括卷积神经网络(cnn)和贝叶斯神经网络(bnn)。第二模型m2可以通过例如将学到的神经网络安装到集成电路中来实现,例如专用集成电路(asic)或现场可编程门阵列(fpga)。然而,第二模型m2并不必须是由深度学习产生的模型。可选地,第二模型m2也可以是由支持向量机或决策树等生成的模型。
68.简而言之,区域检测器32使用第二模型m2确定是否有任何狗(作为宠物5的一种类型)作为主体h1存在于所获取的图像数据d1中。当确定狗(作为宠物5的类型)存在于图像数据d1中时,区域检测器32检测由环绕宠物5的边界框限定的特定区域a1(参考图3a-图6)。然而,特定区域a1并不必须由边界框限定,也可以例如通过分段来限定。
69.区域检测器32基于学习模型(以下有时称为“第三模型m3”)检测代表主体h1的头部区段50(参照图2)的头部区域a2(参照图3a-图6)。第三模型m3已通过学习预定类型的宠物(例如本例中的狗)的头部区段的外观因子(特征量)而产生,以在图像上识别预定类型的宠物的头部区段。也就是说,区域检测器32进一步具有头部区段检测器的功能,用于使用第三模型m3检测覆盖面部部分的头部区域a2。可选地,区域检测器32和头部区段检测器可以
彼此分开地提供。第三模型m3被存储在模型存储装置p1中。
70.第三模型m3以及第二模型m2可以包括,例如,使用神经网络的模型或使用多层神经网络的深度学习产生的模型。尽管如此,第三模型m3并不必须是由深度学习生成的模型。可选地,第三模型m3可以是与第二模型m2相同的模型。
71.区域检测器32使用第三模型m3确定狗(作为宠物5的一种类型)的头部区段50是否存在于图像数据d1中。当确定狗(作为宠物5的类型)的头部区段50存在于图像数据d1中时,区域检测器32检测由围绕头部区段50的边界框限定的头部区域a2(参考图3a-图6)。然而,头部区域a2并不必须要由边界框限定,也可以例如通过分段来限定。
72.如果图像数据d1是代表作为特写的狗(作为宠物5的类型)的外观的一部分(例如脸)的图像,那么对特定区域a1的检测或头部区域a2的检测可能失败(即,特定区域a1或头部区域a2可能被错误地检测)。具体来说,代表作为特写的狗(作为宠物5的一种类型)的脸的图像数据d1实质上是关于“狗的脸”的注释。因此,即使区域检测器32成功地将头部区域a2检测为狗的脸(头部区段50),头部区域a2也可能无法对狗的整体(即其整个外观)提供注释。因此,有可能区域检测器32未能检测到作为狗的特定区域a1。在本实施例中,如果区域检测器32检测到狗或狗的脸中至少一个,那么区域检测器32就假定狗(作为宠物5的一种类型)存在于所获取的图像数据d1中。如果区域检测器32只检测到头部区域a2,那么区域检测器32将一个与头部区域a2大小基本相等的区域设定为特定区域a1。注意,如果区域检测器32未能检测到头部区域a2,即使区域检测器32已经检测到特定区域a1,处理装置3可以结束关于图像数据d1的评估处理。
73.宠物检测器x1的信息生成器33不仅基于学习模型(第一模型m1)而且基于其中已经检测到特定区域a1的图像数据d1来生成宠物信息,所述学习模型通过学习宠物(例如本实施例中的狗)的姿态而产生,以在图像上识别宠物的姿态。该宠物信息包括关于至少出现在特定区域a1中的宠物5的姿态的姿态信息。
74.具体而言,信息生成器33包括姿态确定器331、面向方向确定器332和距离确定器333。
75.姿态确定器331被配置为基于第一模型m1和关于特定区域a1的信息来确定(评估)狗(作为宠物5的一种类型)的姿态。第一模型m1已经通过学习狗的姿态的外观因子(特征量)而生成,以在图像上识别狗的姿态。
76.第一模型m1以及第二模型m2和第三模型m3可以包括,例如,使用神经网络的模型或使用多层神经网络的深度学习生成的模型。尽管如此,第一模型m1并不必须是由深度学习生成的模型。可选地,第一模型m1可以是与第二模型m2和第三模型m3相同的模型。
77.接下来,将参照图3a-图6描述狗(作为宠物5的类型)的姿态,其中每个图示了可被宠物状态评估系统1进行评估处理的图像数据d1的示例性帧。
78.图3a是图像数据d1的示例性帧,表示宠物5是如何采取四肢站立的姿态(第一姿态)来观察其周围环境。
79.图3b是图像数据d1的另一个示例性帧,表示宠物5如何采取躺在地板上的姿态(第二姿态),直面前方并观察其周围环境。
80.图3c是图像数据d1的另一个示例性帧,表示宠物5如何采取略微朝向右边并观察其周围的第二姿态。
81.图4a是图像数据d1的又一示例性帧,表示宠物5如何采取其前腿向前伸展和后腿向后伸展进行跑步的姿态(第三姿态)。在图4a中,宠物5正举着它的尾巴。
82.图4b是图像数据d1的又一示例性帧,表示宠物5是如何采取其一条前腿和一条后腿放在地上、其另一条前腿和另一条后腿弯曲并离开地面行走的姿态(第四姿态)。在图4b中,宠物5的尾巴被保持向下。
83.图4c是图像数据d1的又一示例性帧,表示宠物5如何采取卷曲在地板上并闭着眼睛睡觉的姿态(第五姿态)。
84.图5a是图像数据d1的又一示例性帧,表示宠物5如何摆出仅用后腿站立以跳向人(例如用户300)并向他或她表示其喜爱的姿态(第六姿态)。
85.图5b是图像数据d1的又一示例性帧,表示宠物5如何摆出坐在地板上面对人(例如用户300)并对他或她表示喜爱的姿态(第七姿态)。
86.图5c是图像数据d1的又一示例性帧,表示宠物5如何采取三条腿站立,其一只前腿离开地板来玩玩具63(例如,在图5c中说明的例子中的球)的姿态(第八姿态)。
87.图6是图像数据d1的又一示例性帧,表示宠物5是如何采取四条腿站立、其头部区段50降低来吃碗64中的饲料的姿态(第九姿态)。
88.注意,上述第一至第九姿态只是狗(作为宠物5的类型)可能采取的示例性姿态,不应理解为限制性的。尽管如此,第一模型m1是通过对狗的姿态进行机器学习而产生的,更具体地说,与狗的某些动作(特别是与某些类型的情绪有关的动作)高度相关的狗的姿态。在狗的各种姿态中,至于需要更精确评估的狗的特定姿态,通过机器学习来更精细地区分狗的各种心理和身体状况。如本文所使用的,“特定姿态”是指与狗的某种情绪有深刻关联的动作相关的姿态。可以从狗的动作中读出狗的情绪的例子包括快乐、愤怒、孤独、轻松、恐惧和放松。与狗的特定姿态相关的一些动作可能与这些情绪中的任何一种相关联。
89.例如,如果宠物5正在摆出第一姿态,即四肢站立,则通过确定宠物5是否露出牙齿或舌头以及确定其耳朵是向上还是向下,使机器学习以更精细地评估宠物5的第一姿态。例如,宠物5露出牙齿的第一姿态与“威胁”的动作相关联。宠物5竖起耳朵的第一种姿态与“观察”的动作相关联,更具体地说,是观察其周围的环境,而宠物5耷拉耳朵的第一姿态与“不观察”的动作相关联。“威胁”的动作可以被设定为与“愤怒”相关的动作,而“愤怒”是狗的情绪之一。“观察”的动作可以被设定为与“恐惧”相关的动作,而“恐惧”是狗的另一种情绪。此外,“不观察”的动作可以被设定为与“孤独”或“放松”相关的动作,这是狗的其他情绪。另外,如果宠物5正在摆出第五姿态,即睡觉,则通过精确地确定宠物5如何睡觉,具体来说,宠物5睡觉时是弓着背还是直着身子,是闭着眼睛还是睁着眼睛,是伸着舌头还是不伸着舌头,使机器学习更精细地评估宠物5的第五姿态。
90.当通过将标签附加到图像数据(原始数据)以准备用于生成第一至第三模型m1-m3的学习数据集来执行注释工作(即,在确定所监督的数据时)时,使用了大量的图像数据。学习数据集是从大量的图像数据中挑选出来的,这些数据在狗的品种、狗的毛色、狗的朝向和狗被拍摄的背景方面没有任何限制。学习数据集不仅可以包括真实的狗的图像数据,还可以包括填充狗的图像数据和由cg生成的狗的图像数据。机器学习是使用这些类型的图像数据组合而成的。
91.由姿态确定器331确定的关于宠物5的姿态的信息(包括确定结果和有关特定区域
a1的信息)被输出到距离确定器333。
92.面向方向确定器332被配置为基于其中已经检测到特定区域a1的图像数据d1,确定(测量)宠物5在图像数据d1中的面向方向。也就是说,宠物信息进一步包括由面向方向确定器332作出的确定结果。面向方向确定器332从区域检测器32接收关于检测到的特定区域a1的信息和关于检测到的头部区域a2的信息。面向方向确定器332可以仅基于由区域检测器32检测的特定区域a1的信息来确定宠物5作为主体h1的面向方向。在本实施例中,面向方向确定器332基于关于特定区域a1的信息和关于头部区域a2的信息确定宠物5的面向方向。
93.特别是,在本实施例中,面向方向确定器332至少基于头部区域a2相对于特定区域a1的相对位置来确定宠物5的面向方向。具体地说,面向方向确定器332通过由区域检测器32检测的特定区域a1获得关于宠物5在图像数据d1中的位置和大小的信息。此外,面向方向确定器332还通过由区域检测器32检测的头部区域a2获取关于宠物5的头部区段50在图像数据d1中的位置和大小的信息。
94.例如,在图3a所示的例子中,头部区域a2位于特定区域a1的右上角,且因此,面向方向确定器332确定宠物5大致朝向右边。另一方面,在图3b所示的例子中,头部区域a2位于特定区域a1顶部的向右/向左方向的中间,且因此,面向方向确定器332确定宠物5大致上朝向正前方。面向方向确定器332在图像数据d1中定位宠物5正在看的点(或其范围),并输出其位置信息作为确定结果。
95.面向方向确定器332可以在确定宠物5的面向方向的同时,不仅考虑头部区域a2相对于特定区域a1的相对位置,而且考虑例如头部区域a2相对于特定区域a1的平面面积比例以及宠物5的眼睛、鼻子、嘴巴和其他面部部分在头部区域a2中的各自位置。这将进一步提高确定的可靠性。
96.由此由面向方向确定器332确定的关于宠物5的面向方向的信息(即,确定的结果)被输出到评估器34。
97.距离确定器333被配置为确定(测量)宠物5和物体区域b1(将在后面描述)之间的相对距离(以下有时被称为“宠物-物体距离”)。也就是说,宠物信息进一步包括由距离确定器333作出的确定结果(即,关于宠物-物体距离的信息)。换句话说,在图像数据d1中,狗(作为宠物5的类型)以外的物体(特定物体6)可能已经被拍摄为主体的一部分。
98.在图5a所示的例子中,一个人的腿61已经被拍摄为特定物体6。在图5b所示的例子中,以后跟坐在地板上的一个人的整体外观62已被拍摄为特定物体6。在图5c所示的例子中,狗的玩具63已被拍摄成特定物体6。在图6所示的例子中,装有狗的饲料的碗64已被拍摄成特定物体6。
99.接下来,将描述物体检测器36。物体检测器36被配置为检测在图像数据d1中代表宠物5以外的特定物体6的物体区域b1。在本实施例中,物体检测器36基于学习模型(以下有时称为“第四模型m4”)来检测物体区域b1,所述学习模型通过学习预定类型的特定物体的外观因子(特征量)而产生,以在图像上识别预定类型的特定物体。
100.第四模型m4以及第一至第三模型m1-m3可以包括,例如,使用神经网络的模型或使用多层神经网络的深度学习产生的模型。尽管如此,第四模型m4并不必须是由深度学习生成的模型。可选地,第四模型m4可以是与第一模型m1、第二模型m2、或第三模型m3相同的模型。
101.在这种情况下,第四模型m4是通过对特定物体进行机器学习产生的,该特定物体与狗的某些动作(特别是与狗的某些情绪相关的其动作)高度相关。例如,如果特定物体6是人的一部分(如腿61)或人的全部(如整个外表62),那么宠物5就极有可能做出与某种情绪相关的动作。另一方面,如果特定物体6是玩具63或碗64,那么宠物5极有可能做出“玩”的动作或“吃”的动作。换句话说,作为生成第四模型m4的学习数据集,在拍摄了狗以外的物体的大量图像数据中,选择了其中狗经常感兴趣的物体已被拍摄为特定物体的图像数据。学习数据集不仅包括真实物体的图像数据,还包括由cg生成的物体的图像数据。机器学习是利用这些类型的图像数据组合而成的。在这种情况下,特定物体被定义为狗以外的物体。因此,狗经常感兴趣的物体也可能包括其他类型的动物(如猫)。
102.物体检测器36使用第四模型m4确定任何特定物体6是否存在于图像数据d1中。当确定任何特定物体6存在于图像数据d1中时,物体检测器36检测由包围特定物体6的边界框限定的物体区域b1(参考图5a-图6)。然而,物体区域b1并不必须要由边界框来限定,而是也可以通过例如分段来限定。注意,物体检测器36将不对应于特定物体6的物体视为“背景”。
103.物体检测器36向距离确定器333输出关于检测到的物体区域b1的信息(包括关于特定物体6的类型的信息)。如果在图像数据d1中没有特定物体6,并且在那里没有检测到物体区域b1,那么物体检测器36就将该效果通知距离确定器333。
104.距离确定器333基于由区域检测器32检测的关于头部区域a2的信息、由物体检测器36检测的关于物体区域b1的信息以及由姿态确定器331确定的关于宠物5的姿态的信息来确定宠物-物体的距离。
105.具体而言,距离确定器333基于从物体区域b1的位置(可以是其左上角的位置或其重心的位置)到宠物5的位置的距离,确定宠物-物体距离具有以下三种距离关系中的哪一种,例如。在这种情况下,这三种距离关系假定为代表第一距离状态(对应于很短的距离),第二距离状态(对应于相对较短的距离),以及第三距离状态(对应于相对较长的距离)。第一、第二和第三距离状态可以基于例如像素的数量来分类。在这个例子中,设置了三种距离关系。然而,这只是一个例子,不应该被理解为限制性的。可选地,距离关系的数量也可以是两个或四个或更多。还可选地,距离关系也可以是无边界的(以像素为基础)。在这个例子中,“宠物5的位置”假定由头部区域a2的位置(可以是其左上角位置或其重心位置)来限定。然而,这只是一个例子,不应该被理解为是限制性的。可选地,“宠物5的位置”也可以由特定区域a1的位置(这可以是其左上角位置或其重心位置)来限定。
106.距离确定器333优选地确定宠物-物体的距离,同时进一步考虑到物体区域b1和头部区域a2(或特定区域a1)之间的重叠程度(或面积)。
107.同时,即使宠物5实际上对特定物体6不感兴趣,宠物5和特定物体6可能在深度方向上排列并且可能已经在图像数据d1中拍摄到彼此重叠。如果距离确定器333仅基于图像数据d1中从特定物体6的位置到宠物5的位置的距离来确定宠物-物体的距离,那么距离确定器333将确定宠物-物体的距离为第一距离状态,即使宠物5实际上没有做出与特定物体6相关的任何动作。因此,距离确定器333在考虑到由姿态确定器331确定的关于宠物5的姿态的信息的同时,确定宠物-物体距离对应于第一、第二和第三距离状态中的哪个。
108.例如,即使特定物体6是碗64,并且从碗64的位置到宠物5的位置的距离处于第一距离状态,但是宠物5没有采取降低其头部区段50的姿态,距离确定器333可以将图像数据
d1的这个帧视为代表第三距离状态。可选地,距离确定器333可以将图像数据d1的这一帧视为离群值并结束评估处理。
109.距离确定器333将关于宠物-物体距离的确定结果、关于头部区域a2的信息以及姿态信息输出给评估器34。
110.如果物体检测器36没有检测到物体区域b1,则距离确定器333跳过确定宠物-物体距离的步骤,并向评估器34输出关于头部区域a2的信息和姿态信息。
111.在本实施例中,宠物检测器x1按照这个顺序执行使用区域检测器32检测特定区域a1的处理和使用信息生成器33生成宠物信息的处理。然而,这只是一个例子,不应该被理解为限制性的。可选地,宠物检测器x1可以基本上相互平行地执行检测处理和生成处理。
112.评估器34被配置为基于宠物信息来评估关于出现在特定区域a1中的宠物5的情绪和/或动作的宠物状态。在这个例子中,评估器34基于宠物信息和条件信息9评估宠物状态。
113.如上所述,宠物信息包括由姿态确定器331确定的关于宠物5的姿态的姿态信息、由面向方向确定器332确定的关于宠物5的面对方向的信息以及由距离确定器333确定的关于宠物-物体距离的信息。
114.如本文所使用的,条件信息9是关于宠物5的特定动作和/或特定情绪的信息,该信息已被事先指定为要提取的目标。例如,以下表1-4中所示的关于对应关系的信息件(以下有时称为“模式”)是示例性的条件信息9件。大量这样的模式被准备并作为数据库存储在条件存储装置p2中。
115.表1
[0116][0117]
表2
[0118][0119]
表3
[0120][0121]
表4
[0122][0123]
评估器34在条件信息9中搜索与获得的宠物信息相匹配的任何条件组合(模式)。注意,此时,评估器34基于关于宠物5的面向方向的信息和关于物体区域b1的信息,确定宠
物5是否面向特定物体6(例如,物体区域b1是否存在于宠物5的视线上),并且在搜索条件信息9时也考虑到该确定结果。
[0124]
例如,假设获得的宠物信息(也考虑到确定的结果)包括三个结果,即“第一距离状态”、“四腿站立并降低头部区段”和“面向碗”。评估员34在条件信息9中搜索符合这些结果的任何条件组合(模式)。在这个例子中,如表1所示有一个匹配的条件组合(模式),并与“吃/美味”的“动作/情绪”相关。因此,评估器34将图像数据d1中出现的宠物5的状态评估为“吃/美味”。
[0125]
另一方面,假设获得的宠物信息包括三个结果,即“第一距离状态”、“仅以后腿站立”和“面向人”。评估器34在条件信息9中搜索符合这些结果的任何条件组合(模式)。在这个例子中,如表2所示有一个匹配的条件组合(模式),并与“显示喜爱/高兴”的“动作/情绪”相关。因此,评估器34将图像数据d1中出现的宠物5的状态评估为“显示喜爱/高兴”。
[0126]
此外,假设获得的宠物信息包括三个结果,即“第三距离状态”、“四腿站立并露出牙齿”和“面向人”。评估器34在条件信息9中搜索符合这些结果的任何条件组合(模式)。在这个例子中,如表3所示有一个匹配的条件组合(模式),并与“威胁/愤怒”的“动作/情绪”相关。因此,评估器34将图像数据d1中出现的宠物5的状态评估为“威胁/愤怒”。
[0127]
此外,假设获得的宠物信息包括三个结果,即“第二距离状态”、“一条前腿离地站立”和“面向玩具”。评估器34在条件信息9中搜索符合这些结果的任何条件组合(模式)。在这个例子中,如表4所示有一个匹配的条件组合(模式),并与“玩/开心”的“动作/情绪”相关。因此,评估器34将图像数据d1中出现的宠物5的状态评估为“玩/开心”。
[0128]
在表1-4所示的示例性模式中,每个条件组合(模式)都与动作和情绪相关联。然而,这只是一个例子,不应该被理解为限制性的。可选地,每个条件组合(模式)可以只与一个动作或只与一种情绪相关联。另外,只要包括一个关于“宠物的姿态”的条件,条件组合并不必须是三个条件(即与物体的距离、宠物的姿态和宠物的面向方向)。例如,这些条件可以包括关于其中头部区域a2和物体区域b1相互重叠的“平面区域”的条件。
[0129]
可以看出,根据本实施例的条件信息9包括面向方向信息件,其中宠物5面向的多个方向(即面向碗64、人和玩具63的方向)与多个宠物状态(即吃/美味、显示喜爱/高兴和玩/开心)相关。评估器34基于面向方向确定器332的确定结果和面向方向信息评估宠物状态。这使得评估宠物5的状态的可靠性增加。
[0130]
此外,根据本实施例的状态信息9进一步包括其中多个类型的特定物体6(即,碗64、人和玩具63)与关于宠物5和特定物体6之间的距离的多个阈值(对于第一、第二和第三距离状态)相关联的信息件。评估器34通过将距离确定器333的确定结果与多个阈值进行比较来评估宠物状态。这使得评估宠物5的状态更加可靠。注意,如果由距离确定器333确定的宠物-物体距离不是第一、第二和第三距离状态中的任何一个,而是表示为数值的信息件(例如,对应于像素数的数值),那么多个阈值也可以是表示为数值的信息件。
[0131]
特别是,如果由物体检测器36检测到的物体区域b1中出现的特定物体6是碗64,并且由距离确定器333确定的距离等于或小于预定的阈值,那么评估器34评估宠物5的状态为“吃”。这一评估是基于这样的事实:如果特定物体6是碗64,宠物5把鼻子伸进碗64越深,宠物5就越接近特定物体6。因此,如果图像数据d1中拍摄的宠物5确实在吃东西,那么宠物状态更有可能被评估为“吃”。
[0132]
根据本实施例,即使在图像数据d1中没有特定物体6,并且没有从图像数据d1检测到物体区域b1,评估器34仍然可以评估宠物状态。例如,条件信息9可以包括一个模式:其中只有宠物的姿态与宠物的特定动作或特定情绪中的至少一个相关。具体来说,宠物的“闭着眼睛卷缩在地上”的姿态与“睡觉/休息”的“动作/情绪”相关联。因此,评估器34仅通过宠物的姿态评估图像数据d1中出现的宠物5的状态为“睡觉/休息”。
[0133]
输出接口35被配置为输出由评估器34做出的评估结果(即,评估的宠物状态)。特别是,在本实施例中,输出接口35输出由评估器34做出的评估结果,评估结果与其中构成评估结果基础的特定区域a1已被检测到的图像数据d1相关。输出接口35通过通信接口11将评估结果(例如,“睡觉/休息”)和图像数据d1相互关联的信息(以下称为“输出信息”)传送到演示装置4。如果随身携带演示装置4的用户300不在家,输出信息可通过服务器7传送到演示装置4。输出信息优选地进一步包括关于构成评估结果的基础的图像数据d1被图像捕获装置2捕获的时间的信息。
[0134]
输出信息优选地被存储在例如宠物相机100中内置的存储器中。可选地,输出信息也可以被传送到服务器7或任何其他外围装置并存储在其中。
[0135]
在接收到来自宠物相机100的输出信息时,演示装置4可以用例如简单的表达(消息)替换被包括在输出信息中的宠物状态,并将该消息作为例如携带该消息的推送通知呈现在屏幕上。当用户300打开收到的推送通知时,演示装置4可以启动宠物应用程序并在屏幕上呈现包括图像数据d1的特定宠物状态(参考图7a和7b)。可选地,输出信息也可以通过电子邮件服务器作为电子邮件发送给收件人。
[0136]
在图7a所示的例子中,演示装置4在显示装置43的屏幕430上显示构成宠物状态评估的基础的图像数据d1(参考图3c;躺在地板上的姿态)。在这种情况下,条件信息9包括一个模式,其中两个条件,即“没有检测到特定物体”和“躺在地板上的姿态”与“孤独”的情绪有关。因此,这是一个宠物状态被评估为“孤独”的例子。演示装置4将宠物5的“孤独”情绪转换为更非正式的表达“想你”,并将包括该表达的字符串数据作为叠加图像显示在图像数据d1上的气球框中。
[0137]
另一方面,在图7b所示的例子中,演示装置4在显示装置43的屏幕430上显示构成宠物状态评估的基础的图像数据d1(参考图6;四条腿站立和降低头部区段的姿态)。在这种情况下,条件信息9包括一个模式,其中三个条件,即“第一距离状态”、“以四条腿站立并降低头部区段”和“面向碗”与“吃/美味”的“动作/情绪”相关。因此,这是一个宠物状态被评估为“吃/美味”的例子。演示装置4将宠物5的情绪“好吃”转换为更非正式的表达“好吃”,并将包括“吃”字和非正式表达的字符串数据作为叠加图像显示在图像数据d1上的气球框中。
[0138]
注意,演示装置4优选进一步在显示装置43的屏幕430上显示图像数据d1被捕获时的日期和时间。
[0139]
输出接口35并不必须传输包括构成评估结果的基础的图像数据d1(原始数据)的输出信息,而是可以在处理了图像数据之后传输输出信息。还可选地,输出接口35可以在用与评估的宠物状态相对应的图标图像(例如,代表一只看起来很孤独而流泪的狗的图标图像)替换了图像数据d1之后,传输输出信息。数据处理和用图标图像替换图像数据d1可以由演示装置4或服务器7执行,以适当者为准。
[0140]
由评估器34作出的评估结果并不必须要作为屏幕图像输出,而是代替屏幕图像的
是或除其之外附加地也可以是作为语音信息输出。
[0141]
处理装置3在获取器31每次获取图像数据d1时执行评估处理。例如,如果图像捕获装置2以预定的间隔(例如几分钟或几十分钟)捕获静态图片,那么处理装置3可以总体上以预定的间隔执行评估处理。可选地,如果图像捕获装置2以预定的帧速率捕获动态图片,那么处理装置3可以通过以恒定的时间间隔(例如几分钟或几十分钟)获取作为图像数据d1的多个帧图片来执行评估处理,这些帧图片在动态图片中是相互连续的。输出接口35可以在评估器34每次就图像数据d1的单帧来评估宠物状态时,将输出信息传送给演示装置4。可选地,在输出信息在例如宠物相机100中内置的存储器中被汇集到一定程度之后,输出接口35可以集体地传输输出信息。
[0142]
另外,如果评估器34就图像数据d1的多个帧所做的评估结果表明,宠物5正在连续采取面向同一方向的姿态预定次数(例如两次),那么输出接口35可以限制评估器34所做的评估结果的输出。具体地说,假设有这样一种情况,即宠物5相对于图像数据d1的一帧的姿态和面向方向已被确定为“四腿站立并降低头部区段”和“面向碗”(即做出“吃”的动作),并且表示这种效果的输出信息已被输出到演示装置4。在这种情况下,如果宠物5相对于在所述一帧之后获得的图像数据d1的多个后续帧的姿态和面向方向被确定为与相对于图像数据d1的所述一帧的姿态和面向方向相同,那么输出接口35就不必输出这种评估结果。如果多个输出信息例如被汇集在一个内置存储器中,并且输出信息连续指示相同的评估结果预定次数,那么输出接口35可以将这些输出信息作为单一的评估结果集体传送。关于“预定次数”的设置可以根据输入到宠物相机100或演示装置4的用户300的操作指令而适当地改变。
[0143]
以这种方式限制评估结果的输出可以减少类似评估结果被连续输出的机会,从而有助于减轻处理负荷和减少通信拥堵。此外,这也减少了用户300在短时间内被重复通知同一宠物状态(例如,“吃”)的机会,从而提高了宠物状态评估系统1的用户友好性。
[0144]
(2.3)操作说明
[0145]
接下来,将参照图8和图9简要描述根据本实施例的宠物管理系统200如何操作。注意,在下面的操作描述中,执行各自处理步骤的顺序只是一个例子,不应该被理解为限制性的。在下面的描述中,将描述宠物检测器x1以这种顺序执行特定区域a1检测处理步骤和宠物信息生成处理步骤的例子。然而,这只是一个例子,不应该被理解为限制性的。另外,这两个处理步骤也可以基本上同时执行。
[0146]
安装在用户300的居住设施中的宠物相机100主要通过使用图像捕获装置2捕获预定管理区域的图像来监视宠物5将在其中行动的预定管理区域。宠物相机100可以以预定的时间间隔捕获管理区域的静止图片,或者在预定的时间段内连续拍摄管理区域的移动图片。
[0147]
如图8所示,在获取由图像捕获装置2捕获的图像数据d1(其可以是静止的图片或移动图片的一帧)时(在s1中),宠物相机100的宠物状态评估系统1执行评估处理(在s2中)。
[0148]
宠物状态评估系统1使区域检测器32使用第二模型m2确定是否有任何狗(作为宠物5的一种类型)作为主体h1已被拍摄在图像数据d1中(在s3中)。当发现有狗(作为宠物5的类型)已被拍摄时(如果在s3中答案为“是”),宠物状态评估系统1检测代表宠物5的特定区域a1(在s4中:宠物检测步骤),然后该过程进入确定头部区段50是否被拍摄的步骤(在s5中)。
[0149]
在本实施例中,即使已经决定在图像数据d1中没有拍摄到狗(作为宠物5的类型)(如果在s3中的答案为“否”),该过程也继续进行到确定是否拍摄了头部区段50的步骤(s5)。采取这一措施是为了处理在图像数据d1是狗的脸部特写的情况下关于狗的检测失败,如上所述。
[0150]
宠物状态评估系统1使区域检测器32利用第三模型m3确定在图像数据d1中是否拍摄了狗(作为宠物5的一种)的头部区段50(在s5中)。当决定头部区段50已被拍摄时(如果s5中的答案为“是”),宠物状态评估系统1检测代表头部区段50的头部区域a2(在s6中)。在本实施例中,除非头部区段50已经被拍摄(如果s5中的答案为“否”),否则宠物状态评估系统1结束对该图像数据d1的评估处理,并等待获取下一个图像数据d1(即,该过程回到s1)。尽管如此,只要已经检测到特定区域a1,即使没有检测到头部区域a2,宠物状态评估系统1也可以继续执行评估处理。
[0151]
如果宠物状态评估系统1在检测到头部区域a2之后检测到了特定区域a1(如果s7中的答案为“是”),则该过程进入确定是否拍摄了任何特定物体6的步骤(s9;参考图9)。另一方面,如果宠物状态评估系统1在检测到头部区域a2之后没有检测到特定区域a1(如果在s7中的答案为“否”),则宠物状态评估系统1将与头部区域a2大小基本相等的区域设置为特定区域a1(在s8中),并且该过程进入确定是否有任何特定物体6被拍摄的步骤(s9)。
[0152]
如图9所示的宠物状态评估系统1使物体检测器36利用第四模型m4确定图像数据d1中是否有任何特定物体6被拍摄(在s9中)。当决定某一特定物体6已被拍摄时(如果s9中的答案为“是”),宠物状态评估系统1检测到代表该特定物体6的物体区域b1(在s10中),该过程进入确定姿态的步骤(在s12中)。另一方面,当决定没有拍摄任何特定物体6时(如果s9中的答案为“否”),宠物状态评估系统1决定没有检测到物体区域b1(在s11中),并且该过程进入确定姿态的步骤(s12)。
[0153]
宠物状态评估系统1使姿态确定器331基于第一模型m1和关于特定区域a1的信息,确定狗(作为宠物5的类型)的姿态(在s12)。
[0154]
接下来,宠物状态评估系统1使面向方向确定器332基于关于特定区域a1的信息和关于头部区域a2的信息,确定宠物5所面对的方向(在s13中)。
[0155]
此外,宠物状态评估系统1还使距离确定器333基于关于头部区域a2的信息、关于物体区域b1的信息和姿态信息,确定宠物和物体之间的距离(在s14中)。注意,如果没有检测到物体区域b1,则跳过该处理步骤s14。
[0156]
宠物状态评估系统1基于在处理步骤s12-s14中的确定结果生成宠物信息(在s15中:信息生成步骤)。
[0157]
然后,宠物状态评估系统1基于宠物信息和条件信息9评估宠物状态(在s16:评估步骤)。
[0158]
宠物状态评估系统1将输出信息(其中如此评估的宠物状态和图像数据d1相互关联)传送到演示装置4并使演示装置4呈现输出信息(在s17中)。
[0159]
[优点]
[0160]
从上述描述可以看出,在宠物状态评估系统1中,评估器34基于宠物信息8评估关于宠物5的情绪和/或动作的宠物状态,从而最终使得更容易识别宠物的状态。
[0161]
此外,根据本实施例的宠物状态评估系统1包括确定宠物5在图像数据d1中所面对
的方向的面向方向确定器332。这可以通过考虑到宠物5所面对的方向来增加对宠物状态评估的可靠性。此外,面向方向确定器332基于头部区域a2相对于特定区域a1的相对位置,确定宠物5所面对的方向。这可以增加关于宠物5所面对的方向的确定的可靠性。
[0162]
此外,输出接口35输出由评估器34做出的评估结果,评估结果与其中构成评估结果基础的特定区域a1已被检测到的图像数据d1相关。这使得更容易识别宠物的状态。
[0163]
其中,该宠物状态评估系统1允许用户300基于由宠物状态评估系统1评估的宠物的状态更容易地识别宠物5的动作和/或情绪,从而使用户300更容易与自己的宠物5更顺利地交流。此外,该宠物状态评估系统1还使用户300更容易基于演示装置4发出的通知,识别出居住设施内的宠物5的动作和/或情绪,从而即使在用户300不在家时也能用心地管理(观看)宠物5。这使得,特别是当评估的宠物状态表明宠物5正在做出警示动作(例如,宠物5不舒服或无精打采)时,及时通知用户300这种紧急状况。
[0164]
(3)变化例
[0165]
请注意,上面描述的实施例只是本公开的各种实施例中的示例性实施例,不应该被解释为限制。相反,根据设计选择或任何其他因素,在不偏离本公开的范围的情况下,可以随时以各种方式修改该示例性实施例。而且,根据上述实施例的宠物状态评估系统1的功能也可以实现为例如宠物状态评估方法、计算机程序或在其上存储计算机程序的非暂时性存储介质。
[0166]
接下来,将一个接一个地列举示例性实施例的变化例。请注意,将在下面描述的一些变化可以酌情组合采用。在下面的描述中,上述的示例性实施例在下文中有时将被称为“基本例”。
[0167]
根据本公开的宠物状态评估系统1包括计算机系统。该计算机系统可以包括作为其主要硬件组件的处理器和存储器。根据本公开的宠物状态评估系统1的功能可以通过使处理器执行存储在计算机系统的存储器中的程序来执行。该程序可以预先存储在计算机系统的存储器中。另外,该程序也可以通过电信线路下载,或者在被记录在一些非暂时性存储介质例如存储卡、光盘或硬盘驱动器中后分发,其中任何一个都可以为计算机系统读取。计算机系统的处理器可以由单个或多个电子电路组成,包括半导体集成电路(ic)或大规模集成电路(lsi)。如本文所使用的,诸如ic或lsi的“集成电路”根据其集成度的不同而被称为不同的名称。集成电路的例子包括系统lsi、非常大规模集成电路(vlsi)和超大规模集成电路(ulsi)。可选的是,在lsi被制造出来后进行编程的现场可编程门阵列(fpga)或允许lsi内部的连接或电路部分被重新配置的可重构逻辑装置也可以被采用作为处理器。这些电子电路既可以一起集成在一个芯片上,也可以分布在多个芯片上,视情况而定。那些多个芯片可以一起聚集在单个装置中,也可以分布在多个装置中,没有限制。如本文所用,“计算机系统”包括一个微控制器,所述微控制器包括一个或多个处理器和一个或多个存储器。因此,微控制器也可以被实现为单个或多个电子电路,其包括半导体集成电路或大规模集成电路。
[0168]
在上述示例性实施例中,宠物状态评估系统1的多个功能被一起聚合在单个壳体中。然而,这不是宠物状态评估系统1的基本配置。例如,宠物状态评估系统1的组成元件可以分布在多个壳体中。具体而言,宠物状态评估系统1的第一至第四模型m1-m4中的至少一些学习模型可以提供在宠物相机100之外(例如,提供在诸如服务器7的外部服务器中)。
[0169]
相反,宠物状态评估系统1的多个功能可以像上面描述的基本例中那样被一起聚集在单个壳体(即,宠物相机100的壳体)中。此外,宠物状态评估系统1的至少一些功能(例如,宠物状态评估系统1的一些功能)也可以例如作为云计算系统来实现。
[0170]
(3.1)第一变体例
[0171]
接下来,将参照图10描述本公开的第一变体例。图10说明了根据该变体例的宠物状态评估系统1a。在以下描述中,该第一变体例的具有与根据上述基本例的宠物状态评估系统1的对应物基本相同的功能的任何构成元素,将用与该对应物相同的参考数字来指定,并且在此将适当地省略其描述。
[0172]
在根据上述基本例的宠物状态评估系统1中,宠物检测器x1包括区域检测器32和信息生成器33,并且使区域检测器32检测宠物5,然后使信息生成器33的姿态确定器331确定宠物5的姿态以生成姿态信息。也就是说,首先检测宠物5在/从所获取的图像数据d1中的存在与否,然后确定其姿态。
[0173]
在根据该变体例的宠物状态评估系统1a中,区域检测器32具有如图10所示的姿态确定器331的功能,这是与根据基本例的宠物状态评估系统1的区别。
[0174]
在该变体例中,区域检测器32基于通过学习宠物的姿态以在图像上识别宠物的姿态而生成的第一模型m1,从图像数据d1中检测采取特定姿态的宠物5的特定区域a1。在这种变体例中,区域检测器32使用例如第一至第四模型m1-m4,确定采取特定姿态的宠物5是否已作为主体h1被拍摄在图像数据d1中,从而检测代表采取特定姿态的宠物5的特定区域a1。如本文所用,“特定姿态”是指与上文所述的与狗的情绪深度相关的动作相关的姿态。特定姿态的例子包括坐着、躺着、卷缩在地板上和用四条腿站立。
[0175]
关于代表宠物5采取特定姿态的特定区域a1的信息被输入到信息生成器33,并被面向方向确定器332用来确定面向方向,还被距离确定器333用来确定距离。
[0176]
简而言之,根据该变体例的宠物检测器x1被配置为检测采取特定姿态的宠物5,而不是检测宠物5的存在然后确定其姿态。
[0177]
该变体例的配置也使得更容易识别宠物5的状态。
[0178]
(3.2)其他变体例
[0179]
接下来,将一个接一个地列举其他变体例。
[0180]
在上面描述的基本例中,评估器34基于宠物信息和条件信息9评估宠物状态。然而,这只是一个例子,不应该被理解为限制性的。另外,评估器34可以,代替使用条件信息9的是,不仅使用宠物信息,而且还使用通过使机器学习宠物的特定动作和/或特定情绪而产生的学习模型(分类器)来评估宠物状态。在接收宠物信息时,分类器将宠物信息分类为宠物的特定动作和/或特定情绪。
[0181]
在上述基本例中,在图像数据d1的单帧中作为主体h1拍摄的狗(作为宠物的一种类型5)的数量假定是一个。然而,自然地,两只或更多的狗(作为宠物5的类型)(例如,作为父母狗和或其幼犬的一对的两只狗)可能在图像数据d1的单帧中被拍摄成主体h1。如果宠物状态评估系统1在图像数据d1的单帧中检测到多个特定区域a1,那么宠物状态评估系统1就多个特定区域a1中的每一个生成宠物信息并评估宠物状态。
[0182]
在上述基本例中,在图像数据d1的单帧中,除宠物5以外的特定物体6的拍摄数量假定是零或一。然而,自然地,在图像数据d1的单帧中拍摄的特定物体6的数量也可以是两
个或更多。如果宠物状态评估系统1在图像数据d1的单帧中检测到多个物体区域b1,则宠物状态评估系统1确定宠物5与多个物体区域b1的每一个之间的距离。在这种情况下,宠物状态评估系统1可以通过从多个宠物-物体距离中选择一个物体区域b1来评估宠物状态,该物体区域位于距离宠物5的最短距离处。
[0183]
在上述基本例中,宠物状态评估系统1具有确定宠物5的面向方向的功能(即,面向方向确定器332)和确定宠物-物体距离的功能(即,距离确定器333)。然而,这些功能并不是必要的功能,而是可以适当地省略。
[0184]
基本例中的第一至第四模型m1-m4中的至少一些可以通过强化学习进行机器学习。在这种情况下,考虑到强化学习的处理负荷,那些模型优选地在宠物相机100之外提供(例如,在诸如服务器7的外部服务器中)。
[0185]
(4)总结
[0186]
从上述描述可以看出,根据第一方面的宠物状态评估系统(1,1a)包括区域检测器(32)、信息生成器(33)和评估器(34)。区域检测器(32)在图像数据(d1)中检测代表作为主体(h1)的宠物(5)外观的至少一部分的特定区域(a1)。信息生成器(33)生成宠物信息。该宠物信息包括关于宠物(5)的至少姿态的姿态信息。姿态信息是基于学习模型(第一模型m1)和图像数据(d1)。该学习模型(第一模型m1)已经通过学习宠物的姿态来生成,以便在图像上识别宠物的姿态。评估器(34)基于宠物信息评估宠物状态,该宠物状态涉及在特定区域(a1)中出现的宠物(5)的情绪或在特定区域(a1)中出现的宠物(5)的动作中的至少一个。根据第一方面,评估器(34)基于宠物信息评估关于宠物(5)的情绪和/或动作的宠物状态,从而最终使宠物(5)的状态更容易识别。
[0187]
在可以与第一方面一起实施的根据第二方面的宠物状态评估系统(1,1a)中,评估器(34)基于宠物信息和关于宠物的特定动作或宠物的特定情绪中的至少一个的条件信息(9)来评估宠物状态。相比于例如其中使用由机器学习生成的学习模型评估宠物状态的情况而言,第二方面能够以更简单的配置实现宠物状态评估系统(1,1a)。
[0188]
在可以与第一或第二方面一起实施的根据第三方面的宠物状态评估系统(1,1a)中,区域检测器(32)基于学习模型(第二模型m2)检测特定区域(a1)。该学习模型(第二模型m2)已通过学习预定类型的宠物的外观因子而产生,以便在图像上识别预定类型的宠物。第三方面增加了对特定区域(a1)检测的可靠性,从而最终增加了对宠物(5)状态评估的可靠性。
[0189]
在可以与第一至第三方面中的任何一个结合实施的根据第四方面的宠物状态评估系统(1,1a)中,区域检测器(32)基于学习模型(第三模型m3),来检测代表主体(h1)的头部区段(50)的头部区域(a2)。该学习模型(第三模型m3)已通过学习预定类型的宠物的头部区段的外观因子而产生,以便在图像上识别预定类型的宠物的头部区段。第四方面增加了检测头部区域(a2)的可靠性,从而最终增加了对宠物(5)状态评估的可靠性。
[0190]
在可以与第四方面一起实施的根据第五方面的宠物状态评估系统(1,1a)中,信息生成器(33)包括面向方向确定器(332),其基于在其中已经检测到特定区域(a1)的图像数据(d1),来确定宠物(5)在图像数据(d1)中的面向方向。该宠物信息进一步包括由面向方向确定器(332)作出的确定结果。第五方面可以通过考虑宠物(5)所面对的方向来增加对宠物(5)的状态评估的可靠性。
[0191]
在可以与第五方面一起实施的根据第六方面的宠物状态评估系统(1,1a)中,面向方向确定器(332)至少基于头部区域(a2)相对于特定区域(a1)的相对位置,来确定宠物(5)所面对的方向。第六方面可以增加关于宠物(5)所面对的方向的确定的可靠性。
[0192]
在可以与第五或第六方面一起实施的根据第七方面的宠物状态评估系统(1,1a)中,评估器(34)基于宠物信息和关于宠物的特定动作或宠物的特定情绪中的至少一个的条件信息(9)来评估宠物状态。条件信息(9)包括面向方向信息,其中宠物(5)所面向的多个方向和多个宠物状态是相互关联的。评估器(34)基于面向方向确定器(332)的确定结果和面向方向信息评估宠物状态。第七方面可以增加对宠物(5)状态的评估的可靠性。
[0193]
可以与第五至第七方面中的任何一个一起实施的根据第八方面的宠物状态评估系统(1,1a),进一步包括输出接口(35),其输出由评估器(34)做出的评估结果。输出接口(35)在评估器(34)就图像数据(d1)的多个帧所作的评估结果表明宠物(5)连续朝向一个相同的方向预定次数时,限制输出评估器(34)所作的评估结果。第八方面可以减少连续输出类似评估结果的机会,从而例如有助于减少处理负荷。
[0194]
可以与第一至第八方面中的任何一个结合实施的根据第九方面的宠物状态评估系统(1,1a),进一步包括物体检测器(36),其检测在图像数据(d1)中代表除宠物(5)以外的特定物体(6)的物体区域(b1)。信息生成器(33)包括一个距离确定器(333),它确定宠物(5)相对于物体区域(b1)的相对距离。宠物信息进一步包括由距离确定器(333)作出的确定结果。评估器(34)基于宠物信息和关于宠物的特定动作或宠物的特定情绪中的至少一个的条件信息(9)来评估宠物状态。条件信息(9)包括其中多种类型的特定物体和关于宠物和多种类型的特定物体之间的距离的多个阈值相互关联的信息。评估器(34)通过将距离确定器(333)作出的确定结果与多个阈值进行比较来评估宠物状况。第九方面可以通过考虑特定区域(a1)相对于物体区域(b1)的相对距离来增加对宠物(5)状态评估的可靠性。
[0195]
在可以与第九方面一起实施的根据第十方面的宠物状态评估系统(1,1a)中,物体检测器(36)基于学习模型(第四模型m4)检测物体区域(b1)。该学习模型(第四模型m4)已通过学习预定类型的特定物体的外观因子而产生,以便在图像上识别预定类型的特定物体。第十方面增加了对物体区域(b1)的检测的可靠性。
[0196]
在可以与第九或第十方面一起实施的根据第十一方面的宠物状态评估系统(1,1a)中,当由物体检测器(36)检测到的出现在物体区域(b1)中的特定物体(6)是碗(64)并且由距离确定器(333)确定的相对距离等于或小于预定的阈值时,评估器(34)评估关于宠物(5)要吃的动作的宠物状态。第十一方面可以增加了当图像数据(d1)中出现的宠物(5)实际在吃东西时评估宠物状态也是在吃东西的机会。
[0197]
可与第一至第十一方面中的任何一个结合实施的根据第十二方面的宠物状态评估系统(1,1a),进一步包括输出接口(35)。输出接口(35)输出由评估器(34)作出的评估结果,同时将评估结果与图像数据(d1)相关联,在该图像数据中,构成评估结果的基础的特定区域(a1)已经被检测出来。第十二方面可以使识别宠物(5)的状态更加容易。
[0198]
在可以与第一至第十二方面中的任何一个方面一起实施的根据第十三方面的宠物状态评估系统(1,1a)中,区域检测器(32)基于学习模型(第一模型m1)检测在图像数据(d1)中宠物(5)采取特定姿态的特定区域(a1)。该学习模型(第一模型m1)已通过学习宠物的姿态产生,以便在图像上识别宠物的姿态。第十三方面可以使识别宠物(5)的状态更加容
易。
[0199]
根据第十四方面的宠物相机(100)包括:根据第一至第十三方面中的任何一个的宠物状态评估系统(1,1a);和捕获图像数据(d1)的图像捕获装置(2)。第十四方面可以提供一个宠物相机(100),它可以使宠物(5)的状态更容易识别。
[0200]
根据第十五方面的服务器(7)可以与配备有根据第一至第十三方面中任一方面的宠物状态评估系统(1,1a)的信息生成器(33)和评估器(34)的宠物相机(100)进行通信。服务器(7)配备有区域检测器(32)。第十五方面可提供可使宠物(5)的状态更容易识别的服务器(7)。
[0201]
根据第十六方面的服务器(7)可以与配备有根据第一至第十三方面中任一方面的宠物状态评估系统(1,1a)的区域探测器(32)的宠物相机(100)进行通信。服务器(7)配备有信息生成器(33)和评估器(34)。第十六方面可提供可使宠物(5)的状态更容易识别的服务器(7)。
[0202]
根据第十七方面的宠物状态评估方法包括宠物检测步骤、信息生成步骤和评估步骤。宠物检测步骤包括在图像数据(d1)中检测代表作为主体(h1)的宠物(5)外观的至少一部分的特定区域(a1)。信息生成步骤包括生成宠物信息。该宠物信息包括关于宠物(5)的至少姿态的姿态信息。姿态信息是基于学习模型(第一模型m1)和图像数据(d1)。该学习模型(第一模型m1)已通过学习宠物的姿态来生成,以便在图像上识别宠物的姿态。评估步骤包括基于宠物信息评估关于出现在特定区域(a1)中的宠物(5)的情绪或出现在特定区域(a1)中的宠物(5)的动作的至少一个的宠物状态。第十七方面可以提供一种宠物状态评估方法,该方法可以使宠物(5)的状态更容易识别。
[0203]
根据第十八方面的程序被设计为使一个或多个处理器执行根据第十七方面的宠物状态评估方法。第十八方面可提供可使宠物的(5)状态更容易识别的功能。
[0204]
注意,根据第二至第十三方面的组成元件不是宠物状态评估系统(1,1a)的基本组成元件,而是可以适当地省略。
[0205]
参考标记列表
[0206]
100宠物相机
[0207]
1,1a宠物状态评估系统
[0208]
2 图像捕获装置
[0209]
32 区域检测器
[0210]
33 信息生成器
[0211]
332 面向方向确定器
[0212]
333 距离确定器
[0213]
34 评估器
[0214]
35 输出接口
[0215]
36 物体检测器
[0216]
5 宠物
[0217]
50 头部区段
[0218]
6 特定物体
[0219]
7 服务器
[0220]
64 碗
[0221]
9 条件信息
[0222]
a1 特定区域
[0223]
a2 头部区域
[0224]
b1 物体区域
[0225]
d1 图像数据
[0226]
h1 主体
[0227]
m1-m4第一至第四模型(学习模型)。
技术特征:
1.一种宠物状态评估系统,包括:区域检测器,被配置为在图像数据中检测代表作为主体的宠物的外观的至少一部分的特定区域;信息生成器,被配置为生成宠物信息,所述宠物信息包括关于所述宠物的至少姿态的姿态信息,所述姿态信息基于学习模型和所述图像数据,所述学习模型已通过学习所述宠物的姿态而生成,以在图像上识别所述宠物的姿态;以及评估器,被配置为基于所述宠物信息评估宠物状态,所述宠物状态涉及在所述特定区域中出现的所述宠物的情绪或在所述特定区域中出现的所述宠物的动作中的至少一个。2.根据权利要求1所述的宠物状态评估系统,其中所述评估器被配置为基于所述宠物信息和关于所述宠物的特定动作或所述宠物的特定情绪中的至少一个的条件信息来评估所述宠物状态。3.根据权利要求1或2所述的宠物状态评估系统,其中所述区域检测器被配置为基于学习模型检测所述特定区域,所述学习模型已通过学习预定类型的宠物的外观因子来生成,以便在所述图像上识别所述预定类型的宠物。4.根据权利要求1至3中任一项所述的宠物状态评估系统,其中所述区域检测器被配置为基于学习模型检测代表所述主体的头部区段的头部区域,所述学习模型已通过学习预定类型的宠物的头部区段的外观因子来生成,以在所述图像上识别所述预定类型的宠物的所述头部区段。5.根据权利要求4所述的宠物状态评估系统,其中所述信息生成器包括面向方向确定器,所述面向方向确定器被配置为基于其中已检测到特定区域的图像数据,来确定宠物在所述图像数据中面向的方向,以及所述宠物信息进一步包括由所述面向方向确定器作出的确定结果。6.根据权利要求5所述的宠物状态评估系统,其中所述面向方向确定器被配置为基于至少所述头部区域相对于所述特定区域的相对位置,确定所述宠物所面向的方向。7.根据权利要求5或6所述的宠物状态评估系统,其中所述评估器被配置为基于所述宠物信息和关于所述宠物的特定动作或所述宠物的特定情绪中的至少一个的条件信息来评估所述宠物状态,所述条件信息包括面向方向信息,在所述面向方向信息中所述宠物所面向的多个方向和多个宠物状态是相互关联的,并且所述评估器被配置为基于由所述面向方向确定器作出的确定结果和所述面向方向信息来评估所述宠物状态。8.根据权利要求5至7中任一项所述的宠物状态评估系统,进一步包括输出接口,所述输出接口被配置为输出由所述评估器做出的评估结果,其中所述输出接口被配置为,当所述评估器就所述图像数据的多个帧所做的评估结果表明所述宠物连续面向相同的方向达到预定的次数时,限制输出所述评估器所做的评估结果。9.权利要求1至8中任一项所述的宠物状态评估系统,进一步包括物体检测器,其被配置为检测在所述图像数据中代表所述宠物以外的特定物体的物体区域,其中所述信息生成器包括距离确定器,所述距离确定器被配置为确定所述宠物相对于所述
物体区域的相对距离,所述宠物信息还包括由所述距离确定器作出的确定结果,所述评估器被配置为基于所述宠物信息和关于所述宠物的特定动作或所述宠物的特定情绪中的至少一个的条件信息来评估所述宠物状态,所述条件信息包括其中多种类型的特定物体和关于所述宠物和所述多种类型的特定物体之间的距离的多个阈值相互关联的信息,并且所述评估器被配置为通过将由所述距离确定器作出的确定结果与所述多个阈值进行比较来评估所述宠物状态。10.根据权利要求9所述的宠物状态评估系统,其中所述物体检测器被配置为基于学习模型检测所述物体区域,所述学习模型已通过学习预定类型的特定物体的外观因子来生成,以便在所述图像上识别所述预定类型的特定物体。11.根据权利要求9或10所述的宠物状态评估系统,其中所述评估器被配置为,当由所述物体检测器检测到的出现在所述物体区域中的所述特定物体是碗,并且由所述距离确定器确定的所述相对距离等于或小于预定的阈值时,评估关于所述宠物要吃饭的动作的宠物状态。12.根据权利要求1至11中任一项所述的宠物状态评估系统,进一步包括输出接口,所述输出接口被配置为输出所述评估器作出的评估结果,同时将所述评估结果与其中构成评估结果基础的所述特定区域已被检测到的所述图像数据相关联。13.根据权利要求1至12中任一项所述的宠物状态评估系统,其中所述区域检测器被配置为基于学习模型检测在所述图像数据中所述宠物采取特定姿态的特定区域,所述学习模型已通过学习所述宠物的姿态来产生,以便在所述图像上识别所述宠物的姿态。14.一种宠物相机,包括:权利要求1至13中任一项所述的宠物状态评估系统;和被配置为捕获所述图像数据的图像捕获装置。15.一种被配置为与宠物相机通信的服务器,所述宠物相机配备有根据权利要求1至13中任一项所述的宠物状态评估系统的所述信息生成器和所述评估器,所述服务器配备有所述区域检测器。16.一种被配置成与宠物相机通信的服务器,所述宠物相机配备有根据权利要求1至13中任一项所述的宠物状态评估系统的所述区域检测器,所述服务器配备有所述信息生成器和所述评估器。17.一种宠物状态评估方法,包括宠物检测步骤,包括在图像数据中检测代表作为主体的宠物的外观的至少一部分的特定区域;信息生成步骤,包括生成宠物信息,所述宠物信息包括关于所述宠物的至少姿态的姿态信息,所述姿态信息基于学习模型和所述图像数据,所述学习模型已通过学习所述宠物的姿态而生成,以在图像上识别所述宠物的姿态;以及评估步骤,包括基于所述宠物信息评估宠物状态,所述宠物状态涉及出现在所述特定
区域中的所述宠物的情绪或出现在所述特定区域中的所述宠物的动作中的至少一个。18.一种程序,被设计为使一个或多个处理器执行根据权利要求17所述的宠物状态评估方法。
技术总结
本发明的目的是使宠物的状态更容易被获取。宠物状态评估系统(1)包括区域检测单元(32)、信息生成单元(33)、和评估单元(34)。区域检测单元(32)在图像数据中检测代表作为主体的宠物外观的至少一部分的特定区域。信息生成单元(33)生成宠物信息。该宠物信息包括基于学习模型和图像数据的姿态信息。该学习模型通过学习宠物的姿态以识别宠物的姿态的图像而产生。评估单元(34)基于宠物信息评估宠物状态,该宠物状态涉及宠物的情绪或行为中的至少一个。个。个。
技术研发人员:中村友香 大眉宏彰 上坂靖 佐藤真史
受保护的技术使用者:松下知识产权经营株式会社
技术研发日:2021.08.20
技术公布日:2023/3/30
相关知识
用于宠物健康评估的系统和方法与流程
评估宠物食物的方法和系统与流程
宠物状态监测方法和装置与流程
如何评估孩子的心理状态
用于评估宠物放射学图像的系统和方法专利
营养筛查与评估方法包括()
宠物状态监测方法、装置及设备与流程
一种智能共享宠物寄存柜智能远程家用宠物笼控制方法及系统与流程
6月12日临床营养分会|犬猫临床营养状态评估
宠物怀孕小程序如何评估宠物受孕风险?
网址: 宠物状态评估系统、宠物相机、服务器、宠物状态评估方法和程序与流程 https://www.mcbbbk.com/newsview267475.html
上一篇: 儿童社会工作中两个评估工具是 |
下一篇: 宠物人格测试小程序('动物人格心 |
推荐分享

- 1养玉米蛇的危害 28694
- 2狗交配为什么会锁住?从狗狗生 7180
- 3我的狗老公李淑敏33——如何 6236
- 4豆柴犬为什么不建议养?可爱的 4637
- 5南京宠物粮食薄荷饼宠物食品包 4563
- 6中国境内禁养的十大鸟种,你知 4429
- 7湖南隆飞尔动物药业有限公司宠 4259
- 8自制狗狗辅食:棉花面纱犬的美 4257
- 9家养水獭多少钱一只正常 4212
- 10广州哪里卖宠物猫狗的选择性多 4122