|
Post by account_disabled on Feb 1, 2024 7:54:28 GMT
随着人工智能工具和供应商的浪潮涌入我们的家门口,我们很容易忘记,我们自己的组织内部可能有更多的原材料可供我们使用。生成式人工智能(Generative AI)是一种自动化智能,可以帮助您创建新的营销资产,代表着营销技术的巨大飞跃。想象一下,图像、技术艺术、博客、故事和重要信息页面(例如常见问题解答、定义、产品规格或定价表)只需您的团队以前的一小部分时间即可创建。 但生成式人工智能的表面下可能潜藏着严重的危险。每个组织的产品和服务都应该有独特的卖点,并提供引人注目的和独特的功能。您公司已经在数字资产管理 (DAM) 解决方案中存放的资产可以提供专有的学习环境,防止人工智能生成的资产听起来像您的竞争对手,甚至是机器人。 是否存在阻碍您的 genAI API 的合同限制? 您的 AI API 是否仅在 DAM 上运行,还是可以 WhatsApp 号码数据 利用其他内容?也许您只获得一个 API 实例,而不允许连接到多个工具。适合您预算的定价计划是否包括可行数量的 API 调用,或者您是否有可能因随着时间的推移创建更多资产而产生超额费用? 此外,请务必询问此 genAI 的内容是否有限制。有些工具只能生成没有文本或有限文本的艺术。其他人可能无法在您的 DAM 中搜索相关库存图像或找到图像或数字视频。 您需要多少动态媒体?您对此工具的质量是否满意?此外,您可能希望包含程序化营销材料,例如购买、广告费率、活动主题和日历、清单、邮件列表或通常附加到 DAM 中的资产的其他数据。 深入挖掘:为什么我们的营销技术堆栈中仍然需要 DAM 2. 你们的 genAI 使用哪些数据进行训练? 使用什么类型的元数据(资产内的数据)来训练人工智能,这些数据是否是一个平衡的集合?这是一件大事,因为许多人工智能工具都存在偏见。 2021 年,加州大学伯克利分校 iSchool在一份报告中证明,浏览器搜索“专业发型”图像显示出明显的性别和种族偏见。 匹兹堡大学的研究发现,谷歌乔布斯向男性展示的高薪招聘广告比向女性展示的多。(有关更多信息,请参阅IBM最近发表的关于人工智能偏见来源的博客文章,并附有示例)。 应保证遵守公平数据原则并符合您所在行业所需的其他标准。 我使用人工智能将白人女性的图像标记为“美丽”和“快乐”,而仅仅将亚洲人或黑人标记为“种族”。这些类型的标签会影响您的客户满意度吗?我也这么认为。 3. 训练 genAI 涉及哪些手动工作? 在您的 genAI 能够生成“干净的”、经过适当标记的营销资产以满足您对品牌依从性、内容质量等方面的严格标准之前,可能需要进行大量的手动工作。
|
|