## 风扇陷阱:图表中的信息丢失 “风扇陷阱”出现在数据建模和系统图表中,当多个一对多连接在“一对”端连接时,或者关系坍缩到单个中间资源上时,关系会变得模糊。这会导致特定连接信息丢失——例如,错误地将教授直接映射到学院,而不是通过他们的部门。 在系统架构中,风扇陷阱通常出现在事件驱动系统(围绕事件代理)和网络图中(围绕防火墙),暗示可能实际不存在的连接。 有三种方法可以解决这个问题: 1. **更具体:** 在中间资源(如事件代理中的“主题”或防火墙规则)*内部*添加细节以明确连接。这可能很复杂,并非总是可行。 2. **直通箭头:** 在不添加细节的情况下,在中间资源*通过*保持连接,提供一个更简单的解决方案。 3. **什么都不做:** 如果图表的目的是显示*潜在*的而不是*实际*的通信,那么这种模糊可能是可以接受的,特别是对于网络安全工程师等受众。 最终,最佳解决方案取决于图表的目标和受众的需求。
## 优化LLM API成本:一个真实案例
一位非技术创始人面临着每月1500美元的LLM API调用账单,默认选择GPT-5。最近的尝试表明,通过对prompt进行更广泛的模型基准测试,成本降低了80%。关键在于:**标准基准测试无法准确预测*您的*特定任务的性能。**
为了解决这个问题,建立了一个定制的基准测试流程。它包括收集真实案例(如客户支持聊天记录),定义期望的输出,然后通过OpenRouter在100多个模型上运行这些prompt。由于人工评估不可能,另一个LLM被用作“评判者”,根据预定义的标准对回复进行评分。
分析不仅考虑了质量,还考虑了成本(测量每个答案的总成本,而不仅仅是token成本)和延迟。这揭示了提供相当质量但价格明显更低的模型——有些甚至便宜10倍。最终,该创始人通过5倍的成本降低,每月节省了超过1000美元。
这个过程强调了持续监控的必要性,因为模型定价和性能变化迅速。为了简化这一过程,开发了一个名为**Evalry**的工具,可以自动在300多个LLM上进行基准测试,从而快速识别特定用例的最佳模型。如果您正在使用LLM API,使用您自己的prompt测试替代方案对于避免过度支出至关重要。