
2022最新风电储能电力市场论文.docx
3页风电储能电力市场论文 1基于多的多方电力市场电价联动博弈模型 1.1基于多的电力市场联动博弈方式未来电力市场将包含诸如传统发电、供电、用户、储能及风电等多个参与方[12]在此基础上,建立了如图1所示的基于多的电力市场电价联动博弈模型本文首先将参与电力市场的各参与方视作具有自治和交互能力的个体,并组成多系统,博弈信息传递过程如图1所示,其中模式1和模式2不同时存在然后,将各方利润模型和交互方式与多模型结合,对电力市场联动博弈过程进行推演2种模式下各方交互和博弈的基本思想与目标如下:1)传统发电商(Agent_g1/g2/g3)根据历史投标策略和来自供电商Agent_dis的发电量信息,结合自身发电成本,调整电价投标策略,以获得更高利润目前世界上投入运行的电力市场竞价机制主要有统一市场出清价格(marketclearingprice,MCP)机制和按报价支付(payasbid,PAB)机制2种[20],本文假设结算方式为PAB方式2)供电商(Agent_dis)Agent_dis根据净负荷状态以及Agent_g1/g2/g3的报价信息,以最小购电成本为目标,制定24h各发电商的发电计划,并根据销售收益和购电成本,决策24h销售电价。
3)用户(Agent_c)Agent_c在获得Agent_dis制定的销售电价基础上,以自身用电效益最大为目标,安排其用电行为,并将用电计划报送Agent_dis4)风电商(Agent_w)Agent_w在获取Agent_dis所发送的销售电价和最低发电商报价后,制定发电量投标计划通过基于场景技术的最佳风电投标电量决策模型,选择最佳的投标策略5)储能系统(Agent_ess)Agent_ess在获取Agent_dis的销售电价信息后,在满足设备运行约束条件基础上,以自身利润最大化为目标制定充放电计划,并反馈至Agent_dis6)风储联营体(Agent_w_ess)Agent_w_ess是风电与储能服务商联合后的个体Agent_w_ess获取Agent_dis的销售电价和发电商最低报价后,在满足风电和储能技术约束条件下,以联营体综合利润最大为目标,制定联营体内部交互和外部充放电计划,该计划同样需要考虑风电的随机性除博弈初始的第1轮以外,各方均按照上述过程进行互动在博弈开始的第1轮,传统发电商竞标价格和供电商销售电价均按照历史数据形成初始价格 1.2Roth-Erev强化学习算法Roth-Erev(RE)强化学习算法是一种基于动物学习和条件反射原理的一种机器学习算法。
学习的个体通过采取动作并获取外部环境给与的反馈,得到经验并形成记忆,重复上述过程最终选取合适的策略[21]在本文多模型中,传统发电商及供电商是制定上网电价和销售电价的博弈方,每种价格策略下的利润无法直接获取,因此,这2种中加入了上述RE强化学习算法,其中发电商和供电商策略集合由一定范围内的上网电价和销售电价组成,对应策略利润为中标发电和销售电能产生的利润 2多方联动博弈模型 2.1传统发电商竞价博弈模型传统发电商采用3段阶梯式报价,报价曲线如文献[21]中图2-7所示根据对投标风险的不同态度,将其分为保守、中庸和激进3种类型[21]其中,保守型发电商报价时将分段函数中最大容量的报价报为最低,用以规避不中标的风险;中庸型居中,以取得合理利润;激进型最高,用以投机获得高额利润在某种中标状态下,某个传统发电商最终的结算价格 2.2供电商博弈模型供电商的博弈模型分为调度决策和销售电价决策两大部分,其中调度决策部分与传统调度问题一致,即在保证系统运行安全的状态下获取成本最低的发电计划,销售电价决策需要结合购电成本和电能销售收益,采用1.2节所述学习算法,决策24h的销售电价,以获得更高的利润。
供电商的目标函数及调度过程中需满足约束 2.3用户最佳用电计划模型用户根据最新24h制销售电价,以自身用电效益最大为目标优化24h用电计划用户在i时段不同用电量下效用函数Bi可表述为如下二次形式 2.4基于场景的风电利润模型风电具有不确定性,其实际出力可能大于或小于投标出力,将导致系统的供需不平衡,从而引起市场交易成本的升高因此,需要制定一定的惩罚措施以引导风电选择合理投标发电量考虑风电实际出力与投标电量的关系,制定如下2条措施:1)当实际出力大于投标量时,禁止风电商直接将该部分风能输入电网2)当实际出力小于竞标出力时,风电商需要支付一定惩罚来弥补供需不平衡所导致的损失 3 / 3。












