fastposter v2.8.0 发布 电商海报编辑器
fastposter海报生成器,电商海报编辑器,电商海报设计器,fast快速生成海报 海报制作 海报开发。二维码海报,图片海报,分享海报,二维码推广海报,支持Java Python PHP Go JS 小程序。基于Vue 和Pillow
fastposter v2.8.0 发布 电商海报生成器
- 解决token冲突问题
- 默认自动登录,部署时可自定义设置凭证
- 使用vue-press文档
- 指南文档
- 进阶文档
- 迁移基本完成
- 解决图片无法查看问题
-
删除不需要的文件
-
开发文档:
- 在线演示:
- 专业版在线演示:
docker run -it --name fast-poster -p 5000:5000 tangweixin/fast-poster
- 电商主图编辑器
- 在线作图
- 电商海报编辑器
- Java生成二维码分享海报图片
- Java Graphics2D绘制海报图片
- 微信小程序生成海报分享朋友圈
- PHP生成二维码海报图片
- 自定义商业海报图片
- H5生成海报图片
- 二维码分享海报图片
- canvas生成海报图片
- 通过JSON生成海报图片
- 二维码推广海报
- 分享海报
如果你觉得 fastposter
对你有帮助,或者想对我们微小的工作一点支持,欢迎给我们
进群加作者微信 fastposter
Original: https://www.cnblogs.com/psoho/p/16160727.html
Author: 物有本末
Title: fastposter v2.8.0 发布 电商海报编辑器
相关阅读1
Title: 七、VGG16+BN(Batch Normalization)实现鸟类数据库分类
@
前文
- 一、Windows系统下安装Tensorflow2.x(2.6)
- 二、深度学习-读取数据
- 三、Tensorflow图像处理预算
- 四、线性回归模型的tensorflow实现
- 五、深度学习-逻辑回归模型
- 六、AlexNet实现中文字体识别——隶书和行楷
- 七、VGG16实现鸟类数据库分类
加利福尼亚理工学院鸟类数据库分类VGG16+BN版本
数据生成器
from keras.preprocessing.image import ImageDataGenerator
IMSIZE = 224
train_generator = ImageDataGenerator(rescale=1. / 255).flow_from_directory('../../data/data_vgg/train',
target_size=(IMSIZE, IMSIZE),
batch_size=20,
class_mode='categorical'
)
validation_generator = ImageDataGenerator(rescale=1. / 255).flow_from_directory('../../data/data_vgg/test',
target_size=(IMSIZE, IMSIZE),
batch_size=20,
class_mode='categorical'
)
)
图像显示
from matplotlib import pyplot as plt
plt.figure()
fig, ax = plt.subplots(2, 5)
fig.set_figheight(6)
fig.set_figwidth(15)
ax = ax.flatten()
X, Y = next(validation_generator)
for i in range(15): ax[i].imshow(X[i, :, :, ])
VGG16+BN模型构建
#VGG16+BN实现
#VGG16+BN模型构建
from keras.layers import Conv2D, BatchNormalization, MaxPooling2D
from keras.layers import Flatten, Dense, Input, Activation
from keras import Model
from keras.layers import GlobalAveragePooling2D
input_shape = (IMSIZE, IMSIZE, 3)
input_layer = Input(input_shape)
x = input_layer
x = BatchNormalization(axis=3)(x)
x = Conv2D(64, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(64, [3, 3], padding="same", activation='relu')(x)
x = MaxPooling2D((2, 2))(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(128, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(128, [3, 3], padding="same", activation='relu')(x)
x = MaxPooling2D((2, 2))(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(256, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(256, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(256, [3, 3], padding="same", activation='relu')(x)
x = MaxPooling2D((2, 2))(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(512, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(512, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(512, [3, 3], padding="same", activation='relu')(x)
x = MaxPooling2D((2, 2))(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(512, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(512, [3, 3], padding="same", activation='relu')(x)
x = BatchNormalization(axis=3)(x)
x = Conv2D(512, [3, 3], padding="same", activation='relu')(x)
x = MaxPooling2D((2, 2))(x)
x = GlobalAveragePooling2D()(x)
x = Dense(315)(x)
x = Activation('softmax')(x)
output_layer = x
model_vgg16_b = Model(input_layer, output_layer)
model_vgg16_b.summary()
VGG16+BN模型编译与拟合
from keras.optimizers import Adam
model_vgg16.compile(loss='categorical_crossentropy',
optimizer=Adam(lr=0.001),
metrics=['accuracy'])
model_vgg16.fit_generator(train_generator,
epochs=20,
validation_data=validation_generator)
注意:
因为自己是使用tensorflow-GPU版本,自己电脑是1050Ti,4G显存。实际运行时候batch_size设置不到15大小,太大了就显存资源不足。
但是batch_size太小,总的数据集较大较多,所以最后消耗时间就较长。
所以为了效率和烧显卡,请酌情考虑
数据集来源:kaggle平台315种鸟类:315 Bird Species - Classification | Kaggle
GitHub下载地址:
Original: https://www.cnblogs.com/lehoso/p/15642133.html
Author: 李好秀
Title: 七、VGG16+BN(Batch Normalization)实现鸟类数据库分类
相关阅读2
Title: 股票交易数据采集+数据可视化(一个朴素无华的Python爬虫+可视化案例,附代全部代码)
前言
我国股票投资者数量为15975.24万户, 如此多的股民热衷于炒股,首先抛开炒股技术不说, 那么多股票数据是不是非常难找,找到之后是不是看着密密麻麻的数据是不是头都大了?
今天带大家爬取雪球平台的股票数据
; 开发环境
- 解释器版本: python 3.8
- 代码编辑器: pycharm 2021.2
第三方模块
- requests: pip install requests
- csv
爬虫案例的步骤:
1.确定url地址(链接地址)
2.发送网络请求
3.数据解析(筛选数据)
4.数据的保存(数据库(mysql\mongodb\redis), 本地文件)
爬虫程序全部代码
分析网页
打开开发者工具,搜索关键字,找到正确url
; 导入模块
import requests # 发送网络请求
import csv
请求数据
url = f'https://xueqiu.com/service/v5/stock/screener/quote/list?page=1&size=30&order=desc&order_by=amount&exchange=CN&market=CN&type=sha&_=1637908787379'
# 伪装
headers = {
# 浏览器伪装
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36'
}
response = requests.get(url, headers=headers)
json_data = response.json()
解析数据
data_list = json_data['data']['list']
for data in data_list:
data1 = data['symbol']
data2 = data['name']
data3 = data['current']
data4 = data['chg']
data5 = data['percent']
data6 = data['current_year_percent']
data7 = data['volume']
data8 = data['amount']
data9 = data['turnover_rate']
data10 = data['pe_ttm']
data11 = data['dividend_yield']
data12 = data['market_capital']
print(data1, data2, data3, data4, data5, data6, data7, data8, data9, data10, data11, data12)
data_dict = {
'股票代码': data1,
'股票名称': data2,
'当前价': data3,
'涨跌额': data4,
'涨跌幅': data5,
'年初至今': data6,
'成交量': data7,
'成交额': data8,
'换手率': data9,
'市盈率(TTM)': data10,
'股息率': data11,
'市值': data12,
}
csv_write.writerow(data_dict)
翻页
对比1、2、3页数据url,找到规律
for page in range(1, 56):
url = f'https://xueqiu.com/service/v5/stock/screener/quote/list?page={page}&size=30&order=desc&order_by=amount&exchange=CN&market=CN&type=sha&_=1637908787379'
保存数据
file = open('data2.csv', mode='a', encoding='utf-8', newline='')
csv_write = csv.DictWriter(file, fieldnames=['股票代码','股票名称','当前价','涨跌额','涨跌幅','年初至今','成交量','成交额','换手率','市盈率(TTM)','股息率','市值'])
csv_write.writeheader()
file.close()
运行代码,实现效果
; 数据可视化全部代码
导入数据
import pandas as pd
from pyecharts import options as opts
from pyecharts.charts import Bar
读取数据
data_df = pd.read_csv('data2.csv')
df = data_df.dropna()
df1 = df[['股票名称', '成交量']]
df2 = df1.iloc[:20]
print(df2['股票名称'].values)
print(df2['成交量'].values)
可视化图表
c = (
Bar()
.add_xaxis(list(df2['股票名称']))
.add_yaxis("股票成交量情况", list(df2['成交量']))
.set_global_opts(
title_opts=opts.TitleOpts(title="成交量图表 - Volume chart"),
datazoom_opts=opts.DataZoomOpts(),
)
.render("data.html")
)
print('数据可视化结果完成,请在当前目录下查找打开 data.html 文件!')
运行代码,效果展示
Original: https://www.cnblogs.com/qshhl/p/15629671.html
Author: 松鼠爱吃饼干
Title: 股票交易数据采集+数据可视化(一个朴素无华的Python爬虫+可视化案例,附代全部代码)
相关阅读3
Title: FastAPI 学习之路(四十三)利用Docker部署发布
我们之前的部署都是基于本地的部署,我们这次来看下,如何基于docker去部署我们的项目。
1.首先去编写一个docker镜像的制作文件Dockerfile
FROM python:3.7
RUN pip install fastapi uvicorn aiofiles fastapi-async-sqlalchemy python-multipart
EXPOSE 80
COPY . .
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "80"]
其实简单,就是告知依赖的python3.7,需要安装依赖包。然后复制本地文件。然后执行部署。
2.写好文件,就是打包我们的镜像。执行命令
docker build -t myfastapi .
这里需要耐心等待就可以
打包完成后,我们可以用docker images查看
然后我们可以去部署。
<span class="code-snippet_outer"><span class="code-snippet__selector-tag">sudo <span class="code-snippet__selector-tag">docker <span class="code-snippet__selector-tag">run <span class="code-snippet__selector-tag">-d <span class="code-snippet__selector-tag">--name <span class="code-snippet__selector-tag">myfastapi <span class="code-snippet__selector-tag">-p 80<span class="code-snippet__selector-pseudo">:80 <span class="code-snippet__selector-tag">myfastapi</span></span></span></span></span></span></span></span></span></span>
启动后,我们可以看使用docker ps -a查看
接下来我们就可以访问了
http://127.0.0.1/openapi或者http://0.0.0.0/openapi都可以查看
两个地址都可以访问成功。
3.我们也可以把本地镜像导出出来。
docker save -o myfastapi.tar myfastapi
导出之后,我们以后部署可以在任意的docker去部署我们的服务。
然后我们在要去部署的机器执行
docker load < myfastapi.tar
然后去启动镜像即可。其实docker去部署很简单。
文章首发在公众号,欢迎关注。
Original: https://www.cnblogs.com/leiziv5/p/15416846.html
Author: 北漂的雷子
Title: FastAPI 学习之路(四十三)利用Docker部署发布