GVKun编程网logo

导入pika时python没有模块名称pika(pip安装模块后pycharm找不到)

27

在这里,我们将给大家分享关于导入pika时python没有模块名称pika的知识,让您更了解pip安装模块后pycharm找不到的本质,同时也会涉及到如何更有效地Gitee推荐|超轻量级python引

在这里,我们将给大家分享关于导入pika时python没有模块名称pika的知识,让您更了解pip安装模块后pycharm找不到的本质,同时也会涉及到如何更有效地Gitee 推荐 | 超轻量级 python 引擎 pikascript、ImportError:没有模块名称’matplotlib’Python 3.3、kafka 环境搭建和使用 (python API)、kafka-python实现获得kafka topic的内容。

本文目录一览:

导入pika时python没有模块名称pika(pip安装模块后pycharm找不到)

导入pika时python没有模块名称pika(pip安装模块后pycharm找不到)

我为在Mac上运行的python安装了pika

sudo pip install pika==0.9.8

我确定已安装,这是尝试重新安装时的响应,

Requirement already satisfied (use --upgrade to upgrade): pika==0.9.8 in /usr/local/lib/python2.7/site-packages

但是当我在* .py上导入pika时,

ImportError:没有名为pika的模块

我的python版本

python --versionPython 2.7.5

如何使该模块被Python识别?谢谢!

编辑1

我这样称呼进口

import pika

这给出了错误,我可以临时解决此问题,

export PYTHONPATH=$PYTHONPATH:/usr/local/lib/python2.7/site-packages

那么如何使路径永久化呢?谢谢!

答案1

小编典典

您可以将该导出命令添加到您的〜/ .bash_login文件中。

Gitee 推荐 | 超轻量级 python 引擎 pikascript

Gitee 推荐 | 超轻量级 python 引擎 pikascript

PikaScript是一个完全重写的超轻量级python引擎,零依赖,零配置,可以在少于4KB的RAM下运行(如stm32g030c8和stm32f103c8),极易部署和扩展。

 

ImportError:没有模块名称’matplotlib’Python 3.3

ImportError:没有模块名称’matplotlib’Python 3.3

我是 python的新手(2天前开始),我已经到了我想用matplotlib进行程序的地步.我正在使用python 3.3,在按照安装matplotlib的说明后,我已经完成了以下步骤:
sudo apt-get install python-pip
sudo pip install matplotlib

返回此导入错误:

ImportError: No module named 'matplotlib'

经过一些研究,我试过这个:

sudo apt-get update
sudo apt-get build-dep python-matplot

我仍然得到相同的导入错误.我在这里找到了这个页面:https://askubuntu.com/questions/427708/matplotlib-error-no-module-named-matplotlib-even-though-it-is-installed

这给我的印象是我安装了不正确的matplotlib版本,我需要v1.2或更高版本.有人可以向我解释我需要做些什么才能使用matplotlib并且不会在Python 3.3中出现此错误?

我目前正在使用Ubuntu 12.04.

谢谢.

解决方法

在我的Mint 17上,我刚刚使用Python 3.4(建议您在开始使用Python时,除非您需要一些尚不支持3.4的库):
sudo pip3 install matplotlib

然后测试安装:

python3

import matplotlib
matplotlib.__version__

应该给你’1.4.0′

kafka 环境搭建和使用 (python API)

kafka 环境搭建和使用 (python API)

引言

上一篇文章了解了 kafka 的重要组件 zookeeper,用来保存 broker、consumer 等相关信息,做到平滑扩展。这篇文章就实际操作部署下 kafka,用几个简单的例子加深对 kafka 的理解,学会基本使用 kafka。

环境搭建

我将会在本地部署一个三台机器的 zookeeper 集群,和一个 2 台机器的 kafka 集群。

zookeeper 集群

zookeeper 的搭建可以看我的上一篇文章分布式系统中 zookeeper 实现配置管理 + 集群管理,按照步骤,一步步可以很容易的搭建 3 太服务器的 zookeeper 集群。跟之前一样,我还是在本地的 3 个端口搭建了 3 台服务器,地址如下所示:

192.168.0.105:2181
192.168.0.105:2182
192.168.0.105:2183

这三台服务器一会儿会在 kafka 配置中用到。

kafka 集群

第一步。下载 kafka

到 kafka 官网下载 apache kafka,解压到 /path/to/kafka 目录。

第二步。修改配置文件 复制 /path/to/kafka/config/server.properties,到 /path/to/kafka/config/server-1.properties/path/to/kafka/config/server-2.properties

配置文件中修改的差异内容如下所示: server-1.properties

broker.id=1
listeners=PLAINTEXT://:9093
log.dirs=/tmp/kafka-logs-1
zookeeper.connect=192.168.0.105:2181,192.168.0.105:2182,192.168.0.105:2183

server-2.properties

broker.id=2
listeners=PLAINTEXT://:9094
log.dirs=/tmp/kafka-logs-2
zookeeper.connect=192.168.0.105:2181,192.168.0.105:2182,192.168.0.105:2183

其中 broker.id 是 broker 的唯一标示,集群中的 broker 标识必须唯一。 listeners 是 broker 监听的地址和端口,advertised.listeners 用于和 producer、consumer 交互,后者未配置会默认使用前者,listeners 的完整格式是 listeners = listener_name://host_name:port,其中 PLAINTEXT 是协议,还有一种是 SSL,具体还没太搞明白(TODO)。 log.dirs 是日志数据的存放目录,也就是 producer 产生的数据存放的目录。 zookeeper.connect 配置是 zookeeper 的集群,broker 启动之后将信息注册到 zookeeper 集群中。

第三步。启动服务器

cd /path/to/kafka
bin/kafka-server-start.sh -daemon config/server-1.properties
bin/kafka-server-start.sh -daemon config/server-2.properties

使用 jps 命令可以看见 2 个 kafka 进程,证明启动成功了。

第四步。创建 topic 创建 topic 一般使用 kafka 自带的脚本创建:

bin/kafka-topics.sh --create --zookeeper 192.168.0.105:2181,192.168.0.105:2182,192.168.0.105:2183 --replication-factor 2 --partitions 10 --topic user-event

其中 --zookeeper 就是后面就是我们上面配置的 zookeeper 集群,--replication-factor 代表每个分区在集群中复制的份数,后面的值要小于 kafka 集群中服务器数量,--partitions 表示创建主题的分区数量,一般分区越大,性能越好,--topic 后边儿就是创建主题的名字,运行成功之后会看到 Created topic "user-event". 字样,表示创建成功,会在 kafka 配置的日志目录下创建主题信息,比如下面的: ll /tmp/kafka-logs-1

drwxr-xr-x  7 ritoyan  wheel  224  6  3 21:21 clock-tick-0
drwxr-xr-x  7 ritoyan  wheel  224  6  3 21:21 clock-tick-2
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-0
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-1
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-2
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-3
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-4
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-5
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-6
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-7
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-8
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-9

ll /tmp/kafka-logs-2

drwxr-xr-x  7 ritoyan  wheel  224  6  3 21:21 clock-tick-1
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-0
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-1
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-2
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-3
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-4
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-5
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-6
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-7
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-8
drwxr-xr-x  6 ritoyan  wheel  192  6  3 21:26 user-event-9

可以看到两个 broker 中都创建了主题 user-event 的 10 个分区。可能也有人要问了,clock-tick 这个主题怎么在 broker1 中有 2 个分区,broker2 中有 1 个分区,这个是我之前创建的一个分区,用了下面的命令 bin/kafka-topics.sh --create --zookeeper 192.168.0.105:2181,192.168.0.105:2182,192.168.0.105:2183 --replication-factor 1 --partitions 3 --topic clock-tick,只有一份日志记录,3 个分区,分区会均匀的分布在所有 broker 上。

至此 kafka 环境配置好了,西面我们看看如何使用。

基本使用

安装 kafka-python,用来操作 kafka,pip3 install kafka-python,这里是他的文档,文档写的不错,简洁易懂 kafka-python

producer 向 broker 发送消息

bootstrap_servers 是 kafka 集群地址信息,下面事项主题 user-event 发送一条消息,send 发送消息是异步的,会马上返回,因此我们要通过阻塞的方式等待消息发送成功 (或者 flush() 也可以,flush 会阻塞知道所有 log 都发送成功),否则消息可能会发送失败,但也不会有提示,关于上面这个可以通过删除 send 之后的语句试试,会发现 broker 不会收到消息,然后在 send 后加上 time.sleep(10) 之后,会看到 broker 收到消息。

from kafka import KafkaProducer
from kafka.errors import KafkaError

producer = KafkaProducer(
    bootstrap_servers=[
        "localhost:9093",
  "localhost:9094"
  ]
)

future = producer.send("user-event", b''I am rito yan'')
try:
    record_metadata = future.get(timeout=10)
	print_r(record_metadata)
except KafkaError as e:
    print(e)

阻塞等待发送成功之后,会看到返回插入记录的信息: RecordMetadata(topic=''user-event'', partition=7, topic_partition=TopicPartition(topic=''user-event'', partition=7), offset=1, timestamp=1528034253757, checksum=None, serialized_key_size=-1, serialized_value_size=13),里面包括了插入 log 的主题、分区等信息。

格式化发送的信息

创建 producer 的时候可以通过 value_serializer 指定格式化函数,比如我们数据是个 dict,可以指定格式化函数,将 dict 转化为 byte:

import json

producer = KafkaProducer(
    bootstrap_servers=[
        "localhost:9093",
        "localhost:9094"
    ],
    value_serializer=lambda m: json.dumps(m).encode(''ascii'')
)

future = producer.send("user-event", {
    "name": "燕睿涛",
    "age": 26,
    "friends": [
        "ritoyan",
        "luluyrt"
    ]
})

这样就可以将格式化之后的信息发送给 broker,不用每次发送的时候都自己格式化,真是不要太好用。

consumer 消费数据

创建一个 consumer,其中 group_id 是分组,broker 中的每一个数据只能被 consumer 组中的一个 consumer 消费。

from kafka import KafkaConsumer

consumer = KafkaConsumer(
    "user-event",
    group_id = "user-event-test",
    bootstrap_servers = [
        "localhost:9093",
        "localhost:9094"
    ]
)
for message in consumer:
    print("%s:%d:%d: key=%s value=%s" % (message.topic, message.partition,
                                          message.offset, message.key,
                                          message.value))

启动之后,进程会一直阻塞在哪里,等 broker 中有消息的时候就会去消费,启动多个进程,只要保证 group_id 一致,就可以保证消息只被组内的一个 consumer 消费,上面的程序会输出:

user-event:8:2: key=None value=b''{"name": "\\u71d5\\u777f\\u6d9b", "age": 26, "friends": ["ritoyan", "luluyrt"]}''

同样,进入的时候有 value_serializer,出来的时候对应的也有 value_deserializer,消费者可以配置 value_deserializer 来格式化内容,跟 producer 对应起来

consumer = KafkaConsumer(
    "user-event",
  group_id = "user-event-test",
  bootstrap_servers = [
        "localhost:9093",
  "localhost:9094"
  ],
  value_deserializer=lambda m: json.loads(m.decode(''ascii''))
)

输出内容 user-event:8:3: key=None value={''name'': ''燕睿涛'', ''age'': 26, ''friends'': [''ritoyan'', ''luluyrt'']}

kafka 其他命令

查看分组

我们的 consumer 可能有很多分组,可以通过西面的命令查看分组信息:

cd /path/to/kafka
bin/kafka-consumer-groups.sh --bootstrap-server localhost:9093,localhost:9094 --list

可以看到我使用中的分组有 4 个,分别如下所示

clock-tick-test3
user-event-test
clock-tick-test2
clock-tick-test

查看特定分组信息

可以通过 bin/kafka-consumer-groups.sh --bootstrap-server 127.0.0.1:9093 --group user-event-test --describe,查看分组 user-event-test 的信息,可以看到西面的信息,包含消费的主题、分区信息,以及 consumer 在分区中的 offset 和分区的总 offset。(为了格式化显示,删了部分列的部分字母)

TOPIC		PARTITION	CURRENT-OFFSET	LOG-END-OFFSET	LAG	CONSUMER-ID	HOST	CLIENT-ID
user-event 	3	0	0	0	kafka-python-154b2 /127.0.0.1 	kafka-python
user-event 	0	0	0	0	kafka-python-154b2 /127.0.0.1 	kafka-python
user-event 	1	1	1	0	kafka-python-154b2 /127.0.0.1 	kafka-python
user-event 	2	1	1	0	kafka-python-154b2 /127.0.0.1 	kafka-python
user-event 	4	0	0	0	kafka-python-154b2 /127.0.0.1 	kafka-python
user-event 	9	1	1	0	kafka-python-78517 /127.0.0.1 	kafka-python
user-event 	8	4	4	0	kafka-python-78517 /127.0.0.1 	kafka-python
user-event 	7	2	2	0	kafka-python-78517 /127.0.0.1 	kafka-python
user-event 	6	1	1	0	kafka-python-78517 /127.0.0.1 	kafka-python
user-event 	5	0	0	0	kafka-python-78517 /127.0.0.1 	kafka-python

结语

至此,kafka 的基本使用算是掌握了,以后要是有机会在项目中实践就好了,在实际工程中的各种问题可以更加深刻的理解其中的原理。

kafka-python实现获得kafka topic

kafka-python实现获得kafka topic

from kafka.client import KafkaClient

client = KafkaClient(“zookeeper_host”)
topic_list = client.topics




今天的关于导入pika时python没有模块名称pikapip安装模块后pycharm找不到的分享已经结束,谢谢您的关注,如果想了解更多关于Gitee 推荐 | 超轻量级 python 引擎 pikascript、ImportError:没有模块名称’matplotlib’Python 3.3、kafka 环境搭建和使用 (python API)、kafka-python实现获得kafka topic的相关知识,请在本站进行查询。

本文标签: