Facebook
Twitterhttps://creativecommons.org/publicdomain/zero/1.0/https://creativecommons.org/publicdomain/zero/1.0/
Querying BigQuery tables You can use the BigQuery Python client library to query tables in this dataset in Kernels. Note that methods available in Kernels are limited to querying data. Tables are at bigquery-public-data.github_repos.[TABLENAME].
If you're using Python, you can start with this code:
import pandas as pd
from bq_helper import BigQueryHelper
bq_assistant = BigQueryHelper("bigquery-public-data", "utility_us")
Facebook
TwitterThese are full-resolution boundary files, derived from TIGER/Line Shapefiles, the fully-supported, core geographic products from the US Census Bureau. They are extracts of selected geographic and cartographic information from the US Census Bureau's Master Address File/Topologically Integrated Geographic Encoding and Referencing (MAF/TIGER) database. These include information for the 50 states, the District of Columbia, Puerto Rico, and the Island areas (American Samoa, the Commonwealth of the Northern Mariana Islands, Guam, and the United States Virgin Islands). These include polygon boundaries of geographic and statistical areas, linear features including roads and hydrography, and point features. These files are converted and made available in BigQuery by the Cloud Public Datasets Program to support geospatial analysis through BigQuery GIS . The dataset describes the boundaries of the following US areas: States Counties 115th & 116th US Congressional Districts Metropolitan and Micropolitan Statistical Areas Urban Areas City Limits Combined Statistical Areas Coastline Populated Places National border For more details on each dataset, see the technical documentation published by the Census Bureau. This public dataset is hosted in Google BigQuery and is included in BigQuery's 1TB/mo of free tier processing. This means that each user receives 1TB of free BigQuery processing every month, which can be used to run queries on this public dataset. Watch this short video to learn how to get started quickly using BigQuery to access public datasets. What is BigQuery .</
Facebook
TwitterThese are the full-resolution boundary zip code tabular areas (ZCTA), derived from the US Census Bureau's TIGER/Line Shapefiles. The dataset contains polygons that roughly approximate each of the USPS 5-digit zip codes. It is one of many geography datasets available in BigQuery through the Google Cloud Public Dataset Program to support geospatial analysis. You can find more information on the other datasets at the US Geographic Boundaries Marketplace page . Though they do not continuously cover all land and water areas in the United States, ZCTAs are a great way to visualize geospatial data in an understandable format with excellent spatial resolution. This dataset gives the area of land and water within each zip code, as well as the corresponding city and state for each zip code. This makes the dataset an excellent candidate for JOINs to support geospatial queries with BigQuery’s GIS capabilities. Note: BQ-GIS is in public beta, so your GCP project will need to be whitelisted to try out these queries. You can sign up to request access here . This public dataset is hosted in Google BigQuery and is included in BigQuery's 1TB/mo of free tier processing. This means that each user receives 1TB of free BigQuery processing every month, which can be used to run queries on this public dataset. Watch this short video to learn how to get started quickly using BigQuery to access public datasets. What is BigQuery .
Facebook
TwitterThis dataset contains cloud-to-ground lightning strike information collected by Vaisala's National Lightning Detection Network and aggregated into 0.1 x 0.1 degree tiles by the experts at the National Centers for Environmental Information (NCEI) as part of their Severe Weather Data Inventory. This data provides historical cloud-to-ground data aggregated into tiles that around roughly 11 KMs for redistribution. This provides users with the number of lightning strikes each day, as well as the center point for each tile. The sample queries below will help you get started using BigQuery's GIS capabilities to analyze the data. For more on BigQuery GIS, see the documentation available here. The data begins in 1987 and runs through current day, with a delay of a few days for processing. For near real-time lightning information, see the Cloud Public Data's metadata listing of GOES-16 data for cloud-to-cloud and cloud-to-ground strikes over the eastern half of the western hemisphere. GOES-17 data covering the western half of the western hemisphere will be available soon. This public dataset is hosted in Google BigQuery and is included in BigQuery's 1TB/mo of free tier processing. This means that each user receives 1TB of free BigQuery processing every month, which can be used to run queries on this public dataset. Watch this short video to learn how to get started quickly using BigQuery to access public datasets. What is BigQuery .
Facebook
TwitterAttribution-NoDerivs 3.0 (CC BY-ND 3.0)https://creativecommons.org/licenses/by-nd/3.0/
License information was derived automatically
Taxa de precipitação estimada de áreas do sudeste brasileiro. As estimativas são feitas de hora em hora, cada registro contendo dados desta estimativa. Cada área é um quadrado formado por 4km de lado. Dados coletados pelo satélite GOES-16.
Como acessar
Nessa página
Aqui, você encontrará um botão para realizar o download dos dados em formato CSV e compactados com gzip. Ou, para mesmo resultado, pode clicar aqui.
BigQuery
SELECT
*
FROM
`datario.meio_ambiente_clima.taxa_precipitacao_satelite`
LIMIT
1000
Clique aqui
para ir diretamente a essa tabela no BigQuery. Caso não tenha experiência com BigQuery,
acesse nossa documentação para entender como acessar os dados.
Python
import
basedosdados
as
bd
# Para carregar o dado direto no pandas
df
=
bd.read_sql
(
"SELECT * FROM `datario.meio_ambiente_clima.taxa_precipitacao_satelite` LIMIT 1000"
,
billing_project_id
=
"<id_do_seu_projeto_gcp>"
)
R
install.packages(
"basedosdados"
)
library(
"basedosdados"
)
# Defina o seu projeto no Google Cloud
set_billing_id(
"<id_do_seu_projeto_gcp>"
)
# Para carregar o dado direto no R
tb <- read_sql(
"SELECT * FROM `datario.meio_ambiente_clima.taxa_precipitacao_satelite` LIMIT 1000"
)
Cobertura temporal
Desde 2020 até a data corrente
Frequência de atualização
Diário
Órgão gestor
Centro de Operações da Prefeitura do Rio (COR)
Colunas
Nome
Descrição
latitude
Latitude do centro da área.
longitude
Longitude do centro da área.
rrqpe
Taxa de precipitação estimada, medidas em milímetros por hora.
primary_key
Chave primária criada a partir da concatenação da coluna data, horário, latitude e longitude. Serve para evitar dados duplicados.
horario
Horário no qual foi realizada a medição
data_particao
Data na qual foi realizada a medição
Dados do publicador
Nome: Patrícia Catandi
E-mail: patriciabcatandi@gmail.com
Facebook
TwitterAttribution-NoDerivs 3.0 (CC BY-ND 3.0)https://creativecommons.org/licenses/by-nd/3.0/
License information was derived automatically
Taxa medida de precipitação das estações pluviométricas da cidade do Rio de Janeiro. As estimativas são feitas de 15 em 15 minutos, cada registro contendo dados desta medida.
Como acessar
Nessa página
Aqui, você encontrará um botão para realizar o download dos dados em formato CSV e compactados com gzip. Ou,
para mesmo resultado, pode clicar aqui.
BigQuery
SELECT
*
FROM
`datario.meio_ambiente_clima.taxa_precipitacao_alertario`
LIMIT
1000
Clique aqui
para ir diretamente a essa tabela no BigQuery. Caso não tenha experiência com BigQuery,
acesse nossa documentação para entender como acessar os dados.
Python
import
basedosdados
as
bd
# Para carregar o dado direto no pandas
df
=
bd.read_sql
(
"SELECT * FROM `datario.meio_ambiente_clima.taxa_precipitacao_alertario` LIMIT 1000"
,
billing_project_id
=
"<id_do_seu_projeto_gcp>"
)
R
install.packages(
"basedosdados"
)
library(
"basedosdados"
)
# Defina o seu projeto no Google Cloud
set_billing_id(
"<id_do_seu_projeto_gcp>"
)
# Para carregar o dado direto no R
tb <- read_sql(
"SELECT * FROM `datario.meio_ambiente_clima.taxa_precipitacao_alertario` LIMIT 1000"
)
Cobertura temporal
Desde 1997 até data corrente
Frequência de atualização
Diário
Órgão gestor
COR
Colunas
Nome
Descrição
data_particao
Data em que foi realizada a medição
id_estacao
ID da estação pluviométrica em que ocorreu a medição.
acumulado_chuva_15_min
Acumulado de chuva em 15 minutos.
acumulado_chuva_1_h
Acumulado de chuva em 1 hora.
acumulado_chuva_4_h
Acumulado de chuva em 4 horas.
acumulado_chuva_24_h
Acumulado de chuva em 24 horas.
acumulado_chuva_96_h
Acumulado de chuva em 96 horas.
primary_key
Chave primária criada a partir da coluna id_estacao e da data_medicao. Serve para evitar dados duplicados.
horario
Horário no qual foi realizada a medição
Dados do publicador
Nome: Patrícia Catandi
E-mail: patriciabcatandi@gmail.com
Facebook
TwitterAttribution-NoDerivs 3.0 (CC BY-ND 3.0)https://creativecommons.org/licenses/by-nd/3.0/
License information was derived automatically
Procedimentos operacionais padrões (POP) existentes na PCRJ. Um POP é um procedimento que será usado para solucionar um evento. Um POP é composto de várias atividades. Um evento é uma ocorrência na cidade do Rio de Janeiro que exija um acompanhamento e na maioria das vezes uma ação da PCRJ, como por exemplo um buraco na rua. Acesse também através da API do Escritório de Dados: https://api.dados.rio/v1/
Como acessar
Nessa página
Aqui, você encontrará um botão para realizar o download dos dados em formato CSV e compactados com gzip. Ou, para mesmo resultado, pode clicar aqui.
BigQuery
SELECT
*
FROM
`datario.adm_cor_comando.procedimento_operacional_padrao`
LIMIT
1000
Clique aqui
para ir diretamente a essa tabela no BigQuery. Caso não tenha experiência com BigQuery,
acesse nossa documentação para entender como acessar os dados.
Python
import
basedosdados
as
bd
# Para carregar o dado direto no pandas
df
=
bd.read_sql
(
"SELECT * FROM `datario.adm_cor_comando.procedimento_operacional_padrao` LIMIT 1000"
,
billing_project_id
=
"<id_do_seu_projeto_gcp>"
)
R
install.packages(
"basedosdados"
)
library(
"basedosdados"
)
# Defina o seu projeto no Google Cloud
set_billing_id(
"<id_do_seu_projeto_gcp>"
)
# Para carregar o dado direto no R
tb <- read_sql(
"SELECT * FROM `datario.adm_cor_comando.procedimento_operacional_padrao` LIMIT 1000"
)
Cobertura temporal
Não informado.
Frequência de atualização
Mensal
Órgão gestor
COR
Colunas
Nome
Descrição
id_pop
Identificador do POP procedimento operacional padrão).
pop_titulo
Nome do procedimento operacional padrão.
Dados do(a) publicador(a)
Nome: Patrícia Catandi
E-mail: patriciabcatandi@gmail.com
Facebook
TwitterAttribution 4.0 (CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
License information was derived automatically
Base de dados geográfica dos limites de Bairros da Cidade do Rio de Janeiro. Como acessar através do DatalakeBigQuerySELECT * FROM datario.dados_mestres.bairro LIMIT 1000Clique aqui para ir diretamente a essa tabela no BigQuery. Caso não tenha experiência com BigQuery, acesse nosso tutorial para entender como acessar os dados.Pythonimport basedosdados as bd# Para carregar o dado direto no pandasdf = bd.read_sql ( "SELECT * FROM datario.dados_mestres.bairro LIMIT 1000" , billing_project_id = "
Facebook
TwitterAttribution-NoDerivs 3.0 (CC BY-ND 3.0)https://creativecommons.org/licenses/by-nd/3.0/
License information was derived automatically
Ocorrências disparadas pelo COR desde 2015. Uma ocorrência na cidade do Rio de Janeiro é um acontecimento que exije um acompanhamento e, na maioria das vezes, uma ação da PCRJ. Por exemplo, Buraco na pista, bolsão d'água, enguiço mecânico. Uma ocorrência aberta é uma ocorrência que ainda não foi solucionada. Acesse também através da API do Escritório de Dados: https://api.dados.rio/v1/
Como acessar
Nessa página
Aqui, você encontrará um botão para realizar o download dos dados em formato CSV e compactados com gzip. Ou, para mesmo resultado, pode clicar aqui.
BigQuery
SELECT
*
FROM
`datario.adm_cor_comando.ocorrencias`
LIMIT
1000
Clique aqui
para ir diretamente a essa tabela no BigQuery. Caso não tenha experiência com BigQuery,
acesse nossa documentação para entender como acessar os dados.
Python
import
basedosdados
as
bd
# Para carregar o dado direto no pandas
df
=
bd.read_sql
(
"SELECT * FROM `datario.adm_cor_comando.ocorrencias` LIMIT 1000"
,
billing_project_id
=
"<id_do_seu_projeto_gcp>"
)
R
install.packages(
"basedosdados"
)
library(
"basedosdados"
)
# Defina o seu projeto no Google Cloud
set_billing_id(
"<id_do_seu_projeto_gcp>"
)
# Para carregar o dado direto no R
tb <- read_sql(
"SELECT * FROM `datario.adm_cor_comando.ocorrencias` LIMIT 1000"
)
Cobertura temporal
Não informado.
Frequência de atualização
Diário
Órgão gestor
COR
Colunas
Nome
Descrição
data_inicio
Data e hora do registro do evento na PCRJ.
data_fim
Data e hora do encerramento do evento na PCRJ. O evento é encerrado quando é solucionado. Este atributo está vazio quanto o evento está aberto.
bairro
Bairro onde ocorreu o evento.
id_pop
Identificador do POP.
status
Status do evento (ABERTO, FECHADO).
gravidade
Gravidade do evento (BAIXO, MEDIO, ALTO, CRITICO).
prazo
Prazo esperado de solução do evento (CURTO, MEDIO(acima de 3 dias), LONGO( acima de 5 dias)).
latitude
Latitude em formato WGS-84 em que ocorreu o evento
longitude
Longitude em formato WGS-84 em que ocorreu o evento
id_evento
Identificador do evento.
descricao
Descrição do evento.
tipo
Tipo do evento (PRIMARIO, SECUNDARIO)
Dados do(a) publicador(a)
Nome: Patrícia Catandi
E-mail: patriciabcatandi@gmail.com
Facebook
TwitterAttribution 4.0 (CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
License information was derived automatically
Modelagem da tabela de atributos atualizada em 06/06/2025. Trechos ativos de logradouros do município do Rio de Janeiro. Trecho de logradouro é um segmento do logradouro, no caso de uma rua vai de uma esquina à outra. Logradouro é qualquer espaço público comum que pode ser usufruído por toda a população (reconhecidos formalmente ou não, de conhecimento da prefeitura do Rio de Janeiro), como largos, praças, ruas, jardins, parques, entre outros. Campos da tabela de atributos:COD_TRECHO - Identificador único do trecho no banco de dados.CL - Código oficial do logradouro dado pela prefeitura do Rio de Janeiro.NP_INI_PAR - Numeração inicial do lado par do trecho de logradouro.NP_FIN_PAR - Numeração final do lado par do trecho de logradouro.NP_INI_IMP - Numeração inicial do lado ímpar do trecho de logradouro.NP_FIN_IMP - Numeração final do lado ímpar do trecho de logradouro.COD_TIPO_LOGRA - Código do tipo do logradouro dado pela prefeitura do Rio de Janeiro. Por exemplo 41 é associado a rua.TIPO_LOGRA_ABR - Tipo do logradouro abreviado. Por exemplo r para rua, av para avenida.TIPO_LOGRA_EXT - Tipo do logradouro por extenso. Por exemplo rua.COD_NOBREZA - Código do tipo de nobreza do nome do logradouro dado pela prefeitura do Rio de Janeiro.NOBREZA - Tipo de nobreza do nome do logradouro.NOME_PARCIAL - Nome parcial do logradouro. Nome do logradouro sem o tipo do logradouro ( rua,estrada, beco, travessa etc ) e sem a nobreza do logradouro.COMPLETO - Nome completo do logradouro. Nome do logradouro com tipo, nobreza e nome parcial.NOME_MAPA - Nome completo do logradouro abreviado para rótulo em mapasCOD_BAIRRO - Código do bairro, dado pela prefeitura do Rio de Janeiro, do trecho de logradouro. Ver o atributo nome.BAIRRO - Nome do bairro onde está localizado o trecho de logradouro. Um trecho pode passar por vários bairros. Este atributo indica um dos bairros contendo o trecho.HIERARQUIA - Hierarquia viária do trecho de logradouro. Por exemplo estrutural, arterial primária, arterial secundária, coletora, local. Classificação relacionada a regras para o tráfego que passa por ela, por exemplo fluxo de veículos, velocidade máxima etc.ONEWAY - Sentido do logradouroVELOCIDADE_REGULAMENTADA - Velocidade máxima regulamentada para o trechoTIPO_TRECHO - Tipologia do trecho de logradouroLAST_EDITED_DATE - Data da última edição no trechoST_LENGTH(SHAPE) - Extensão do trecho de logradouro em metros. Como acessar através do DatalakeBigQuerySELECT * FROM datario.dados_mestres.logradouro LIMIT 1000Clique aqui para ir diretamente a essa tabela no BigQuery. Caso não tenha experiência com BigQuery, acesse nosso tutorial para entender como acessar os dados.Pythonimport basedosdados as bd# Para carregar o dado direto no pandasdf = bd.read_sql ( "SELECT * FROM datario.dados_mestres.logradouro LIMIT 1000" , billing_project_id = "
Not seeing a result you expected?
Learn how you can add new datasets to our index.
Facebook
Twitterhttps://creativecommons.org/publicdomain/zero/1.0/https://creativecommons.org/publicdomain/zero/1.0/
Querying BigQuery tables You can use the BigQuery Python client library to query tables in this dataset in Kernels. Note that methods available in Kernels are limited to querying data. Tables are at bigquery-public-data.github_repos.[TABLENAME].
If you're using Python, you can start with this code:
import pandas as pd
from bq_helper import BigQueryHelper
bq_assistant = BigQueryHelper("bigquery-public-data", "utility_us")