🗂️ Terug naar start
Pinecone is een vector database die speciaal is ontworpen voor machine learning toepassingen. In de wereld van machine learning worden vector databases gebruikt om grote hoeveelheden high-dimensional data efficiënt op te slaan en te doorzoeken. Met Pinecone kunnen ontwikkelaars en data scientists gemakkelijker werken aan de bouw van schaalbare en betrouwbare machine learning systemen. Het biedt een infrastructuur voor het opslaan en opvragen van vector representaties van data, wat cruciaal is voor vele machine learning tasks. Door de inzet van Pinecone kunnen bedrijven sneller en met minder moeite waardevolle inzichten verkrijgen uit hun data, en zo betere producten en diensten ontwikkelen.
Pinecone Home
Pinecone Quickstart
YouTube: Langchain + ChatGPT + Pinecone: A Question Answering Streamlit App
https://python.langchain.com/docs/integrations/retrievers/self_query/pinecone
→ dimentions = 1536
→ metric = “cosine”
→ Model: OpenAI/text-embedding-3-small (instellen bij “set=up by Model)“
→ Tabblad PODS: P2 (1x)
→ Cloud provider: Google
→ Region: Netherlands eu-west4-gcp
Opdelen van tekst in Chunks : LangChain: How to Properly Split your Chunks
Knowledge-Based Agent Deployment with Langchain, Pinecone and Phospho
Code op GitHub
Ik heb tekstbestanden gegenereerd met blokken tekst gescheiden door een dubbele line break
Deze tekst blokken moeten als documenten naar een Pinecone database
bestanden worden opgesplitst in (qua aantal leestekens ongelijke) documenten en vervolgens weggeschreven naar de PineCone DataBase
Ik gebruik de volgende code:
import os import streamlit as st from pinecone import Pinecone, ServerlessSpec from langchain_community.vectorstores import Pinecone as LangChainPinecone from langchain_openai.embeddings import OpenAIEmbeddings import uuid # Initialize the app ============================ os.environ["OPENAI_API_KEY"] = st.secrets["OPENAI_API_KEY"] pineKey = st.secrets["PINECONE_API_KEY"] pineEnv = st.secrets["PINECONE_ENVIRONMENT"] pineInd = st.secrets["PINECONE_INDEX_NAME2"] pinemod = "text-embedding-3-small" class Document: def __init__(self, text, metadata=None, doc_id=None): self.page_content = text self.metadata = metadata if metadata is not None else {} self.id = doc_id if doc_id is not None else str(uuid.uuid4()) # Uniek ID genereren def main(): doc_db = embedding_db() print(doc_db) print("Bestanden weggeschreven naar PineCone DB") def embedding_db(): embeddings = OpenAIEmbeddings(model=pinemod) pc = Pinecone(api_key=pineKey) if pineInd not in pc.list_indexes().names(): pc.create_index( name=pineInd, dimension=1536, metric='cosine', spec=ServerlessSpec( cloud='gcp', region=pineEnv ) ) docs_split = load_embeddings_from_dir() doc_db = LangChainPinecone.from_documents( docs_split, embeddings, index_name=pineInd ) return doc_db def load_embeddings_from_dir(): directory = './files/' documents = [] for filename in os.listdir(directory): if filename.endswith('.txt'): file_path = os.path.join(directory, filename) with open(file_path, 'r', encoding='utf-8') as file: content = file.read() parts = content.split('\n\n') for part in parts: documents.append(Document(part)) print(f"Aantal gesplitste documenten: {len(documents)}") return documents # Start the app =============================== if __name__ == "__main__": main()