# Account FAQ
Source: https://docs.giselles.ai/en/faq/account-billing/accounts
Frequently asked questions about Giselle accounts
TBD
# Billing FAQ
Source: https://docs.giselles.ai/en/faq/account-billing/billing
Frequently asked questions about billing and payments for Giselle
TBD
# Plan FAQ
Source: https://docs.giselles.ai/en/faq/account-billing/plan
Frequently asked questions about Giselle plans and features
TBD
# AI Models FAQ
Source: https://docs.giselles.ai/en/faq/application/ai-models
Frequently asked questions about AI models and their usage in Giselle
TBD
# Workspace FAQ
Source: https://docs.giselles.ai/en/faq/application/workspaces
Frequently asked questions about Giselle workspaces
TBD
# Privacy & Security FAQ
Source: https://docs.giselles.ai/en/faq/security-support/privacy-security
Frequently asked questions about Giselle7s privacy and security measures
TBD
# Support FAQ
Source: https://docs.giselles.ai/en/faq/security-support/support
Frequently asked questions about Giselle support services
TBD
# Action Node
Source: https://docs.giselles.ai/en/glossary/action-node
Learn how Action Nodes in Giselle enable your workflows to interact with external services like GitHub, performing tasks such as creating issues, comments, or retrieving discussions in your repositories.
## Action Node in Giselle
**Action Node** empowers your Giselle workflows to connect with and control external services. It acts as a bridge, allowing you to automate tasks beyond the Giselle environment. Currently, the primary integration is with **GitHub**, enabling a variety of repository operations. We are continuously working to expand support for more external services.
### GitHub Action
The GitHub Action capability within the Action Node allows your workflows to perform specific operations in your GitHub repositories. This is useful for automating tasks like issue creation, commenting, retrieving data, and more, based on the logic and data processed within your Giselle flow.
#### Setting up a GitHub Action:
1. **Select GitHub Account/Organization**:
* Upon adding an Action Node and choosing GitHub as the service, you'll first need to select the GitHub account or organization where your target repository resides (e.g., `giselles-ai`, `liam-hq`).
2. **Choose a Repository**:
* Next, a list of repositories accessible under the selected account/organization will appear (e.g., `docs`, `giselle`).
* Click the **Set up** button next to the repository you want the action to target (e.g., `giselle`).
3. **Choose the GitHub Action to Perform**:
* Once a repository is selected (e.g., `giselles-ai/giselle`), you'll need to specify what action the Giselle's app should execute.
* Click on the dropdown menu, which might be labeled "Choose what action you want to perform."
* Select the desired action from the list. Examples include:
* **Create Issue**
* **Create Issue Comment**
* **Create Pull Request Comment**
* **Reply Pull Request Review Comment**
* **Get Discussion**
* After selecting an action, click the **Setup Action** button to proceed to parameter configuration.
4. **Configure Action Parameters**:
* Each GitHub action requires specific parameters to execute correctly. For instance, the "Create Issue Comment" action requires an `issueNumber` and a `body` for the comment, as indicated by "Required" fields.
* The configuration panel will display the selected repository and the chosen action (e.g., "Create Issue Comment"). Below this, the necessary parameters will be listed.
* For each parameter, you'll need to provide a value. This can often be done by:
* Entering a static value directly.
* **Selecting a Source**: This allows you to map data dynamically from the outputs of previous nodes in your flow or from the Giselle's app flow's initial trigger inputs. The "Select Source" option next to each parameter field facilitates this.
* Ensure all parameters marked as "Required" are filled in.
* Once all parameters are configured, the changes are typically saved by an "Action" button or similar confirmation in the UI. The node on the canvas will update to reflect the configured action (e.g., showing "Create Issue Comment" with inputs for `issueNumber` and `body`).
#### Output of the Action Node:
After successfully performing its task, an Action Node will typically produce an **output**. This output can contain information relevant to the action performed, such as the ID or URL of a created issue or comment, or the data retrieved from a service (like discussion content). This output can then be used as input by subsequent nodes in your workflow, enabling complex chains of operations. The node preview often indicates the availability of an "output".
#### Example: Creating an Issue Comment
Imagine you've configured an Action Node to "Create Issue Comment" for the `giselles-ai/giselle` repository:
* **Repository**: `giselles-ai/giselle`
* **Action**: Create Issue Comment
* **Required Parameters (Inputs)**:
* `issueNumber`: Sourced from a workflow trigger or a previous node (e.g., an issue number identified earlier in the flow).
* `body`: Sourced from another node (e.g., a text summary generated by an AI model in a preceding step).
* **Execution**: When this node runs, it will post a new comment using the provided `body` to the issue specified by `issueNumber` within the `giselles-ai/giselle` repository.
* **Potential Output**: The node might output details like the URL or ID of the newly created comment, which can be used in further steps.
#### Example: Replying to a Pull Request Review Comment
Here's how you might configure an Action Node to "Reply Pull Request Review Comment" in the `giselles-ai/giselle` repository, as shown in the provided image:
* **Repository**: `giselles-ai/giselle`
* **Action**: Reply Pull Request Review Comment
* **Required Parameters (Inputs)**:
* `pullNumber`: The number of the pull request containing the review comment. This would typically be sourced from a trigger event (e.g., a GitHub Trigger for "Pull Request Review Comment Created") or a previous node that identified the pull request.
* `commentId`: The ID of the specific review comment to which you are replying. This also would likely come from the trigger data or a preceding node that fetched comment details.
* `body`: The content of your reply. This could be static text, or more powerfully, dynamically generated text from an AI node in your workflow (e.g., an automated acknowledgment, a question, or a summary).
* **Execution**: When this Action Node executes, it will post the content from the `body` parameter as a reply to the specified `commentId` on the given `pullNumber` within the `giselles-ai/giselle` repository.
* **Potential Output**: The node may output information about the reply that was posted, such as its own ID or URL, which could be useful for further conditional workflow logic.
#### Example: Getting a GitHub Discussion
This action allows your workflow to retrieve the content and details of a specific GitHub Discussion from your repository.
* **Repository**: `giselles-ai/giselle` (or any other configured repository)
* **Action**: Get Discussion
* **Required Parameters (Inputs)**:
* `discussionNumber`: The number of the GitHub Discussion to retrieve. This can be a static value or sourced dynamically from a previous node's output or a trigger input.
* **Execution**: When this node runs, it connects to GitHub and fetches the details of the discussion specified by `discussionNumber` from the selected repository.
* **Potential Output**: The node will output an object containing the discussion data. This typically includes details such as the discussion's `id`, `title`, `bodyHTML` (the content of the discussion in HTML format), `createdAt`, `updatedAt`, `author` information, and an array of `comments` associated with the discussion (each comment also having details like `bodyHTML`, `author`, etc.). This structured data can then be used by subsequent nodes in your workflow, for example, to summarize the discussion, extract key points, perform analysis on the comments, or trigger other actions based on its content.
The Action Node, particularly with its GitHub integration, is a versatile tool for extending Giselle's automation capabilities into your software development and project management lifecycles. Stay tuned for more actions and integrations with other external services!
# AI Parameters
Source: https://docs.giselles.ai/en/glossary/ai-parameters
Dictionary of Generation Parameters Used Across AI Models in Giselle.
This document provides a detailed overview of common generation parameters ("Generation Parameters") that can be configured within Giselle's Generator Nodes to fine-tune outputs from various multimodal AI models such as Claude, Gemini, GPT-4o, Sonar, and Fal AI.
Please note that definitions and availability of generation parameters may vary depending on the AI provider and specific models. Additionally, Giselle does not currently implement all parameters supported by each provider's API. This document primarily covers general definitions and typical usages of the parameters that are available. If you have suggestions for parameters you would like Giselle to support, please feel free to contact us.
## Common AI Parameters
### Temperature
* **Definition:** Controls randomness in text or image generation.
* **Range:** 0 (less random, deterministic) to 1 (highly random, creative).
* **Recommended use:**
* Lower values (0–0.3) for precise, factual outputs.
* Higher values (0.7–1.0) for creative or exploratory outputs.
### Top-p (Nucleus Sampling)
* **Definition:** Limits token selection to the smallest set whose cumulative probability exceeds a threshold (p).
* **Range:** Typically 0.0 to 1.0.
* **Recommended use:**
* Lower values (0.7–0.9) for focused, consistent outputs.
* Higher values (\~1.0) for broader, diverse content generation.
### Max Tokens
* **Definition:** Maximum number of tokens generated in a response.
* **Recommended use:**
* Adjust based on desired response length and API/model token limits.
* Essential for cost management and resource optimization.
## Text-Specific Parameters
### Frequency Penalty
* **Definition:** Reduces repetition by penalizing repeated tokens.
* **Range:** Typically 0.0 (no penalty) to 1.0 (strong penalty).
* **Recommended use:**
* Increase when repetitive outputs are undesirable.
### Presence Penalty
* **Definition:** Encourages new content by penalizing tokens previously used.
* **Range:** Typically 0.0 (no penalty) to 1.0 (strong penalty).
* **Recommended use:**
* Helpful for generating more diverse text outputs.
### Stop Sequences
* **Definition:** Tokens or phrases indicating where the model should stop generating.
* **Recommended use:**
* Define clearly when structured or partial outputs are required.
## Image Generation Parameters
### Guidance Scale
* **Definition:** Influences how closely the generated image follows the provided prompt.
* **Range:** Typically 1 (less strict adherence) to 20 (highly strict adherence).
* **Recommended use:**
* Lower values for exploratory, abstract outputs.
* Higher values for precise, detailed adherence to prompts.
### Inference Steps
* **Definition:** Number of steps in the diffusion process.
* **Recommended use:**
* Lower values (1–4 steps with flux/schnell) for rapid prototyping.
* Higher values (\~28 steps with stable-diffusion) for detailed, high-quality images.
## Multimodal Parameters
### Context Window
* **Definition:** Maximum tokens/models can "remember" or process at once.
* **Typical values:**
* Gemini: up to 1M tokens.
* GPT-4o: 128k tokens.
* Claude: up to 200k tokens.
* **Recommended use:**
* Use larger context windows for extensive documents, multimodal data analysis, and tasks requiring detailed understanding.
### Input Modalities
* **Definition:** Types of inputs supported by the model (text, images, audio, video).
* **Models:**
* Gemini 2.5 Pro and GPT-4o support extensive multimodal inputs.
* Choose models based on required input modalities.
## Web-Search Parameters
### Grounding
* **Definition:** Enables the model to incorporate real-time web-search results into generated responses.
* **Recommended use:**
* Enable for up-to-date, fact-based research tasks or informational queries.
## Practical Recommendations for Giselle
* **Experimentation and Adjustment:** Regularly adjust parameters based on task-specific results.
* **Node Integration:** Use parameters strategically across chained nodes to maximize workflow effectiveness.
* **Document Settings Clearly:** Clearly document chosen parameter settings within your Giselle workflow for team clarity and reproducibility.
# File Node
Source: https://docs.giselles.ai/en/glossary/file-node
Learn how the File Node in Giselle allows you to upload and use files like PDFs, images, and text as inputs for your AI workflows.
## File Node in Giselle
The **File Node** is a specialized type of "Variable Node" that allows you to handle file uploads and processing directly within your Giselle workflows. It acts as an input source, enabling you to incorporate documents, images, and text files for AI models to analyze, summarize, or transform.
### How to Use a File Node
1. **Add the Node**: Drag and drop a "File" node from the toolbar at the bottom of the canvas onto your workspace.
2. **Upload a File**: Select the node to open its configuration panel. You can upload a file by dragging and dropping it onto the designated area or by clicking to open a file selector.
3. **Monitor Status**: The node will display the status of the upload. Files can be in one of three states: "uploading," "uploaded," or "failed." Once successfully uploaded, the file is securely stored in your workspace and ready to be used in your workflow.
### Supported File Types
The File Node supports several types of files, each with specific use cases and limitations.
| File Type | Accepted Formats | Max Size | Common Use Cases |
| :-------- | :-------------------------------------------------- | :------- | :--------------------------------------------- |
| **PDF** | `application/pdf` | 4.5MB | Document processing, text extraction, analysis |
| **Image** | `image/png`, `image/jpeg`, `image/gif`, `image/svg` | 4.5MB | Visual content analysis and generation |
| **Text** | `text/plain`, `text/markdown` | 4.5MB | Text content processing and generation |
### Workflow Integration
The primary purpose of a File Node is to provide data to other nodes, most commonly a [Generator Node](/glossary/generator-node).
* **Connect the Output**: The "Output" of a File Node can be connected to the input of a Generator Node.
* **Process the Content**: In the Generator Node, you can then prompt an AI model to perform a task on the file's content. For example, you can connect a PDF file and instruct the AI to "Summarize the key findings from the attached document."
#### Model Compatibility
The type of file you can connect depends on the capabilities of the target AI model. For example:
* **PDF and Text files** can be connected to text-based or multimodal models for tasks like analysis, summarization, or Q\&A.
* **Image files** can be connected to multimodal models that accept image inputs for analysis, or to image generation models for transformation tasks.
### Technical Limitations
Please be aware of the following limitations when using File Nodes:
* **Maximum File Size**: Due to platform constraints (Vercel Serverless Function limits), the maximum size for any single file upload is **4.5MB**.
* **Image Size Limit**: Image files have a maximum size of **4.5MB**.
* **Connection Restrictions**: You cannot connect a file to a node that does not support its type. For instance, a PDF file cannot be connected to a node that only generates images, and an image file may not be compatible with older text-only generation models.
# Generator Node
Source: https://docs.giselles.ai/en/glossary/generator-node
Learn how the Generator Node in Giselle uses AI models to generate text, images, and more, forming the core of your AI flows.
## Generator Node in Giselle
The **Generator Node** is the central component for AI-driven content creation in Giselle. It allows you to harness the power of various advanced AI models to generate text and images based on your instructions. By configuring prompts, selecting models, and providing tools, you can create highly customized outputs for any flow.
The Generator Node is configured through three main tabs in its settings panel: **Prompt**, **Model**, and **Tools**.
### Prompt Tab
This is where you provide the instructions for the AI model. Write a clear and detailed prompt describing the task you want the AI to perform. The output generated by the model will appear at the bottom of this panel, allowing you to quickly see the results.
You can also test the node individually by clicking the **Generate** button, which runs only this node without executing the entire flow.
### Model Tab
In the Model tab, you can select the specific AI model you want to use for the generation task. Giselle provides access to a wide range of models from leading providers.
* **Select a Model**: Choose from a list of available models, such as OpenAI's `gpt-4o`, Anthropic's `claude-4-opus`, or Google's `gemini-2.5-pro`.
* **Configure Parameters**: Depending on the selected model, you can adjust various [AI Parameters](ai-parameters) like `Temperature` or `Max Tokens` to fine-tune the output.
For more details on the available models from each provider, see our documentation:
* [Anthropic](https://docs.giselles.ai/models/providers/anthropic)
* [fal.ai](https://docs.giselles.ai/models/providers/fal)
* [Google](https://docs.giselles.ai/models/providers/google)
* [OpenAI](https://docs.giselles.ai/models/providers/openai)
### Tools Tab
The Tools tab allows you to grant the AI model access to external services, enabling it to perform actions or retrieve data from outside Giselle. This is useful for creating more dynamic and powerful flows.
Currently, the following tools are supported:
* [GitHub](/glossary/github-tools)
* [PostgreSQL](/glossary/postgresql-tools)
We are continuously working to add support for more tools in the future.
## Output of the Generator Node
The primary output of a Generator Node is the content it creates (e.g., a block of text or an image). This output can be connected to the input of other nodes, allowing you to chain AI tasks together. For example, the text generated by one node can be used as the input for another node that summarizes or translates it.
# GitHub Tools
Source: https://docs.giselles.ai/en/glossary/github-tools
Learn how to configure and use GitHub Tools within a Generator Node, empowering your AI models to interact directly with your GitHub repositories.
**GitHub Tools** enable AI models inside a Generator Node to perform a wide range of actions on GitHub by giving them access to a curated set of functions. This feature, often referred to as "tool use" or "function calling," allows you to build powerful AI agents that can automate development workflows, such as creating issues, managing pull requests, searching for code, and more, all based on natural language instructions in your prompt.
## Configuring GitHub Tools
Follow these steps to connect your GitHub account and enable specific tools for a Generator Node.
### 1. Navigate to the Tools Tab
In any Generator Node (e.g., `gemini-2.5-pro`), select the **Tools** tab. You will see a list of available integrations that can be connected.
### 2. Connect to GitHub
Click the **+ Connect** button next to the GitHub integration. This will open a configuration modal to add your credentials.
### 3. Add Your Personal Access Token (PAT)
To authenticate with GitHub, you need to provide a Personal Access Token (PAT).
You can create a new PAT from your GitHub account settings: [https://github.com/settings/personal-access-tokens](https://github.com/settings/personal-access-tokens). Ensure your token has the necessary permissions (scopes) for the actions you want to perform.
In the "Connect to GitHub" window:
1. **Token Name**: Give your token a descriptive name for easy identification later (e.g., "Create Issue" or "Update Docs").
2. **Personal Access Token (PAT)**: Paste your token into this field. Giselle encrypts the token with authenticated encryption before saving it.
3. Click **Save & Connect**.
### 4. Select the Tools to Enable
After your token is validated, you'll be presented with a list of available GitHub tools, grouped by category. For security and control, you must explicitly select which actions the AI model is allowed to perform.
Check the boxes next to the tools you want to enable for this node (e.g., `createIssue`, `getPullRequest`, `createOrUpdateFile`).
### 5. Save the Configuration
Once you've selected the desired tools, click **Save & Connect** at the bottom of the modal. The Generator Node will now show that GitHub is connected, displaying the enabled tools and a **Configuration** button to make future changes.
## Available GitHub Tools
The following is a list of tools you can enable for your AI model, categorized as they appear in the configuration screen.
**Note**: GitHub tools conform to the definitions at [https://github.com/github/github-mcp-server](https://github.com/github/github-mcp-server)
### Repository
#### `getFileContents`
Retrieves file or directory contents from a repository
* **Required**:
* `owner` (Repository owner)
* `path` (Path to file/directory)
* `repo` (Repository name)
* **Optional**: `branch` (Branch to get contents from)
#### `listBranches`
Lists all branches in a repository with pagination support
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* **Optional**:
* `page` (Page number for pagination, min 1)
* `perPage` (Results per page, min 1, max 100)
### Issues
#### `createIssue`
Opens a new issue with required title and optional body, assignees, labels, and milestone number
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `title` (Issue title)
* **Optional**:
* `body` (Issue body content)
* `assignees` (Array of usernames to assign)
* `labels` (Array of labels to apply)
* `milestone` (Milestone number)
#### `getIssue`
Retrieves detailed information about a specific issue by its number
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `issueNumber` (Issue number)
#### `listIssues`
Lists repository issues with filters for state, labels, date, sort order, and direction with pagination
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* **Optional**:
* `state` (open/closed/all)
* `labels` (Array of labels to filter by)
* `sort` (created/updated/comments)
* `direction` (asc/desc)
* `since` (ISO 8601 timestamp)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `updateIssue`
Updates an existing issue's properties
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `issueNumber` (Issue number to update)
* **Optional**:
* `title` (New title)
* `body` (New description)
* `state` (open/closed)
* `assignees` (New assignees array)
* `labels` (New labels array)
* `milestone` (New milestone number)
#### `addIssueComment`
Adds a comment to an existing issue with required body content
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `issueNumber` (Issue number)
* `body` (Comment content)
#### `getIssueComments`
Retrieves all comments on a specific issue with pagination support
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `issueNumber` (Issue number)
* **Optional**:
* `page` (Page number)
* `perPage` (Number of records per page)
### Pull Requests
#### `createPullRequest`
Opens a new PR from head branch to base branch with title, optional body, draft status
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `title` (PR title)
* `head` (Branch containing changes)
* `base` (Branch to merge into)
* **Optional**:
* `body` (PR description)
* `draft` (Create as draft PR)
* `maintainerCanModify` (Allow maintainer edits)
#### `getPullRequest`
Fetches detailed information about a specific pull request by number
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `updatePullRequest`
Edits PR properties including title, body, base branch, state, and maintainer permissions
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* **Optional**:
* `title` (New title)
* `body` (New description)
* `state` (open/closed)
* `base` (New base branch name)
* `maintainerCanModify` (Allow maintainer edits)
#### `listPullRequests`
Lists PRs with filters for state, base/head branches, sort order, and direction with pagination
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* **Optional**:
* `state` (open/closed/all)
* `head` (Filter by head user/org and branch)
* `base` (Filter by base branch)
* `sort` (created/updated/popularity/long-running)
* `direction` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `getPullRequestComments`
Retrieves review comments on a pull request
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `getPullRequestFiles`
Lists all files changed in a pull request with pagination
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `getPullRequestReviews`
Gets all reviews submitted for a PR
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `getPullRequestStatus`
Checks CI/CD status checks for a pull request
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `createPullRequestReview`
Creates a pending review that can be submitted later
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* `event` (APPROVE/REQUEST\_CHANGES/COMMENT)
* **Optional**:
* `body` (Review comment text)
* `commitId` (SHA of commit to review)
* `comments` (Array of line-specific comment objects)
#### `addPullRequestReviewComment`
Adds inline comments to specific lines/files during review with support for multi-line comments
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* `body` (Review comment text)
* **Optional** (one of these patterns required):
* **Pattern 1 (reply)**: `inReplyTo` (ID of comment to reply to)
* **Pattern 2 (new comment)**:
* `commitId` (SHA of commit to comment on)
* `path` (Relative path to file)
* `line` (Line number in the diff)
* `side` (LEFT/RIGHT)
* `startLine` (For multi-line comments)
* `startSide` (LEFT/RIGHT for multi-line)
* `subjectType` (line/file)
#### `mergePullRequest`
Merges a PR with options for merge method, commit title, and commit message
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* **Optional**:
* `mergeMethod` (merge/squash/rebase)
* `commitTitle` (Title for merge commit)
* `commitMessage` (Extra detail for merge commit)
#### `updatePullRequestBranch`
Updates PR branch with latest changes from base branch
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* **Optional**:
* `expectedHeadSha` (Expected SHA of the PR's HEAD ref)
### Code Management
#### `createBranch`
Creates a new branch from an existing branch or repository's default branch
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `branch` (Name for new branch)
* **Optional**:
* `fromBranch` (Source branch, defaults to repo default)
#### `createOrUpdateFile`
Creates new files or updates existing ones with content, commit message, and branch. Requires SHA for updates
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `path` (Path where to create/update the file)
* `content` (Content of the file)
* `message` (Commit message)
* `branch` (Branch to create/update the file in)
* **Optional**:
* `sha` (SHA of file being replaced, required for updates)
#### `getCommit`
Retrieves detailed information about a specific commit by SHA, branch name, or tag name
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `sha` (Commit SHA, branch name, or tag name)
* **Optional**:
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `listCommits`
Lists commit history with optional filtering by author and SHA/branch/tag reference
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* **Optional**:
* `sha` (SHA or branch name)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
### Search
#### `searchCode`
Searches for code using GitHub's code search syntax
* **Required**:
* `q` (Search query using GitHub code search syntax)
* **Optional**:
* `sort` (indexed)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchIssues`
Searches issues and pull requests using GitHub search syntax, can be scoped to specific owner/repo
* **Required**:
* `q` (Search query using GitHub issues search syntax)
* **Optional**:
* `sort` (comments/reactions/reactions-+1/reactions--1/reactions-smile/reactions-thinking\_face/reactions-heart/reactions-tada/interactions/created/updated)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchPullRequests`
Specifically searches pull requests with advanced filtering and GitHub search syntax
* **Required**:
* `q` (Search query using GitHub issues search syntax, automatically adds type:pr)
* **Optional**:
* `sort` (comments/reactions/reactions-+1/reactions--1/reactions-smile/reactions-thinking\_face/reactions-heart/reactions-tada/interactions/created/updated)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchRepositories`
Finds repositories matching search query with pagination support
* **Required**:
* `query` (Search query)
* **Optional**:
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchUsers`
Searches for GitHub users using search syntax
* **Required**:
* `q` (Search query using GitHub users search syntax)
* **Optional**:
* `sort` (followers/repositories/joined)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
## How to Use GitHub Tools
Once configured, you can instruct the AI model to use the enabled tools directly in your prompt. The model will understand your request and call the appropriate function with the necessary parameters to complete the task.
### Example Prompt: Create a pull request to add a new documentation page
Imagine you have enabled the `getFileContents`, `createPullRequest`, `createBranch` and `createOrUpdateFile` tools for a node.
```markdown
Please complete the last step without checking with me.
Creating the pull request, please follow these steps:
1. Create a new branch in your GitHub repository https://github.com/giselles-ai/docs
- Use GitHub tool createBranch
- fromBranch: main
- newBranchName: prefix giselle/create-docs-xxx
2. Please create a new file based on the contents of followings
- Use GitHub tool createOrUpdateFile
- Contents: @generate-contents-node-output
- Latest SHA: @getSHA-node-output
3. Create pull request to https://github.com/giselles-ai/docs
- Use GitHub tool createPullRequest
```
When this prompt is run, the Giselle will:
1. Create a new branch in your GitHub repository.
2. Create a new file based on the contents.
3. Create pull request.
# GitHub Vector Store Node
Source: https://docs.giselles.ai/en/glossary/github-vector-store-node
Learn how the GitHub Vector Store Node vectorizes your GitHub repositories, creating a searchable knowledge base for your AI workflows in Giselle.
Learn how the GitHub Vector Store Node in Giselle vectorizes your GitHub repositories, creating a searchable knowledge base that can be queried within your AI workflows.
## GitHub Vector Store Node in Giselle
The **GitHub Vector Store Node** is a specialized "Source" node that creates a powerful, searchable database from the contents of a GitHub repository. It works by vectorizing the code and documents within the repository, allowing AI models to perform semantic searches and retrieve relevant context.
This process uses advanced embedding models to convert your repository's content into vector embeddings. You can select from multiple embedding models, including OpenAI's [`text-embedding-3-small`](https://platform.openai.com/docs/models/text-embedding-3-small) and [`text-embedding-3-large`](https://platform.openai.com/docs/models/text-embedding-3-large), as well as Google's [`gemini-embedding-001`](https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemini-embedding-001?hl=en). These vectorized data are then stored securely in Giselle's dedicated Vector Store.
To use this feature, the [Giselle GitHub App](https://github.com/apps/giselles-ai) must be installed on the target GitHub repository.
### Setting up a GitHub Vector Store Node:
1. **Add the Node**:
* From the toolbar at the bottom of the canvas, click the **Source** icon (a folder with a link symbol).
* Select **GitHub Vector Store** from the pop-up menu to add the node to your workspace.
2. **Configure the Repository**:
* When first added, the node will display a "REQUIRES SETUP" status.
* Select the node to open its configuration panel on the right.
* Click the **Select a repository** dropdown menu. This list will only show repositories that have the Giselle GitHub App installed. Choose the repository you want to use as a knowledge source (e.g., `giselles-ai/docs`).
3. **Choose the Content Type**:
* After selecting a repository, you will need to specify which type of content to vectorize. The available options are:
* **Code**: Vectorizes the source code and documents from the repository's default branch. This is useful for creating a knowledge base from your codebase.
* **Pull Requests**: Vectorizes the content from pull requests, including descriptions, comments, and discussions. This is ideal for analyzing development patterns or summarizing changes.
* Select the radio button corresponding to the content you wish to use.
4. **Finalize Setup**:
* Once the repository and content type are selected, the node on the canvas will update to show the name of the configured repository. The vectorization process for this repository will be initiated or updated in the background.
### Managing Your Vector Stores
You can add, configure, and remove the GitHub repositories that are processed by the GitHub Vector Store Node from your team's settings page.
* Navigate to **Settings > Team > Vector Stores** in your Giselle account.
* Alternatively, you can click the **Set Up GitHub Vector Store** link directly from the node's configuration panel.
* This page allows you to manage which repositories are indexed and available for your workflows. You can access it here: [https://studio.giselles.ai/settings/team/vector-stores](https://studio.giselles.ai/settings/team/vector-stores).
#### Sources to Ingest
When registering a new repository, you can select which types of content to ingest. Giselle currently supports two sources:
* **Code**: Ingests the source code files from the repository. This source is required and cannot be disabled.
* **Pull Requests**: Ingests the content and discussions from merged pull requests. This is an optional source that can be enabled to provide additional context to your AI workflows.
#### Embedding Models
When setting up a GitHub Vector Store, you can select from multiple embedding models for indexing your repository content. You must select at least one embedding model. Available options include:
* **OpenAI text-embedding-3-small**: Provider: OpenAI • Dimensions: 1536 - A powerful and efficient model suitable for most use cases.
* **OpenAI text-embedding-3-large**: Provider: OpenAI • Dimensions: 3072 - A larger model with higher precision for complex semantic understanding.
* **Google gemini-embedding-001**: Provider: Google • Dimensions: 3072 - Google's embedding model offering alternative semantic representation capabilities.
The choice of embedding model affects how your content is vectorized and can impact search quality and performance. You can select multiple models to leverage different semantic representation capabilities for your vector store.
### Rate Limits and Considerations
When using the GitHub Vector Store Node, please be aware of GitHub API rate limits. Giselle's GitHub Vector Store uses [GitHub App Installation](https://docs.github.com/ja/rest/using-the-rest-api/rate-limits-for-the-rest-api?apiVersion=2022-11-28#primary-rate-limit-for-github-app-installations) for GitHub API access, which has a rate limit of approximately 5,000 requests per hour. You may encounter errors when working with large-scale projects. If this occurs, please wait some time before trying again.
For large repositories or frequent updates, you may experience rate limiting during the vectorization process. If you encounter errors, simply wait and retry after the rate limit window resets.
### Usage in Workflows
The GitHub Vector Store Node is designed to be used in combination with a **Query Node**. It acts as the knowledge base that the Query Node searches through.
* **Connect the Output**: The "Output" of the GitHub Vector Store Node should be connected to the input of a Query Node.
* **Perform a Search**: The Query Node can then take a user's question or a dynamic input, search the vectorized repository content for the most relevant information, and pass that information to subsequent nodes (like a Generator Node) for processing, analysis, or summarization.
### Output of the Node
The GitHub Vector Store Node's **output** is a reference to the vectorized data of the selected repository. This output provides the necessary connection for other nodes, like the Query Node, to access and search the repository's content.
# Nodes in Giselle
Source: https://docs.giselles.ai/en/glossary/node
Learn about nodes, the building blocks of AI apps on Giselle. Connect nodes with various functions to visually design powerful AI workflows.
## Giselle's AI Agents Can Be Built by Combining "Nodes"
Giselle is a platform that allows you to build powerful AI agents through an intuitive node-based interface. By connecting "nodes" with various functions, like assembling building blocks, you can visually design complex AI workflows. This makes it easy for anyone, even without specialized knowledge, to achieve automation with AI agents.
## Introducing Giselle's Key Nodes
Here are some of the fundamental nodes available in Giselle. By combining these nodes, you can build various AI workflows.
### Generator Node
The Generator node can create both text and images using advanced AI models. By configuring prompts and conditions, you can generate content tailored to your needs. For text, this includes applications such as document creation, blog writing, and research report generation, leveraging Giselle's LLM API for high-quality, natural-sounding text. For images, you can generate visuals from text prompts, enabling creative content creation and workflows that utilize visual data. The Generator node empowers you to flexibly produce a wide range of AI-generated outputs within your workflows.
**Web Search Capability**: When using models that support web search functionality, the Generator node can access real-time information from the internet. This enables the creation of content based on the latest data and current events, making your AI workflows more dynamic and up-to-date.
### Text Node
Text node is used to hold text data. It can be used to record prompts, instructions, annotations, and more. It helps manage and organize text data within the workflow, streamlining input to text generation nodes and data usage in other nodes.
### File Node
File node is used to handle file data. You can read files, use them as input for AI models, and save output results to files. It is useful for various tasks that involve utilizing file data, such as data-based analysis and report generation.
### Web Page Node
The Web Page node is used to fetch and hold content from web pages. You can input one or more URLs, and Giselle will attempt to retrieve the content from these pages. Currently, the fetched content is processed and made available primarily in Markdown format. This allows you to use web content as a dynamic input source for AI models or other processing nodes within your workflow, enabling tasks like summarization, analysis, or content generation based on information from the web.
### Trigger Node
Trigger Node is the starting point for running the workflow built in the Giselle App. It initiates the execution of the connected nodes in a sequence. Currently, two types of Trigger Nodes are supported:
* **Manual Trigger Node**: This node allows you to manually initiate the workflow directly within the Giselle App Workspace. It's useful for testing, on-demand executions, or when you want direct control over when a workflow runs.
* **GitHub Trigger Node**: This node enables workflows to be automatically triggered by GitHub webhooks. When the Giselle GitHub App is installed in a repository, this node can listen for specific events (like issue comments or pull requests) and start the Giselle App's workflow in response.
### Action Node
Action Node is a node that can call external services. Currently, it primarily supports integrations with GitHub, allowing workflows to perform actions within your repositories. We plan to expand its capabilities to enable interactions with a variety of other external services in the future.
### GitHub Vector Store Node & Query Node
Giselle supports advanced data retrieval and search capabilities through the **GitHub Vector Store Node** and the **Query Node**.
* **GitHub Vector Store Node**: This specialized Source node allows you to vectorize the contents of a GitHub repository, creating a searchable knowledge base. You can select from multiple advanced embedding models, including OpenAI's text-embedding models and Google's gemini-embedding-001, to convert your repository's code and documents into vector representations, enabling semantic search within your workflows. This is especially useful for building Retrieval-Augmented Generation (RAG) applications. For setup and details, see the [GitHub Vector Store Node documentation](github-vector-store-node).
* **Query Node**: The Query Node is designed to execute search queries against connected data sources, such as the GitHub Vector Store Node. It retrieves the most relevant information (text chunks) from your vectorized repositories, which can then be used as dynamic context for AI generation or further processing. For more information, see the [Query Node documentation](query-node).
**Typical Usage:**
1. Add a GitHub Vector Store Node and configure it with your repository.
2. Connect its output to a Query Node.
3. Use the Query Node to search your repository's content and pass the results to other nodes, such as a Generator Node, for context-aware AI workflows.
These nodes enable powerful, up-to-date, and context-rich AI applications by leveraging your own data sources within Giselle.
## Tips for using Node
Here are some helpful tips to enhance your experience with nodes in Giselle.
### Node Duplication
To enhance workflow efficiency, Giselle supports node duplication. This feature allows you to quickly create a copy of an existing node within the workflow designer.
**How to Duplicate a Node:**
* **Right-Click Context Menu:** Right-click on any node in the workflow designer to open the context menu, then select "Duplicate Node."
* **Keyboard Shortcut:** Select the node you wish to duplicate and use the keyboard shortcut `Cmd + D` (on macOS) or `Ctrl + D` (on Windows/Linux).
**Duplication Behavior:**
* The duplicated node will appear at an offset position from the original node.
* Connections from the original node are preserved in the duplicate where applicable.
* For File nodes, the duplicated node will correctly reference newly copied files.
* Cloned nodes will start in an "unconfigured" state, allowing you to customize their settings independently from the original node.
* If the duplication process encounters an issue, an error message will be displayed.
This feature streamlines the process of building complex workflows by allowing for easy replication of configured or template nodes.
## Future Node Expansion Plans
We plan to expand node functionality to further empower our users to build AI workflows. Here's a look at what our team is currently considering:
### Expansion of the File Node
We plan to expand the file formats supported by the File node, adding support for:
* **Tabular Files** (CSV, Excel, etc.)
* **Audio Files**
Stay tuned for Giselle's product updates!
# PostgreSQL Tools
Source: https://docs.giselles.ai/en/glossary/postgresql-tools
Learn how to use PostgreSQL Tools in a Generator Node to connect your AI models to a PostgreSQL database, enabling them to query and retrieve data.
**PostgreSQL Tools** empower AI models within a Generator Node to connect directly to your PostgreSQL databases. This feature, a form of "tool use" or "function calling," allows you to build AI agents that can query tables, retrieve data, and understand your database schema, all based on natural language instructions in your prompt.
This enables powerful workflows, such as generating business reports, answering data-driven questions, or performing automated data analysis.
## Configuring PostgreSQL Tools
Follow these steps to connect your PostgreSQL database and enable specific tools for a Generator Node.
### 1. Navigate to the Tools Tab
In any Generator Node (e.g., `gemini-2.5-pro`), select the **Tools** tab. You will see a list of available integrations that can be connected.
### 2. Connect to PostgreSQL
Click the **+ Connect** button next to the PostgreSQL integration. This will open a configuration modal to add your database credentials.
### 3. Add Your Connection String
To authenticate with your PostgreSQL database, you need to provide a connection string.
The connection string typically follows the format: `postgresql://[user[:password]@][netloc][:port][/dbname][?param1=value1&...]`. For detailed information, refer to the [official PostgreSQL documentation](https://www.postgresql.org/docs/current/libpq-connect.html#LIBPQ-CONNSTRING).
In the "Connect to PostgreSQL" window:
1. **Connection Name**: Give your connection a short, descriptive name for easy identification (e.g., "giselle-db-preview"). You'll use this to link other nodes.
2. **Connection String**: Paste your full PostgreSQL connection string into this field. Giselle encrypts the connection string with authenticated encryption before saving it.
3. Click **Save & Connect**.
### 4. Select the Tools to Enable
After your connection is validated, you'll be presented with a list of available PostgreSQL tools. For security and control, you must explicitly select which actions the AI model is allowed to perform.
Check the boxes next to the tools you want to enable for this node:
* `getTableStructure`
* `query`
### 5. Save the Configuration
Once you've selected the desired tools, click **Save & Connect**. The Generator Node will now show that PostgreSQL is connected, displaying the enabled tools and a **Configuration** button to make future changes.
## Available PostgreSQL Tools
The following is a list of tools you can enable for your AI model.
### Schema
* `getTableStructure`: Allows the AI model to retrieve the schema of your database. This includes table names, column names, and data types. This is crucial for the AI to understand how to construct valid queries.
### Query
* `query`: Allows the AI model to execute a standard SQL query against the connected database and retrieve the results.
## How to Use PostgreSQL Tools
Once configured, you can instruct the AI model to use the enabled tools directly in your prompt. The model will understand your request, call the appropriate function, and use the results to complete the task.
### Example Prompt: Calculate the number of users
Imagine you have enabled the `getTableStructure` and `query` tools for a node.
```markdown
Please find out the total number of users from the database.
```
When this prompt is run, the Giselle AI agent will:
1. Call the `getTableStructure` function to understand the database layout.
2. Identify the relevant table (e.g., `users`).
3. Formulate a SQL query like `SELECT COUNT(*) FROM users;`.
4. Execute the query using the `query` tool.
5. Return a final answer based on the query result, such as: "The total number of users is 1,234."
# Query Node
Source: https://docs.giselles.ai/en/glossary/query-node
Learn how the Query Node in Giselle executes queries against data sources like the GitHub Vector Store to enable Retrieval-Augmented Generation (RAG).
## Query Node in Giselle
The **Query Node** is a powerful component in Giselle designed to search and retrieve information from connected data sources. Its primary function is to execute a query (such as a question or a search term) against a dataset and return the most relevant results.
Currently, the Query Node is optimized to work with the **GitHub Vector Store Node**, making it a crucial building block for creating Retrieval-Augmented Generation (RAG) applications directly within your Giselle workflows.
### How to Use the Query Node
Setting up a Query Node involves adding it to your canvas, connecting a data source, and running a query.
#### 1. Add a Query Node
From the node toolbar at the bottom of the canvas, select the **Query Node**, which is identifiable by its magnifying glass icon, and place it in your workspace.
#### 2. Connect a Data Source
The Query Node requires an input from a data source to function. You must connect the `Output` of a data source node (like the GitHub Vector Store Node) to the `Input` of the Query Node. Until a data source is connected, the node will indicate that it is waiting for a connection.
#### 3. Write and Run a Query
Once a data source is connected, you can configure the Query Node:
* **Enter a Query**: In the configuration panel, type your question or search term into the "Query" input field.
* **Run the Query**: Click the **Run Query** button to execute the search against the connected data source.
#### 4. Review the Results
After the query runs, the results will be displayed directly in the node's panel. The results typically include:
* A summary of the number of results found.
* A list of relevant "chunks" of text retrieved from the source documents.
* A similarity score (e.g., 58%) for each chunk, indicating its relevance to your query.
You can expand each chunk to view its content and metadata.
### Core Use Case: Retrieval-Augmented Generation (RAG)
The primary purpose of the Query Node is to enable **Retrieval-Augmented Generation (RAG)** workflows. RAG enhances the capabilities of Large Language Models (LLMs) by providing them with relevant, up-to-date information from your own data sources before they generate a response.
A typical RAG workflow in Giselle looks like this:
1. **Data Source (GitHub Vector Store Node)**: Ingests and vectorizes your documentation from a GitHub repository, making it searchable.
2. **Query Node**: Takes a user's question (the query) and retrieves the most relevant text chunks from the vector store.
3. **Generator Node**: Receives the original question *and* the retrieved information from the Query Node's output. It uses this combined context to generate a more accurate, detailed, and factually grounded answer.
### Output of the Query Node
The `Result` output of the Query Node contains the collection of retrieved data chunks. This structured data can be passed to subsequent nodes—most commonly a **Generator Node**—to serve as dynamic context for text generation.
For more information on how to set up a data source for querying, see our documentation on the [GitHub Vector Store Node](github-vector-store-node).
# Text Node
Source: https://docs.giselles.ai/en/glossary/text-node
Learn how the Text Node in Giselle allows you to store and manage plain text, such as prompts, instructions, or data, directly within your workflows.
## Text Node in Giselle
The **Text Node** is one of the simplest yet most versatile "Source" nodes in Giselle. It is designed to hold and manage plain text content directly within your workflow, making it an essential tool for a wide range of applications. Unlike the File Node, which handles uploaded files, the Text Node stores its content inline, ensuring it is always immediately available without any loading or processing time.
### Key Features
* **Direct Text Input**: You can write or paste any text directly into the node's built-in editor.
* **Inline Storage**: The content is stored as a simple string within the node itself, making your workflow self-contained and portable.
* **Instant Availability**: Since there are no file uploads or external storage, the text is instantly available as an output for other nodes.
### How to Use a Text Node
1. **Add the Node**: From the toolbar at the bottom of the canvas, click the **Source** icon and select **Plain Text** to add the node to your workspace.
2. **Configure the Content**: Select the node to open its configuration panel on the right.
3. **Enter Text**: Type or paste your content directly into the text editor, which displays the placeholder "Write or paste text here...". The content is saved automatically as you type.
### Common Use Cases
The Text Node is ideal for:
* **Storing Prompts**: Write and store reusable prompts for Generator Nodes.
* **Creating Templates**: Keep text templates for various content generation tasks.
* **Writing Instructions**: Document workflow-specific instructions or guidelines for your team.
* **Holding Data**: Store small, structured datasets like JSON or CSV content for processing.
* **Quick Notes**: Use it for temporary text storage or as a scratchpad during workflow development.
### Text Node vs. File Node
While a **File Node** can also handle text files (like `.txt` or `.md`), the **Text Node** is fundamentally different and often more convenient:
* **Storage**: The Text Node stores content *directly* in the workflow. The File Node requires you to *upload* a file, which is stored separately.
* **Editing**: Content in a Text Node can be edited instantly within the Giselle interface. To change the content of a File Node, you would need to upload a new file.
* **Overhead**: The Text Node has no file management overhead (no size tracking, upload states, or potential upload failures).
* **Best For**: The Text Node is better suited for dynamic or frequently edited content, while the File Node is ideal for using large, static text files as a data source.
### Output of the Node
The **output** of a Text Node is the raw text content you have entered into its editor. This output can be connected to the input of any compatible node. For example, you can connect it to a Generator Node to use the text as a prompt, or to an Action Node to pass the text as a parameter to an external service.
# Trigger Node
Source: https://docs.giselles.ai/en/glossary/trigger-node
Learn about Trigger Nodes, the starting points for workflows in Giselle. Configure Manual Triggers with parameters or use GitHub Triggers to initiate your AI workflow sequences.
## Trigger Node in Giselle
The **Trigger Node** is the starting point for running the workflow built in the Giselle App. It initiates the execution of the connected nodes in a sequence.
Currently, two types of Trigger Nodes are supported.
### Manual Trigger Node
The **Manual Trigger Node** allows you to start your workflow with the click of a button. You can also configure it to request specific parameters each time it's run. This is useful for providing dynamic inputs to your workflow at the moment of execution.
**Configuring Manual Trigger Parameters:**
When you add a Manual Trigger Node to your workflow, you can define parameters that will be requested when the flow is manually triggered. If no parameters are configured, the flow will simply start when triggered.
To add and configure parameters:
1. In the "Add New Parameter" section:
* **Parameter Name**: Enter a descriptive name for the parameter (e.g., "Title", "Message", "Priority"). This name will be used to identify the input field when the trigger is run.
* **Type**: Select the type of data this parameter will accept. The available options are:
* **Text**: For single-line text input.
* **Text(multi-line)**: For longer text input that may span multiple lines.
* **Number**: For numerical input.
* **Required**: Check this box if the parameter must be filled in before the workflow can be triggered. An error will occur if a required parameter is left empty.
2. Click the **plus icon (+)** to add the configured parameter to the list.
3. You can add multiple parameters by repeating the steps above.
4. Once all desired parameters are added and configured, click **Save Configuration**.
When you manually run this workflow, a form will appear prompting you to enter values for the parameters you've defined. These values can then be used by subsequent nodes in your workflow.
### GitHub Trigger Node
The **GitHub Trigger Node** enables you to automatically start your Giselle workflows based on specific events occurring in your GitHub repositories. This allows for seamless integration between your code management and AI-powered tasks.
**Setting up a GitHub Trigger:**
1. **Select GitHub Account/Organization**:
* When you add a GitHub Trigger node, you'll first need to choose the GitHub account or organization where your target repository resides (e.g., `giselles-ai`, `liam-hq`).
* If you're missing a GitHub account connection or need to adjust permissions, click on "Adjust GitHub App Permissions".
2. **Choose a Repository**:
* A list of repositories available under the selected account/organization will be displayed (e.g., `docs`, `giselle`).
* Click the **Set up** button next to the desired repository (e.g., `giselle`).
* If your repository isn't listed, you might need to "Adjust GitHub App Permissions" to grant Giselle access to it.
3. **Configure the Trigger Event**:
* Once a repository is selected (e.g., `giselles-ai/giselle`), you need to specify which GitHub event will trigger the workflow.
* Click on the dropdown menu labeled "Choose when you want to trigger the flow."
* Select an event from the list, such as:
* **Issue Created**: Triggers the flow when a new issue is created in the repository.
* **Issue Closed**: Triggers when an issue is closed.
* **Issue Comment Created**: Triggers when a new comment is made on an issue.
* **Pull Request Comment Created**: Triggers on a new pull request comment.
* **Pull Request Opened**: Triggers when a new pull request is opened.
* **Pull Request Ready for Review**: Triggers when a pull request is marked as ready for review.
* **Pull Request Closed**: Triggers when a pull request is closed.
4. **Configure Callsign (for specific events)**:
* For some events, like "Issue Comment Created" or "Pull Request Comment Created," you can specify a **Callsign**.
* A Callsign is a specific string or command (e.g., `/code-review`, `/deep-research`) that must be present in the comment for the trigger to activate. This prevents the flow from running on every single comment.
* Enter your desired Callsign in the provided field. The example shows `/code-review`.
* Click **Set up** after configuring the Callsign.
5. **Enable the Trigger**:
* After configuring the event and any associated options (like Callsign), the trigger will initially be in a "Disabled" state. The node on the canvas will show "Requires Setup" or display the repository and event type with a "Disabled" status.
* On the configuration panel for the trigger (e.g., "On Issue Created" or "On Issue Comment Created"), you will see the current **State** as "Disable".
* Click on **Enable** to activate the trigger.
* Once enabled, the **State** will change to "Enable", and you will see an option to **Disable Trigger**. The node on the canvas will also reflect its "Enabled" status.
6. **Run in the workspace**:
* For GitHub Trigger Nodes, clicking the "Run" button allows you to test your workflow without waiting for an actual GitHub webhook. You can enter values in a form that simulates the GitHub event, enabling you to verify that your workflow functions correctly before enabling it for real GitHub events.
**Example Workflow after Setup:**
On Issue Created:
* **Trigger**: "On Issue Created" for repository `giselles-ai/giselle`.
* **State**: Enabled.
* **Action**: When a new issue is created in the `giselles-ai/giselle` repository, this Giselle workflow will automatically start.
On Pull Request Comment Created:
* **Trigger**: "On Pull Request Comment Created" for repository `giselles-ai/giselle` with Callsign `/code-review`.
* **State**: Enabled.
* **Action**: When a comment containing `/code-review [enter your request...]` is posted on a pull request in `giselles-ai/giselle`, this workflow will start. The subsequent nodes can then access information like the comment body, pull request number, the pull request's diff content, etc.
Stay tuned for more updates and functionalities for Giselle's nodes!
# Web Page Node
Source: https://docs.giselles.ai/en/glossary/webpage-node
Learn how the Web Page Node in Giselle allows you to fetch and use content from web pages as static inputs in your AI workflows.
## Web Page Node in Giselle
The **Web Page Node** is used to fetch and hold content from web pages. You can input one or more URLs, and Giselle will attempt to retrieve the content from these pages. Currently, the fetched content is processed and made available primarily in **Markdown format**. This allows you to use web content as a static input source for AI models or other processing nodes within your workflow, enabling tasks like summarization, analysis, or content generation based on information from the web.
The Web Page Node functions as an independent variable node, providing a streamlined way to integrate web-based information into your Giselle applications.
### Setting up a Web Page Node:
1. **Add a Web Page Node**:
* Drag and drop a "Web Page" node from the toolbar at the bottom of the canvas onto your workspace.
2. **Configure URLs**:
* Select the Web Page node on the canvas to open its configuration panel on the right.
* In the text area labeled "URLs (one per line)", enter the full web addresses (URLs) of the pages from which you want to fetch content. If you have multiple URLs, enter each one on a new line.
```
https://example.com/
https://docs.giselles.ai/glossary/node
```
3. **Add URLs**:
* After entering the desired URLs, click the blue **Add** button.
* Giselle will then attempt to fetch the content from the specified URLs.
* Once the URLs are processed, the configuration panel will update to list the added pages, often displaying their titles or a reference to the URL. The "URLs (one per line)" input area and the **Add** button will remain, allowing you to add more URLs if needed.
### Output of the Web Page Node:
* **Content**: After successfully fetching data from the provided URLs, the Web Page Node makes this content available as its **output**.
* **Format**: The fetched content is primarily delivered in **Markdown format**. This standardized format makes it easy to use in subsequent text-processing nodes.
* **Connectivity**: The output of the Web Page Node can be connected to other nodes in your workflow. For instance, you can feed the Markdown content into a **Generator Node** to summarize an article, extract specific information, or use it as context for generating new content.
The Web Page node on the canvas will have an "Output" port, which you can drag to connect to an input port of another node.
### Example: Summarizing a Web Article
1. **Configure Web Page Node**:
* Add a Web Page Node.
* Input the URL of an online blog article (e.g., `https://giselles.ai/blog/transforming-product-development-human-ai-collaboration`).
* Click **Add**.
2. **Connect to Generator Node**:
* Add a Generator Node.
* Connect the "Output" of the Web Page Node to an input (e.g., a context or document input) of the Generator Node.
3. **Configure Generator Node**:
* Instruct the Generator Node to summarize the provided text. For example, use a prompt like: "Please summarize the following article concisely:"
4. **Run Workflow**:
* When the workflow runs, the Web Page Node fetches the article content as Markdown, and the Generator Node produces a summary.
### Future Updates
The Web Page Node's user interface and functionality, including supported output formats, may be updated incrementally in future Giselle releases.
# My Apps
Source: https://docs.giselles.ai/en/guides/apps/myapp
Create and manage your personal AI applications
My Apps are personal AI applications that you can create and manage on the Giselle AI App Builder platform. You can build powerful AI applications by combining multiple AI models and data sources, and run them as many times as needed.
## Key Features
### Application Building
* **AI Model Integration**: Combine various AI models to create custom applications
* **Data Source Connectivity**: Leverage information from multiple data sources to enhance AI capabilities
* **Repeated Execution**: Run your built applications as many times as necessary
### Team Utilization through GitHub Integration
While My App is primarily intended for personal use, you can utilize it with teams through GitHub integration:
* **Repository Integration**: Connect with repositories such as GitHub
* **Automatic Execution Triggers**: Set up automatic application execution triggered by issue creation or pull request submission
* **Output Sharing**: Functions as a GitHub App, allowing all team members with access to the connected repository to share output results
This enables you to incorporate functions from your personally created My App into your entire team's workflow.
## Differences Between My App and Team App
My App has the following limitations:
* **Editing Permissions**: Only the creator of the app can edit the application itself
* **Viewing Restrictions**: Viewing the application settings and configuration is also limited to the creator
To remove these restrictions and enable collaborative editing and viewing of applications with multiple members, you need to become a Pro user and create a team. After creating a team, collaborative management becomes possible as a Team App.
## Use Cases for My App
* **Personal Productivity Enhancement**: Create AI applications that assist with daily work and research
* **Project Automation**: Automate development processes through GitHub integration
* **Code Review Support**: Automatically run code analysis when pull requests are created
## Getting Started
1. Create a [Giselle account](https://studio.giselles.ai/signup)
2. Create a new My App from "New App+"
3. Select and configure the necessary AI models and data sources
4. [Build](workspaces/build) your application
5. Run your application as needed
# Team Apps
Source: https://docs.giselles.ai/en/guides/apps/teamapp
Collaborate and manage AI applications with your team
Team Apps are collaborative AI applications that enable multiple team members to create, edit, and manage applications together on the Giselle AI App Builder platform. With Team Apps, you can leverage the collective expertise of your team to build more sophisticated AI solutions by combining multiple AI models and data sources.
## Key Features
### Collaborative Application Building
* **Shared Editing Access**: Multiple team members can edit and refine the same application
* **Collaborative Configuration**: Team members can jointly configure AI models and data sources
* **Version History**: Track changes and contributions from different team members
### Team Management
* **Permission Controls**: Assign different roles and access levels to team members
* **Shared Visibility**: All team members can view application settings and configurations
* **Collective Ownership**: Applications belong to the team rather than a single creator
### Enhanced Integration Capabilities
Team Apps include all the GitHub integration features available in My Apps:
* **Repository Integration**: Connect with repositories such as GitHub
* **Automatic Execution Triggers**: Set up automatic application execution triggered by issue creation or pull request submission
* **Output Sharing**: Functions as a GitHub App, allowing all team members with access to the connected repository to share output results
## Differences Between My Apps and Team Apps
Team Apps offer several advantages over My Apps:
* **Collaborative Editing**: Multiple team members can edit the application, unlike My Apps where only the creator has edit access
* **Shared Viewing**: All team members can view application settings and configurations
* **Seamless Handoffs**: Team members can continue work started by colleagues
## Requirements for Team Apps
* **Pro Subscription**: Team Apps are only available to Pro users
* **Team Creation**: You must create a team before you can start using Team Apps
* **Team Members**: Invite colleagues to join your team through the team management interface
## Getting Started
1. Upgrade to a [Pro subscription](https://studio.giselles.ai/pricing)
2. Create a team from the "Teams" section in your account
3. Invite team members to join
4. Create a new Team App from "New App+" within your team workspace
5. Collaborate with your team to build, preview, and integrate your application
# Quickstart
Source: https://docs.giselles.ai/en/guides/get-started/quickstart
Build your first AI agent with Giselle in minutes! This quick start guide covers signup to running a workflow.
## Build Your First AI Agent with Giselle
Get up and running with Giselle in minutes! This quick start guide walks you through creating your first AI agent, step by step, from signup to running a complete workflow. Learn to build and test agents with our user-friendly interface.
Unlock the power of Giselle! If you're joining us for the first time, create your account on the [sign up](https://studio.giselles.ai/signup) page. If
you're already part of the Giselle community, [log in](https://studio.giselles.ai/login) to jump right in.
Go to the [Giselle Agents](https://studio.giselles.ai/agents) page and click the "New Agent" button to start creating your first Agent.
From the toolbar at the bottom, drag and drop a "Text Generator" node onto the canvas to place it. This will be the first node in your workflow.
In the "Instruction" text area, enter the prompt that you would like to give to the Agent. This text will guide how your Agent works.
```markdown
Suggest one interesting topic related to animals.
```
Click the "Generate" button located in the top right corner of the "Text Generator" node. This will execute only this node, allowing you to test your prompt and see the output.
To run the Agent as a workflow, let's add another Node. Drag the "Text Generator" node from the bottom toolbar and place it on the canvas.
To connect the two Nodes, select the first Node from the "Sources" menu in the right panel of the second Node.
Provide instructions to the second Node by entering the following into the "Instruction" text area. By feeding the output of the first Node into the second Node, the second Node will generate its output based on the first Node's output.
```markdown
Please research on the following topics:
```
Finally, click the "Run" button in the upper right corner to execute the Agent as a workflow. This will run both Nodes and generate the final output. Congratulations, you've run your first Agent as a workflow in Giselle!
# About Giselle
Source: https://docs.giselles.ai/en/guides/introduction
Welcome to the home of Giselle documentation!
Giselle is your intuitive, no-code AI application builder designed to unlock the full potential of generative AI. Whether you're automating research, streamlining team workflows, or building custom AI agents, Giselle helps you go from idea to production—fast.
Built with a powerful visual editor and seamless integrations, Giselle empowers individuals and teams to collaborate with AI like never before.
***
## Core Features
Giselle helps you create, deploy, and manage AI apps in minutes with no code. Here's how it fits into your workflow:
### Visual Node Editor
Design your AI applications using our drag-and-drop system. Automate complex tasks with clear, modular logic.
### Multi-Model AI Collaboration
Use OpenAI, Anthropic, Google Gemini, and more—together in a single app. Create powerful workflows by combining the best of each model.
### GitHub Integration
Trigger your AI apps with GitHub events—automate code reviews, documentation, or issue triaging.
### Team Knowledge Sharing
Build and refine AI agents collaboratively. Share your apps and agents with your team to scale your expertise.
***
# Billing
Source: https://docs.giselles.ai/en/guides/learn-about/billing
Manage your personal account billing and payments
## Payment Guide
This guide explains how Giselle's pricing system works, including subscription management, billing cycles, and secure payments. Giselle uses [Stripe](https://stripe.com) for simplified billing to ensure safe and reliable transactions.
***
## How to Access Billing Settings
After logging in, you can access [Settings > Team > Billing](https://studio.giselles.ai/settings/team/billing) by selecting "Billing" from the sidebar menu.
From this page, you can access the dedicated billing portal provided by Stripe.
In the Stripe billing portal, you can:
View your current subscription details
Update your payment method
View invoice history
Cancel your subscription
Subscription cancellation is possible through the Stripe management screen. You cannot cancel directly from the Giselle management interface.
***
## About the Billing Cycle
* Subscriptions are billed on a monthly recurring basis, starting from your subscription date
* Your subscription automatically renews on the same day each month (e.g., May 5)
* Payments are processed automatically through your registered payment method
***
## Current Plans and Pricing
For detailed information about our current plans and pricing options, please visit [Our Pricing page](https://giselles.ai/pricing)
Alternatively, you can refer to our documentation at [Plan](plan) for comprehensive plan details and feature comparisons.
For any specific pricing questions not covered on these pages, please contact our support team.
***
## How AI Model Usage is Billed
* The Free Plan includes 30 minutes of AI usage per month (limited-time offer)
* The Pro Plan includes unlimited AI model usage during the promotional period
* Users will be notified one month before the promotion ends
***
## How to View and Download Invoices
You can view and download your invoice history in the Stripe billing portal. Each invoice shows:
* Date of payment
* Amount charged
* Payment status
* Description of services
From the Stripe portal, you can download both invoices and receipts for your records or accounting purposes. Simply locate the invoice you need and use the download options provided.
***
## How to Update Payment Method
To update your payment information:
1. Go to the [Billing section](https://studio.giselles.ai/settings/team/billing) in Settings
2. Access the Stripe billing portal
3. Look for the "Payment Method" section
4. Modify your payment details, where you can:
* Update your credit card information
* Change to a different payment method
All changes to your payment information will be securely processed and stored by Stripe.
***
## How to Cancel a Subscription
To cancel your subscription:
1. Go to [Billing settings](https://studio.giselles.ai/settings/team/billing)
2. Click "Cancel subscription"
3. Review the cancellation information
4. Click the "Cancel subscription" button to confirm
Your subscription will remain active until the end of your current billing period. If you change your mind before the end date, you can renew your subscription.
***
## Payment Processing
* All payments are processed securely through Stripe
* Supported payment methods include major credit cards
* Payment information is stored securely by Stripe, not by Giselle
If you have questions not covered in this guide or encounter any billing-related issues, please contact: **[support@giselles.ai](mailto:support@giselles.ai)**
Include your account information and a description of your issue for prompt assistance.
# Open Source License
Source: https://docs.giselles.ai/en/guides/learn-about/open-source-license
Learn about Giselle's open-source license and how it applies to your usage
Giselle Community Edition is open-source and released under the [Apache License 2.0](https://www.apache.org/licenses/LICENSE-2.0). This allows you to freely use, modify, and distribute the software, with certain conditions. For complete terms, please refer to the [`LICENSE`](https://github.com/giselles-ai/giselle/blob/main/LICENSE) file in the GitHub repository.
This license grants you:
* Commercial and non-commercial usage
* Modification and redistribution
* Use in proprietary products (with attribution)
However, it **does not** grant use of Giselle's **name, logo, or trademarks** without explicit permission, as outlined in section 6 of the license.
If you have any questions or concerns regarding licensing or usage rights, please contact: **[support@giselles.ai](mailto:support@giselles.ai)**
We appreciate contributions from the community. For details on how to contribute, please refer to our [Contributing Guide](https://github.com/giselles-ai/giselle/blob/main/CONTRIBUTING.md).
# Plans
Source: https://docs.giselles.ai/en/guides/learn-about/plans
Understand your Giselle subscription.
## Available Plans
For the latest information about our plans and pricing options,please visit [Our Pricing page](https://giselles.ai/pricing)
### Free Plan
Ideal for solo developers exploring AI agents.
* **30 minutes** of AI model usage per month (\$3 monthly credit)
* Access to basic AI models
* Create and deploy agents with no-code builder
* Single-user account
* Managed cloud deployment
### Pro Plan
Built for growing development teams.
* **\$20/month per user**
* **Unlimited** AI model usage (limited-time promotional offer)
* Access to all premium AI models
* All Free plan features included
* Team collaboration (unlimited team size, additional user seats at \$20/user/month)
* Managed cloud deployment
* Email support
## Monthly AI Model Usage Details
Each Giselle subscription includes monthly AI model usage credits:
* **Free Plan:** Monthly limit of 30 minutes of AI usage. Once the monthly limit is reached, AI usage pauses until the next billing cycle.
* **Pro Plan:** Includes \$20 worth of monthly AI usage credits. During the current limited-time promotion, all usage beyond the standard monthly credits is unlimited at no additional cost.
AI model usage credits are refreshed monthly and unused credits do not roll over.
## Plan Changes & Billing Information
### Upgrading from Free to Pro
* When upgrading, Free plan unused credits are discarded.
* Pro plan benefits, including unlimited promotional usage, become immediately available upon upgrade.
### Downgrading from Pro to Free
* Downgrades take effect at the end of the current billing cycle.
* Pro benefits remain available until the downgrade takes effect.
### Team Membership
* **Free Plan:** Limited to a single user, with membership to only one Free team.
* **Pro Plan:** Allows multiple team memberships and unlimited team size. Each additional team member incurs a monthly fee of \$20.
### Additional Usage Costs (Pro Plan)
* During standard (non-promotional) periods, Pro plan users exceeding the \$20 monthly usage credit incur reasonable additional charges (10% fee), billed automatically at the next subscription payment cycle.
### Promotional Period
* Current unlimited usage offer for the Pro plan is temporary. Users will be notified one month before this promotion ends.
***
For detailed pricing and further information, visit the [Giselle Pricing page](https://giselles.ai/pricing) or contact [support@giselles.ai](mailto:support@giselles.ai).
# Privacy & Security
Source: https://docs.giselles.ai/en/guides/learn-about/privacy-security
Manage your account security and privacy settings
A guide to Giselle’s privacy settings, data handling, security practices, and our commitment to information protection.
Giselle is developed and operated by [ROUTE06, Inc.](https://route06.com), a company that has obtained **ISO/IEC 27001:2013 (JIS Q 27001:2014)** [certification(IS 779274)](https://www.bsigroup.com/en-US/products-and-services/assessment-and-certification/validation-and-verification/client-directory-profile/ROUTE0-0047877345-000) for its **Information Security Management System (ISMS)**. This means your data is protected not only by modern infrastructure and encryption standards but also by strict organizational policies that meet global compliance benchmarks.
***
## Quick Links
* [Privacy Policy](https://giselles.ai/legal/privacy)
* [Terms of Service](https://giselles.ai/legal/terms)
* [Billing Portal](https://studio.giselles.ai/settings/team/billing)
* [ROUTE06 ISMS Certification Announcement](https://route06.com/news/isms)
***
## ISMS Certification
ROUTE06 is officially certified under the **ISO/IEC 27001** standard by **BSI Group Japan K.K.**
* **Certification ID**: IS 779274
* **Scope**: Enterprise software provision, digital product design and development, DX consulting, and more
* **Date of Initial Certification**: February 12, 2023
> This certification demonstrates ROUTE06’s commitment to **confidentiality, integrity, and availability** of data. We continually monitor and improve our systems to maintain high standards of information security.
***
## Security Overview
Giselle benefits from ROUTE06’s ISMS-backed security infrastructure, including:
### Organizational Security
* ISMS certification under **ISO/IEC 27001:2013**
* Role-based access control for internal staff
* Regular audits, internal self-assessments, and third-party penetration tests
### Administrative Measures
* Confidentiality agreements and security training for employees
* Defined procedures for incident reporting and escalation
* Data protection roles clearly defined
### Technical Safeguards
* TLS encryption in transit
* Strict access controls and API rate limiting
* Secure cloud infrastructure (AWS, Supabase, Vercel)
### Physical Safeguards
* Secure facilities via our cloud providers
* Hardware and device-level protection policies for remote-first teams
***
Submit requests via your account or by emailing [support@giselles.ai](mailto:support@giselles.ai).
# Usage
Source: https://docs.giselles.ai/en/guides/learn-about/usage
Monitor and manage your team's resource usage
## Usage Overview
Giselle monitors and manages your team's use of its features and resources to ensure optimal performance and availability.
### Resource Metrics
Giselle internally tracks detailed metrics related to AI model utilization, distinguishing between Free and Pro plan allocations.
## Usage Limits
Each subscription plan has defined usage limits to maintain consistent service levels.
### Current Plan Limits
Subscription plans include:
* **Free plan**: Limited-time offer of 30 minutes of AI model usage (normally \$3 worth of credits per month)
* **Pro plan**: \$20 per month per member with limited-time unlimited AI model usage during the promotional period
* **Team member seats**: 1 user for Free plans; multiple users available with Pro plans at \$20/month per additional user
## Usage Reports
Giselle generates detailed internal reports on resource usage for analysis and planning.
## Usage Monitoring
Giselle regularly reviews usage data to ensure accuracy. The usage information displayed in the system is updated throughout the day, but discrepancies may occur due to API issues or other technical factors affecting the AI model.
If Giselle detects significant inconsistencies or unusual patterns in your usage data, the support team may contact you directly. Likewise, if you notice any discrepancies or have questions about your reported usage, please don't hesitate to reach out to the support team at [support@giselles.ai](mailto:support@giselles.ai).
Giselle is continuously improving its monitoring systems to provide you with the most accurate and up-to-date information possible.
# Authentication
Source: https://docs.giselles.ai/en/guides/settings/account/Authentication
Connect your Giselle account with third-party services to simplify login.
You can access the Authentication settings page by navigating to [Settings > Account > Authentication](https://studio.giselles.ai/settings/account/authentication).
### Connecting External Services
You can connect your Giselle account with external services such as Google and GitHub to streamline the login process. You can easily manage these connections:
* **Google**\
Connect or reconnect your Giselle account with your Google account.
* **GitHub**\
Connect or disconnect your Giselle account with your GitHub account.
You can manage your connections directly from the Authentication settings page.
# General
Source: https://docs.giselles.ai/en/guides/settings/account/general
Configure your account basic settings and preferences
You can access the General settings page by navigating to [Settings > Account > General](https://studio.giselles.ai/settings/account/general).
### Display Name
You can edit your display name by clicking the "Edit" button on the General Settings page, entering your preferred name, and clicking "Save".
### Email Address
Your email address is displayed here and is used for account-related notifications. This email address cannot be edited directly in this view.
### Session Management
You can securely log out of all active sessions by clicking the "Log Out" button in the Session section.
Our team is actively working to bring additional configuration options to you soon. Stay tuned for updates!
# Overview
Source: https://docs.giselles.ai/en/guides/settings/account/overview
View and manage your teams
You can view and manage your teams on the [Settings > Account > Overview](https://studio.giselles.ai/settings/account) page.
### Teams
* View a list of your current teams.
* Create new teams from the Account Overview page.
**Note**: Creating multiple teams requires upgrading to a paid (Pro) plan.
We're actively working to bring additional configuration options soon. Stay tuned for updates!
# Billing
Source: https://docs.giselles.ai/en/guides/settings/team/billing
Check your current subscription status.
You can access the Billing page by navigating to [Settings > Team > Billing](https://studio.giselles.ai/settings/team/billing).
### Your Current Plan
On this page, you can view the status of your subscription plan.
You can manage your subscription, including cancellations, payment method changes, and accessing receipts or invoices through the Stripe dashboard. To access Stripe, go to [Settings > Team > Billing](https://studio.giselles.ai/settings/team/billing) and select "Update" under the payment information section.
If you have any questions about your subscription, please visit our [plans and pricing page](https://studio.giselles.ai/settings/team/billing).
Our team is continuously working on additional enhancements and options to better support your billing needs. Stay tuned for updates.
# General
Source: https://docs.giselles.ai/en/guides/settings/team/general
Configure your teams basic settings and preferences
You can access the General settings page by navigating to [Settings > Team > General](https://studio.giselles.ai/settings/team).
### Team Name
You can edit your team name by clicking the "Edit" button on the General Settings page.
### Team Deletion
If needed, you can permanently delete your team and all associated data from the Giselle platform. This action cannot be undone, so please proceed with caution.
Our team is actively working to bring these additional configuration options to you soon. Stay tuned for updates!
# Integrations
Source: https://docs.giselles.ai/en/guides/settings/team/integrations
Configure, manage, and oversee integrations with your Giselle AI apps.
You can access the Integrations page by navigating to [Settings > Team > Integrations](https://studio.giselles.ai/settings/team/integrations).
## Integrations Overview
The Integrations page enables administrators and team owners to efficiently connect and manage third-party integrations with your Giselle AI apps. You can link new integrations, adjust integration permissions, and remove integrations as needed.
## Managing Integrations
### Configure New Integrations
To configure a new integration:
1. Click **Configure Giselle's GitHub App** or the relevant integration option.
2. Follow the prompts to authorize and link your external accounts or services.
### Integration Permissions
* **Public**: Accessible to all team members with appropriate roles.
* **Private**: Restricted access, visible and manageable only by specific users or administrators.
### Adjusting Integration Settings
To change settings or permissions for an integration:
* Select the integration you want to modify and adjust permissions or settings as necessary.
### Removing Integrations
To remove a GitHub integration:
1. Go to your GitHub account settings.
2. Navigate to **Settings > Applications > Installed GitHub Apps**.
3. Locate the Giselle AI integration and click **Uninstall** under the Danger Zone section.
Removing an integration will revoke all related permissions and access immediately.
## Integration Details
Each integration entry displays the integration's name and access level (Public or Private). Integrations without specified details will appear clearly labeled with their default settings.
For assistance or if you encounter issues managing integrations, please contact our support team at [support@giselles.ai](mailto:support@giselles.ai).
# Members
Source: https://docs.giselles.ai/en/guides/settings/team/members
Invite, manage, and oversee team members' access to your Giselle AI apps.
You can access the Members page by navigating to [Settings > Team > Members](https://studio.giselles.ai/settings/team/members).
## Members Overview
The Members page allows administrators and team owners to manage and organize member access within your Giselle AI apps efficiently. You can invite new members, modify roles, and remove users as needed.
## Managing Members
### Invite New Members
To add a new member:
1. Enter the member's email address in the input field provided.
2. Select the appropriate role (e.g., Member or Admin).
3. Click **Invite** to send the invitation.
### Member Roles
* **Admin**: Full access to manage members, integrations, billing, and other settings.
* **Member**: Standard user access to AI apps without administrative privileges.
### Modify Member Access
To change a member’s access:
* Click the **Manage Access** button next to the user's name to adjust their role or permissions.
### Removing Members
To remove a member from your team:
1. Click on the options icon (**...**) next to the member’s name.
2. Select **Remove from Team**.
Removing a member will revoke all their access to Giselle AI apps immediately.
## Member Details
Each member entry displays the user's email address and assigned role. Members without a specified display name will appear as **No display name**.
For assistance or if you encounter issues managing team members, please contact our support team at [support@giselles.ai](mailto:support@giselles.ai).
# Usage
Source: https://docs.giselles.ai/en/guides/settings/team/usage
Monitor and manage your team's AI app usage
You can access the Usage page by navigating to [Settings > Team > Usage](https://studio.giselles.ai/settings/team/usage).
## Usage Overview
Monitor your team's AI app usage clearly and efficiently. Recently, we've transitioned from calculating usage based on minutes to a credit-based system.
### Resource Metrics
Giselle tracks your team's AI app runtime in minutes for informational purposes only. This monitoring currently does not directly relate to your billing, as billing is now calculated through credits.
## Usage Limits
Your subscription plan includes AI model usage credits each month:
* **Free Plan**: 30 minutes per month (limited-time promotion)
* **Pro Plan**: Unlimited usage during the promotional period
Note: App runtime displayed in minutes is separate from your actual billed credits.
## Usage Reports
Detailed logs of recent app activities, including start time, end time, and total duration, are provided for easy tracking.
## Usage Monitoring
Giselle continuously updates app usage throughout the day. We are currently transitioning from time-based to credit-based monitoring. Parts of the previous UI remain and might cause confusion.
If you find anything unclear or have concerns regarding your usage, please contact our support team at [support@giselles.ai](mailto:support@giselles.ai).
# Build
Source: https://docs.giselles.ai/en/guides/workspaces/build
Learn how to build and configure workspaces in Giselle
TBD
# Anthropic
Source: https://docs.giselles.ai/en/models/providers/anthropic
Available Anthropic AI Models Overview.
## Claude Models
The following Claude models are available in the Anthropic workspace. Each model offers specific capabilities and features tailored to match your use case requirements. The "Reasoning" (Extended Thinking) capability is supported in Giselle for applicable models.
| Models | Generate Text | Web Search | Reasoning | Input PDF | Input Image | Context Window | Max Output | Plan\@Giselle |
| :----------------------------- | :------------ | :--------- | :-------- | :-------- | :---------- | :------------- | :---------- | :------------ |
| **claude-opus-4-1-20250805** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 32k tokens | Pro |
| **claude-4-opus-20250514** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 32k tokens | Pro |
| **claude-4-sonnet-20250514** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 64k tokens | Pro |
| **claude-3-7-sonnet-20250219** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 64k tokens | Pro |
| **claude-3-5-haiku-20241022** | ✅ | ✅ | ❌ | ✅ | ✅ | 200k tokens | 8192 tokens | Free |
Please note that some features may not be available within Giselle even if they are offered in the official API. Extended thinking mode and other Anthropic API features will be gradually implemented within Giselle.
### claude-opus-4-1-20250805
Claude Opus 4.1 is Anthropic's most powerful model, designed as the ultimate coding powerhouse. It excels at complex multi-step coding, sustained long-running tasks, and advanced reasoning. With a 200k token context window and the ability to output up to 32k tokens, Opus 4.1 delivers sustained performance for several hours and is ideal for projects requiring deep understanding and persistence, such as complex refactoring or multi-repository analysis. It supports text and image inputs.
### claude-4-opus-20250514
Claude Opus 4 is Anthropic's most powerful model, designed as the ultimate coding powerhouse. It excels at complex multi-step coding, sustained long-running tasks, and advanced reasoning. With a 200k token context window and the ability to output up to 32k tokens, Opus 4 delivers sustained performance for several hours and is ideal for projects requiring deep understanding and persistence, such as complex refactoring or multi-repository analysis. It supports text and image inputs.
### claude-4-sonnet-20250514
Claude Sonnet 4 is a balanced performance champion, offering high intelligence with an optimal cost-performance balance. It's suited for everyday coding tasks, content generation, and scenarios where frontier-level performance is needed without premium costs. Sonnet 4 features a 200k token context window, can output up to 64k tokens, and supports text and image inputs. It delivers exceptional value across most use cases, providing superior efficiency for a wide range of applications.
### claude-3-7-sonnet-20250219
An advanced model offering superior intelligence and reasoning capabilities. Ideal for handling complex tasks, extended reasoning, detailed analyses, and multimodal tasks involving PDFs and images. It includes an extensive context window of up to 200k tokens with optional extended thinking capabilities allowing outputs up to 64k tokens (128k tokens available in beta).
### claude-3-5-haiku-20241022
Optimized for speed, this model is ideal for real-time responsiveness. It supports PDF and image inputs with rapid text generation, suitable for fast interactions and scenarios requiring quick, concise responses within a 200k token context window.
## Model Selection Guide
Guidelines for selecting the optimal Claude model:
* **For the ultimate coding powerhouse and most complex reasoning (latest)**: `claude-opus-4-1-20250805`
* **For the ultimate coding powerhouse and most complex reasoning**: `claude-4-opus-20250514`
* **For balanced high-performance, everyday coding, and cost-effective workflows**: `claude-4-sonnet-20250514`
* **For best overall intelligence and complex reasoning (previous generation)**: `claude-3-7-sonnet-20250219`
* **When speed and immediate responsiveness matter**: `claude-3-5-haiku-20241022`
## Practices for Giselle
We recommend `claude-opus-4-1-20250805`, `claude-4-opus-20250514` or `claude-4-sonnet-20250514` as your primary models in Giselle, especially for tasks involving advanced coding, complex problem-solving, and in-depth analysis. These models feature hybrid reasoning modes, automatically switching between instant responses and extended thinking based on task complexity.
`claude-3-7-sonnet-20250219` remains a strong choice for its proven reasoning capabilities. These models excel not only at code generation, architectural design, and technical reviews but also produce remarkably natural text. Their "Reasoning" (Extended Thinking) capability, supported in Giselle, makes them particularly powerful for tasks requiring multi-step thought processes. These versatile models can be effectively utilized across a broad spectrum of tasks, from creating engaging blog articles to writing complex code implementations and performing detailed analytical work.
### Anthropic Web Search Tool
For supported Claude models, Giselle integrates the Anthropic Web Search tool, which can be configured directly from a Generator Node's **Tools** tab. This feature allows Claude to access real-time information from the web, enabling it to answer questions and generate content based on the most up-to-date data, complete with source citations.
#### Configuration
In the Generator Node, navigate to the **Tools** tab and click **Configure** next to "Anthropic Web Search." You can then:
* **Enable Tool**: Toggle the web search functionality on or off.
* **Set Maximum Uses**: Limit the number of web searches the model can perform in a single run (from 1 to 10).
* **Filter Domains**: Control the search scope by either:
* **Allowing Specific Domains**: Restricting searches to a whitelist of trusted sources.
* **Blocking Specific Domains**: Excluding certain websites from the search results.
For detailed specifications, performance benchmarks, or additional assistance, please refer to the [Anthropic API Documentation](https://docs.anthropic.com/en/docs/about-claude/models/all-models) and the [Claude 4 announcement](https://www.anthropic.com/news/claude-4).
# fal.ai
Source: https://docs.giselles.ai/en/models/providers/fal
Overview of Available fal.ai Image Generation Models.
## fal.ai Image Generation Models
The following image generation models are available in the fal.ai workspace. Each model provides distinct features suited to different use cases, balancing speed, detail, and artistic fidelity.
| Models | Text-to-Image | Speed | Detail & Fidelity | Typography | Inference Steps | Safety Checker | Plan\@Giselle |
| -------------------------- | ------------- | ---------- | ----------------- | ------------ | ---------------- | ------------------------ | ------------- |
| flux-pro/v1.1 | ✅ | ⚡️ High | ⭐️⭐️⭐️⭐️⭐️ | ✅ | Optimized | ✅ (Tolerance levels 1-6) | Free |
| flux/schnell | ✅ | ⚡️⚡️ Turbo | ⭐️⭐️⭐️⭐️ | ✅ | 1-4 steps | ✅ | Pro |
| stable-diffusion-v3-medium | ✅ | Moderate | ⭐️⭐️⭐️⭐️⭐️ | ✅ (Enhanced) | Default 28 steps | ✅ | Pro |
Please note that some features may not be available within Giselle even if they are offered in the official API.
### flux-pro/v1.1
Enhanced version of FLUX.1, offering superior composition, detail, and artistic fidelity. With significantly accelerated speeds (up to 10x), it provides excellent results for professional-grade visual content. Includes adjustable safety tolerance levels, detailed typography support, and optimized inference steps for efficiency.
### flux/schnell
A highly efficient 12-billion-parameter model, optimized for extremely fast image generation (1-4 steps). Ideal for use-cases requiring rapid image production without significant compromise on quality. Suitable for both personal and commercial purposes, with built-in safety checking.
### stable-diffusion-v3-medium
An advanced Multimodal Diffusion Transformer (MMDiT) model that significantly improves image quality, typography handling, prompt comprehension, and overall efficiency. Provides excellent balance between quality and speed with enhanced typography capabilities and standard inference steps.
## Model Selection Guide
Guidelines for selecting the optimal fal.ai model:
* **For highest artistic fidelity and professional results**: flux-pro/v1.1
* **For fastest image generation**: flux/schnell
* **For balanced image quality, typography, and efficiency**: stable-diffusion-v3-medium
## Practices for Giselle
We recommend flux-pro/v1.1 as your primary choice when exceptional detail, artistic accuracy, and overall superior image quality are essential. For real-time applications or projects requiring quick visual feedback, flux/schnell provides the necessary speed. When needing a versatile balance of quality, efficiency, and typographic precision, stable-diffusion-v3-medium is highly recommended.
For detailed specifications, integration guides, and further assistance, please refer to the [fal.ai API Documentation](https://fal.ai/models).
# Google
Source: https://docs.giselles.ai/en/models/providers/google
Available Google AI Models Overview.
## Gemini
The following Gemini models are available in the Giselle workspace. Each model offers specific capabilities and features to match your use case requirements.
| Models | Generate Text | Web Search | Reasoning | Input PDF | Input Image | Input Audio | Input Video | Context Window | Plan\@Giselle |
| --------------------- | ------------- | ---------- | --------- | --------- | ----------- | ----------- | ----------- | ------------------- | ------------- |
| gemini-2.5-pro | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | 1M tokens (2M soon) | Pro |
| gemini-2.5-flash | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | 1M tokens | Pro |
| gemini-2.5-flash-lite | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | 1M tokens | Free |
*Note: Some features may not be available within Giselle even if they are offered in the Google official API. Features marked 'Free' or 'Pro' refer to the Giselle subscription plan required to access them.*
### gemini-2.5-pro
The next-generation comprehensive model. It provides state-of-the-art capabilities, including text generation, web search, advanced reasoning, and robust coding features. It supports a wide range of input formats (PDF, images, audio, video) and has a 1 million token context window (expansion to 2 million tokens planned). Ideal for users wanting to experiment with the latest advancements for complex problems and deep multimodal understanding. Requires a Pro plan.
### gemini-2.5-flash
The next-generation Flash model, optimized for speed *and* reasoning. It offers fast text generation, web search, reasoning capabilities, and supports various inputs (PDF, images, audio, video). With a 1 million token context window, it's ideal for tasks requiring quick responses combined with analytical depth and multimodal understanding. Requires a Pro plan.
### gemini-2.5-flash-lite
The next-generation Flash Lite model, `gemini-2.5-flash-lite` is designed for maximum efficiency and the quickest possible responses. It supports text generation, web search, and multimodal inputs (PDF, image, audio, video). With a 1M token context window, it's ideal for high-throughput tasks and applications where immediate feedback is paramount. Available on the Free plan.
## Model Selection Guide
Guidelines for selecting the optimal model based on your needs and plan:
**Free Plan Models:**
* **For extremely fast responses and efficiency**: `gemini-2.5-flash-lite` (Maximum speed)
**Pro Plan Models:**
* **For best overall performance and complex tasks**: `gemini-2.5-pro` (Most powerful, all features)
* **For fast responses with reasoning**: `gemini-2.5-flash` (Speed + Reasoning balance)
## Practices for Giselle
We recommend `gemini-2.5-pro` (Pro plan) as your primary model in Giselle due to its proven power and stability for complex tasks. It is capable of processing large volumes of data, executing complex code reviews, and handling a wide variety of business tasks.
For users prioritizing speed on the Free plan, `gemini-2.5-flash-lite` is an excellent option. Pro users seeking a balance of speed and reasoning might consider the `gemini-2.5-flash`.
By enabling the **Search grounding** feature with these models (where applicable), you can access web search functionality, allowing you to supplement your workflows with the most current information available.
For detailed specifications, performance benchmarks, or additional assistance, please check [Google AI for Developers](https://ai.google.dev/gemini-api/docs/models).
# OpenAI
Source: https://docs.giselles.ai/en/models/providers/openai
Overview of available OpenAI Models within the Giselle workspace.
Explore the OpenAI models available in the Giselle workspace. These models are categorized based on their primary strengths and use cases, reflecting OpenAI's platform structure.
## Quick Comparison
The following table summarizes the key features of the OpenAI models available in Giselle.
| Models | Generate Text | Input Image | Web Search | Reasoning | Context Window | Max Output Tokens | Pricing (Input/Output per 1M tokens) | Availability |
| ----------- | ------------- | ----------- | ---------- | ----------- | -------------- | ----------------- | ------------------------------------ | ------------ |
| gpt-5 | ✅ | ✅ | ✅ | ✅ (Highest) | 400k tokens | 128k tokens | $1.25 / $10.00 | Pro |
| gpt-5-mini | ✅ | ✅ | ✅ | ✅ (High) | 400k tokens | 128k tokens | $0.25 / $2.00 | Pro |
| gpt-5-nano | ✅ | ✅ | ❌ | ✅ (Medium) | 400k tokens | 128k tokens | $0.05 / $0.40 | Free |
| gpt-image-1 | ❌ | ✅ | ❌ | ❌ | Unknown | N/A | $5.00 / $40.00 | Pro |
*Please note that some features listed (like specific API functionalities e.g., fine-tuning, batch processing, specific tool use like audio or transcription) may not be directly exposed or available within the Giselle interface even if supported by the underlying OpenAI model.*
## GPT-5 Series Models
Introducing the GPT-5 series, OpenAI's latest and most advanced family of models. These models set new benchmarks for performance across a wide range of tasks, featuring enhanced reasoning capabilities, faster speeds, and improved efficiency.
### gpt-5
GPT-5 is OpenAI's flagship model, setting a new standard for coding, complex reasoning, and agentic tasks across various domains. It features built-in expert-level intelligence and a deeper reasoning engine, making it exceptionally capable for multi-step problems, technical writing, and analyzing text, code, and images. It supports web search functionality.
* **Context Window:** 400,000 tokens
* **Max Output Tokens:** 128,000 tokens
* **Knowledge Cutoff:** October 1, 2024
* **Inputs:** Text, Image
* **Availability:** Pro Plan
### gpt-5-mini
GPT-5 mini is a faster, more cost-efficient version of GPT-5, optimized for well-defined tasks. It balances intelligence, speed, and affordability while maintaining strong reasoning capabilities. It supports image inputs and web search, making it a versatile choice for many common use cases.
* **Context Window:** 400,000 tokens
* **Max Output Tokens:** 128,000 tokens
* **Knowledge Cutoff:** May 31, 2024
* **Inputs:** Text, Image
* **Availability:** Pro Plan
### gpt-5-nano
GPT-5 nano is the fastest and most cost-effective model in the GPT-5 series. It is designed for high-throughput tasks like summarization and classification, providing quick and efficient performance. It supports text and image inputs but does not include web search functionality.
* **Context Window:** 400,000 tokens
* **Max Output Tokens:** 128,000 tokens
* **Knowledge Cutoff:** May 31, 2024
* **Inputs:** Text, Image
* **Availability:** Free Plan
## Image Generation Models
These models are specialized in generating high-quality images from text and image inputs.
### gpt-image-1
OpenAI's state-of-the-art image generation model. It is a natively multimodal language model that accepts both text and image inputs and produces image outputs. The model offers different quality levels (Low, Medium, High) and supports various image dimensions, allowing for flexible generation based on use case requirements.
* **Pricing:** Input text: $5.00 per 1M tokens, Input images: $10.00 per 1M tokens, Output images: \$40.00 per 1M tokens
* **Quality Options:** Low, Medium, High
* **Supported Dimensions:** 1024x1024, 1024x1536, 1536x1024
* **Knowledge Cutoff:** April 2025 (estimate based on release date)
* **Inputs:** Text, Image
* **Outputs:** Image
* **Availability:** Pro Plan
## Model Selection Guide
Guidelines for selecting the optimal OpenAI model within Giselle:
* **For the best overall performance, coding, agentic tasks, and highest reasoning**: `gpt-5` (Pro)
* **For a faster, cost-efficient version of GPT-5 for well-defined tasks**: `gpt-5-mini` (Pro)
* **For the fastest, most cost-effective version of GPT-5 for summarization and classification**: `gpt-5-nano` (Free)
* **For high-quality image generation from text or image inputs**: `gpt-image-1` (Pro)
## Practices for Giselle
We recommend **gpt-5** as the versatile primary model in Giselle for Pro users. It offers an unparalleled balance of capability, intelligence, and features (including web search via tool) across various tasks like complex coding, business document creation, in-depth analysis, and advanced research. GPT-5 is designed to be highly reliable and accurate, significantly reducing hallucinations and improving instruction following.
For Pro users requiring a balance of speed and cost-efficiency for well-defined tasks, **gpt-5-mini** is an excellent choice, maintaining strong reasoning and multimodal capabilities.
For Free plan users or those prioritizing the fastest and most cost-effective solution for high-throughput tasks like summarization and classification, **gpt-5-nano** is the recommended model.
**Automatic Fallback for Deprecated Models:**
Giselle now automatically maps previously available OpenAI models to the new GPT-5 series to ensure a seamless transition for existing workflows.
* **Models now mapping to `gpt-5` (Pro)**: `gpt-4o`, `o3`, `gpt-4.1`, `o1`, `gpt-4-turbo`, `gpt-4`, `gpt-3.5-turbo`
* **Models now mapping to `gpt-5-mini` (Pro)**: `o4-mini`, `gpt-4.1-mini`, `o3-mini`, `o1-mini`, `gpt-4o-mini`
* **Models now mapping to `gpt-5-nano` (Free)**: `gpt-4.1-nano`
For image generation needs, **gpt-image-1** provides high-quality results and supports both text and image inputs. The model offers different quality tiers to balance cost and detail based on specific requirements.
By combining these models in workflows, you can leverage their specific strengths. For example, use `gpt-5` for its advanced reasoning and coding, `gpt-5-mini` for cost-efficient tasks, or `gpt-5-nano` for rapid, high-volume operations.
For detailed specifications and the full range of models offered directly by OpenAI, please check the [Official OpenAI Documentation](https://platform.openai.com/docs/models).
# Overview
Source: https://docs.giselles.ai/en/models/providers/overview
AI Model Providers.
This document provides an overview of the AI providers available through Giselle's Generator Nodes. Giselle integrates with multiple AI providers' APIs to offer you a diverse range of capabilities for your workflows.
## Provider Overview
### Anthropic
Anthropic focuses on developing AI systems that are reliable, interpretable, and steerable. Their Claude models are designed with an emphasis on helpfulness, harmlessness, and honesty, making them excellent for applications requiring nuanced understanding and safe outputs.
**Key models:**
* Claude 3.7 Sonnet - Latest model with advanced reasoning capabilities
* Claude 3.5 Sonnet - Balanced model for general applications
* Claude 3.5 Haiku - Speed-optimized model for rapid responses
### Google AI
Google's Gemini models represent their most capable and versatile AI systems. These models excel at multimodal tasks and offer extensive context windows, making them suitable for complex, context-rich applications and varied input types.
**Key models:**
* Gemini 2.5 Pro - Comprehensive model with multimodal capabilities and web search
* Gemini 2.0 Flash - Speed-optimized model for quick responses
* Gemini 2.0 Flash Thinking - Reasoning-focused rapid response model
### OpenAI
OpenAI provides a range of powerful models with particular strengths in code generation, creative content, and structured outputs. Their models feature robust function calling capabilities and strong performance across diverse domains.
**Key models:**
* GPT-4o - Flagship multimodal model with comprehensive capabilities
* GPT-4o-mini - Fast, affordable small model for focused tasks
* o3-mini - Reasoning-optimized small model with large token limits
### Fal AI
Fal AI focuses on image generation models that balance quality, speed, and versatility. Their models are designed for various creative and commercial applications, offering different optimization profiles to suit diverse needs.
**Key models:**
* flux-pro/v1.1 - High-quality image generation with superior composition and detail
* flux/schnell - Ultra-fast image generation for time-sensitive applications
* stable-diffusion-v3-medium - Balanced model with enhanced typography capabilities
## Use Cases in Giselle
### Content Creation Workflows
* **Anthropic (Claude)**: Ideal for drafting nuanced business documents, creating policy content, and generating well-reasoned explanations in Giselle workflows. Claude models are particularly effective when handling sensitive subject matter or when ethical considerations are paramount.
* **Google (Gemini)**: Perfect for Giselle workflows involving mixed media inputs. Use Gemini models when your workflow processes documents containing text, images, and other media formats simultaneously. Their large context window makes them excellent for analyzing extensive documentation or research materials.
* **OpenAI (GPT)**: Excellent choice in Giselle for technical documentation workflows, code generation pipelines, and creative content production. The structured output capabilities make GPT models particularly useful when your Giselle workflow needs to generate content in specific formats or extract structured data.
### Visual Content Workflows
* **Fal AI**: Essential for Giselle workflows involving image generation tasks. Use flux-pro for high-quality marketing visuals, flux/schnell for rapid prototyping and iterative design processes, and stable-diffusion for balanced results with typography requirements.
### Multi-Provider Workflows
One of Giselle's strengths is the ability to combine different providers in a single workflow:
* Use different models to gather information, analyze implications, and format the findings into structured documentation
* Combine Gemini's multimodal analysis with Fal AI's image generation to create visual content based on document analysis
* Leverage different models' strengths in sequential nodes to optimize cost/performance at each workflow stage
## Future Roadmap
At Giselle, we're committed to continuously expanding our provider integrations and updating our supported models as the AI landscape evolves. We regularly assess new models and capabilities to ensure you have access to cutting-edge AI technology that best serves your needs.
We value your input on which models and providers you'd like to see added to our platform. If you have specific requests or feedback about our current offerings, please don't hesitate to contact us.
## Additional Resources
For detailed specifications and documentation on each provider's models:
* [Anthropic Documentation](https://docs.anthropic.com/)
* [Google AI for Developers](https://ai.google.dev/)
* [OpenAI Documentation](https://platform.openai.com/docs)
* [Fal.ai Models](https://fal.ai/models)
# Examples
Source: https://docs.giselles.ai/en/prompts/examples
Effective Prompt Examples in Giselle’s Generator Nodes.
This document provides effective and concrete prompt examples tailored specifically for Giselle's Generator Nodes, leveraging various multimodal AI models including Anthropic's Claude, Google's Gemini, OpenAI's GPT-4o, and Fal AI for image generation.
## Basic Examples
### 1. Technical Query using GPT-4o
```plaintext
Role: Experienced programmer
Task:
Explain the most efficient way to extract unique elements from a Python list.
Output Format:
- Brief explanation
- Python code example demonstrating the method clearly
```
**Why this prompt is effective:**
* Clear role definition aligns the AI’s perspective.
* Explicit instruction and clear output expectations.
* Specifies programming language explicitly.
### 2. Image Generation with Fal AI
```plaintext
Role: Graphic designer
Task:
Generate a high-quality, minimalist logo for a technology startup named "QuantumLeap."
Constraints:
- Model: flux-pro/v1.1
- Color scheme: Blue and white
- Style: Modern, minimalistic
Output Format:
- PNG image (1024x1024)
```
**Why this prompt is effective:**
* Clearly defines role and creative constraints.
* Utilizes specific Fal AI model for high-quality outputs.
* Precise output format suitable for immediate use.
## Advanced Examples
### 1. Multimodal Analysis with Gemini
```plaintext
Role: Industry analyst
Task:
Analyze the attached PDF industry report and the accompanying infographic image.
Steps:
1. Summarize key findings from the PDF.
2. Identify and explain trends visible in the infographic.
3. Recommend strategic actions based on combined insights.
Constraints:
- Model: Gemini 2.5 Pro
Output Format:
- Concise summary
- Clearly explained visual trends
- Strategic recommendations as bullet points
```
**Why this prompt is effective:**
* Clearly utilizes Gemini’s multimodal capabilities.
* Sequential and structured instructions.
* Explicitly states the model to ensure precise capability usage.
### 2. Ethical Analysis and Content Structuring with Claude
```plaintext
Role: Ethics consultant
Task:
Review the provided research paper on AI surveillance technologies.
Steps:
1. Identify ethical implications.
2. Suggest practical ethical guidelines for deployment.
Constraints:
- Model: Claude 3.7 Sonnet
Output Format:
- Ethical implications listed clearly
- Practical guidelines structured as actionable points
```
**Why this prompt is effective:**
* Aligns task specifically with Claude's strengths in nuanced understanding.
* Structured clearly to maximize Claude's reasoning and analytical capabilities.
## Integrated Workflow Examples
### 1. Comprehensive Market Research Workflow
```plaintext
Step 1 (Claude 3.7 Sonnet):
Role: Market researcher and sustainability analyst
Task: Research sustainable food packaging trends and analyze their ethical and sustainability implications.
Output Format: Analysis summary and recommendations.
Step 2 (GPT-4o):
Role: Technical writer
Task: Format the insights and recommendations into a structured industry report.
Output Format: Professional document in markdown format.
Step 3 (Fal AI flux-pro/v1.1):
Role: Graphic designer
Task: Generate a compelling visual cover image for the final report.
Constraints: Sustainability theme, professional style
Output Format: High-quality cover image (PNG, 1200x800)
```
**Why this prompt is effective:**
* Clearly leverages strengths of multiple AI models sequentially.
* Structured, integrated steps with explicit model assignments.
* Produces comprehensive, ready-to-use workflow outputs.
## Key Effective Elements in Giselle Prompts
Effective Giselle Generator Node prompts typically include:
* **Explicit Role Definitions**
* **Clear Constraints and Context**
* **Structured Output Formats**
* **Sequential or Stepwise Instructions**
* **Specific Model Selections for Capabilities**
For additional guidance and practical tips on creating impactful prompts, refer to [tips.mdx](./tips).
# Overview
Source: https://docs.giselles.ai/en/prompts/overview
Prompt Engineering in Giselle’s Node-Based UI.
Prompt engineering involves crafting and refining prompts—structured instructions designed to guide AI models toward precise and high-quality outputs. Giselle enhances this practice through a rich node-based UI called Generator Nodes, enabling intuitive, visual, and efficient prompt construction.
## What is a Prompt in Giselle?
In Giselle, prompts are carefully structured instructions provided individually within each Generator Node through a rich text editor. Unlike conversational interfaces, Giselle primarily uses one-shot prompting, allowing each node to independently deliver precise instructions and receive AI-generated outputs tailored to specific tasks.
Each prompt typically includes:
* **Role Definition**: Specifies the AI model’s intended expertise or persona.
* **Task Instructions**: Clearly states the task the model needs to perform.
* **Context**: Provides relevant background information and supporting data.
* **Input Data**: Delivers specific information or data sources for processing.
* **Output Format**: Defines the required format and structure of the AI’s response.
## Why Effective Prompts Matter
Creating effective prompts in Giselle's Generator Nodes significantly enhances AI-driven workflows by:
* **Improving Output Quality**: Clearly articulated prompts result in accurate and relevant responses.
* **Minimizing Errors**: Reduces the likelihood of misunderstandings or incorrect outputs.
* **Ensuring Consistency**: Promotes uniformity and reliability in outputs, crucial for downstream tasks.
* **Optimizing Resources**: Well-crafted prompts reduce token consumption and processing time, enhancing cost efficiency.
## Leveraging Giselle’s Generator Nodes
Giselle’s Generator Nodes provide a robust platform for prompt engineering, allowing teams to:
* **Adjust Model Parameters**: Fine-tune various LLM settings to suit specific task requirements.
* **Integrate Diverse Data Sources**: Incorporate multiple data inputs and seamlessly manage them across nodes.
* **Share Data Between Nodes**: Reuse outputs generated in one node as inputs for subsequent nodes, enabling sophisticated workflow automation.
* **Visualize Workflows**: Clearly map out intellectual production processes for improved transparency, collaboration, and understanding within teams.
## Recommended Practices
To maximize the effectiveness of Giselle’s Generator Nodes, adhere to the following practices:
* **Clearly Define Roles**: Explicitly establish the AI’s expected perspective or expertise.
* **Write Precise Instructions**: Avoid ambiguity by providing clear, concise task descriptions.
* **Provide Relevant Context**: Supply comprehensive background information to enhance understanding.
* **Specify Structured Outputs**: Always include detailed output formatting to maintain consistency.
* **Iteratively Refine Prompts**: Regularly test and refine prompts within the node-based UI to continuously improve outputs.
Understanding the fundamentals of prompt engineering is crucial, as effectively designed prompts significantly influence the quality and reliability of AI-generated outputs.
For detailed prompt examples, see [examples.mdx](./examples). For additional practical tips, refer to [tips.mdx](./tips).
# Tips
Source: https://docs.giselles.ai/en/prompts/tips
Practical Tips for Effective Prompt Creation in Giselle’s Generator Nodes.
This document provides concrete, actionable tips tailored specifically for creating effective prompts within Giselle’s Generator Nodes. Unlike conversational UIs, Giselle uses a single-shot prompting model, meaning each prompt must be precise and complete on its own. While direct iterative refinement through conversation within a single node isn't possible, strategically chaining multiple nodes can significantly elevate the output quality through careful node integration and diverse data sourcing.
## Essential Principles
### 1. Ensure Clarity and Precision
* Clearly define the AI model’s role.
* Provide explicit, focused instructions without ambiguity.
```plaintext
❌ Poor example:
"Describe a useful invention."
✅ Good example:
"Role: Technology historian
Task: Provide a concise summary (100 words max) of the invention of the telephone, highlighting its historical significance and modern impact.
Output Format:
- Summary paragraph
- Clearly stated historical context and modern relevance"
```
### 2. Include Comprehensive Context
* Provide necessary background and purpose clearly in your prompt.
* Explicitly state constraints or expectations relevant to the task.
### 3. Specify Structured Outputs
* Clearly outline the desired response structure, length, and style.
* Define formats explicitly (e.g., bullet points, structured paragraphs, JSON, image dimensions).
## Advanced Node Integration Techniques
### 1. Effective Role Definition
Defining roles guides the AI to produce contextually accurate outputs:
```plaintext
✅ Example:
"Role: UX Designer
Task: Evaluate the provided web interface design for usability issues.
Output Format:
- List identified issues clearly
- Provide specific recommendations for improvements"
```
### 2. Sequential Node Chaining
Although Giselle nodes are single-shot, you can achieve iterative refinement by chaining multiple nodes:
1. **Ideation Node**: Generate initial ideas or concepts.
2. **Drafting Node**: Develop detailed drafts from initial concepts.
3. **Review Node**: Critically evaluate drafts and suggest improvements.
### 3. Leveraging Multi-Node Workflows
Combine diverse AI models across nodes to maximize output quality:
* **Claude** for nuanced analysis and ethical considerations.
* **GPT-4o** for structured and creative content creation.
* **Fal AI** for high-quality image and visual content generation.
## Common Pitfalls to Avoid
### 1. Overly Restrictive Instructions
Avoid excessively rigid constraints:
```plaintext
❌ Avoid:
"Create a detailed report exactly 200 words, including exactly four examples."
```
### 2. Contradictory or Confusing Instructions
Ensure instructions remain logically consistent:
```plaintext
❌ Avoid:
"Provide a highly detailed yet simple explanation using advanced terminology."
```
### 3. Ambiguous or Incomplete Prompts
Avoid vague instructions that lead to unclear outputs:
```plaintext
❌ Avoid:
"Explain something useful."
```
## Optimizing Giselle Workflows
### 1. Iterative Node Refinement
* Regularly review outputs from each node to optimize subsequent prompts.
* Use multiple nodes strategically to iteratively refine concepts, drafts, and final outputs.
### 2. Strategic Use of Templates
Leverage prompt templates for consistent, effective outputs:
```plaintext
✅ Giselle Template:
Role: [Defined AI role]
Task: [Explicit, precise task description]
Constraints:
- [Specific constraint or limitation]
- [Additional constraints as necessary]
Input Data:
- [Clearly referenced or provided data]
Output Format:
- [Detailed expected structure of response]
```
## Giselle-Specific Recommendations
### 1. Select Appropriate AI Models
Choose AI models carefully according to task requirements and capabilities:
* **Claude**: nuanced, ethical analyses.
* **Gemini**: complex multimodal inputs.
* **GPT-4o**: structured outputs and creative content.
* **Fal AI**: image generation tasks.
### 2. Visualize and Collaborate
* Clearly map your workflows visually within Giselle’s UI.
* Share your workflows with teams to enhance collaboration and clarity.
* Experiment with node combinations to achieve advanced, high-quality results beyond standard conversational interfaces.
## Key Points for Effective Giselle Prompts
* **Role Definition**: Clearly articulate the AI model’s role.
* **Precision**: Provide exact, detailed instructions.
* **Contextual Completeness**: Include essential context and constraints.
* **Output Structure**: Clearly define response formats.
* **Workflow Optimization**: Strategically chain multiple nodes to enhance output quality.
# Product Notes
Source: https://docs.giselles.ai/en/releases/product-notes
This document outlines key updates, improvements, and future prospects of our product.
## Latest Product Updates
### Public Beta
Giselle is currently available as a public beta, allowing users to test and provide feedback on our AI app building platform.
We're excited to announce that we will be officially launching on Product Hunt soon at [https://www.producthunt.com/products/giselle](https://www.producthunt.com/products/giselle).
This launch will introduce our open-source visual editor for building custom AI applications to a wider audience.
Stay tuned for the official launch date and be among the first to explore the full capabilities of Giselle.
# Release Notes
Source: https://docs.giselles.ai/en/releases/release-notes
This page provides chronological information about the latest releases and updates of our product.
TBD
## Community-Driven
We believe in building with our community. Your feedback and suggestions are essential to shaping our product direction. We actively welcome feature requests, improvement suggestions, bug reports, and use case scenarios. Please share your thoughts through [GitHub Issues](https://github.com/giselles-ai/giselle) or [GitHub Discussions](https://github.com/giselles-ai/giselle/discussions).
# Roadmap
Source: https://docs.giselles.ai/en/releases/roadmap
Discover our product development plans and upcoming milestones.
Our roadmap is currently under active development. We are working to provide a clear vision of our future plans and milestones.
## Community-Driven
We believe in building with our community. Your feedback and suggestions are essential to shaping our product direction.
We actively welcome:
* Feature requests
* Improvement suggestions
* Bug reports
* Use case scenarios
Please share your thoughts through:
* [GitHub Issues](https://github.com/giselles-ai/giselle)
* [GitHub Discussions](https://github.com/giselles-ai/giselle/discussions)
## What's Next
Stay tuned as we formalize our roadmap with specific timelines and feature sets. We'll be updating this page regularly as our plans evolve.
Note: This roadmap is subject to change without notice based on user feedback and development priorities.
# アカウント FAQ
Source: https://docs.giselles.ai/ja/faq/account-billing/accounts
Giselle アカウントについてよくある質問
TBD
# 請求 FAQ
Source: https://docs.giselles.ai/ja/faq/account-billing/billing
Giselle の請求と支払いについてよくある質問
TBD
# プラン FAQ
Source: https://docs.giselles.ai/ja/faq/account-billing/plan
Giselle のプランと機能についてよくある質問
TBD
# AI モデル FAQ
Source: https://docs.giselles.ai/ja/faq/application/ai-models
Giselle での AI モデルとその使用法についてよくある質問
TBD
# ワークスペース FAQ
Source: https://docs.giselles.ai/ja/faq/application/workspaces
Giselle のワークスペースについてよくある質問
TBD
# プライバシー・セキュリティ FAQ
Source: https://docs.giselles.ai/ja/faq/security-support/privacy-security
Giselle のプライバシーとセキュリティ対策についてよくある質問
TBD
# サポート FAQ
Source: https://docs.giselles.ai/ja/faq/security-support/support
Giselle サポートサービスについてよくある質問
TBD
# アクション ノード
Source: https://docs.giselles.ai/ja/glossary/action-node
Giselle のアクション ノードがワークフローを GitHub などの外部サービスと連携させ、リポジトリでのイシューやコメントの作成、ディスカッションの取得などのタスクを実行する方法を学びます。
## Giselle のアクション ノード
**アクション ノード**は、Giselle ワークフローを外部サービスと接続し、制御することを可能にします。橋渡しの役割を果たし、Giselle 環境を超えたタスクの自動化を可能にします。現在、主要な統合は **GitHub** との連携で、さまざまなリポジトリ操作が可能です。他の外部サービスのサポート拡大に継続的に取り組んでいます。
### GitHub アクション
アクション ノード内の GitHub アクション機能により、ワークフローは GitHub リポジトリで特定の操作を実行できます。これは、Giselle フロー内で処理されたロジックとデータに基づいて、イシューの作成、コメント、データの取得などのタスクを自動化するのに役立ちます。
#### GitHub アクションの設定:
1. **GitHub アカウント/組織の選択**:
* アクション ノードを追加し、サービスとして GitHub を選択すると、まず対象リポジトリが存在する GitHub アカウントまたは組織を選択する必要があります(例:`giselles-ai`、`liam-hq`)。
2. **リポジトリの選択**:
* 次に、選択されたアカウント/組織下でアクセス可能なリポジトリのリストが表示されます(例:`docs`、`giselle`)。
* アクションの対象とするリポジトリの横にある **セットアップ** ボタンをクリックします(例:`giselle`)。
3. **実行する GitHub アクションの選択**:
* リポジトリが選択されると(例:`giselles-ai/giselle`)、Giselle アプリが実行すべきアクションを指定する必要があります。
* 「実行したいアクションを選択してください」というラベルが付いているドロップダウンメニューをクリックします。
* リストから希望のアクションを選択します。例には以下が含まれます:
* **イシューの作成**
* **イシューコメントの作成**
* **プルリクエストコメントの作成**
* **プルリクエストレビューコメントへの返信**
* **ディスカッションの取得**
* アクションを選択した後、**アクション設定** ボタンをクリックしてパラメーター設定に進みます。
4. **アクションパラメーターの設定**:
* 各 GitHub アクションは、正しく実行するために特定のパラメーターが必要です。例えば、「イシューコメントの作成」アクションには、「必須」フィールドで示されるように、コメント用の `issueNumber` と `body` が必要です。
* 設定パネルには、選択されたリポジトリと選択されたアクション(例:「イシューコメントの作成」)が表示されます。その下に、必要なパラメーターが一覧表示されます。
* 各パラメーターに値を提供する必要があります。これは通常以下の方法で行えます:
* 直接静的な値を入力する。
* **ソースを選択**: これにより、フロー内の前のノードの出力や Giselle アプリフローの初期トリガー入力からデータを動的にマッピングできます。各パラメーターフィールドの横にある「ソースを選択」オプションがこれを促進します。
* 「必須」とマークされたすべてのパラメーターが入力されていることを確認してください。
* すべてのパラメーターが設定されると、変更は通常「アクション」ボタンまたは UI での同様の確認によって保存されます。キャンバス上のノードは、設定されたアクションを反映するように更新されます(例:`issueNumber` と `body` の入力を持つ「イシューコメントの作成」を表示)。
#### アクション ノードの出力:
タスクを正常に実行した後、アクション ノードは通常 **出力** を生成します。この出力には、実行されたアクションに関連する情報が含まれる可能性があります(作成されたイシューやコメントの ID や URL、またはサービスから取得されたデータ(ディスカッションコンテンツなど))。この出力は、ワークフロー内の後続ノードの入力として使用でき、複雑な操作チェーンを可能にします。ノードプレビューは、しばしば「出力」の可用性を示します。
#### 例:イシューコメントの作成
`giselles-ai/giselle` リポジトリに対して「イシューコメントの作成」を行うようアクション ノードを設定したとします:
* **リポジトリ**: `giselles-ai/giselle`
* **アクション**: イシューコメントの作成
* **必須パラメーター(入力)**:
* `issueNumber`: ワークフロートリガーまたは前のノードから取得(例:フロー内で以前に特定されたイシュー番号)。
* `body`: 別のノードから取得(例:前のステップで AI モデルが生成したテキスト要約)。
* **実行**: このノードが実行されると、`giselles-ai/giselle` リポジトリ内の `issueNumber` で指定されたイシューに、提供された `body` を使用して新しいコメントを投稿します。
* **潜在的な出力**: ノードは、新しく作成されたコメントの URL や ID などの詳細を出力する可能性があり、これはさらなるステップで使用できます。
#### 例:プルリクエストレビューコメントへの返信
`giselles-ai/giselle` リポジトリで「プルリクエストレビューコメントへの返信」を行うアクション ノードの設定方法は以下の通りです:
* **リポジトリ**: `giselles-ai/giselle`
* **アクション**: プルリクエストレビューコメントへの返信
* **必須パラメーター(入力)**:
* `pullNumber`: レビューコメントを含むプルリクエストの番号。これは通常、トリガーイベント(例:「プルリクエストレビューコメント作成」の GitHub トリガー)またはプルリクエストを特定した前のノードから取得されます。
* `commentId`: 返信対象の特定のレビューコメントの ID。これも通常、トリガーデータまたはコメント詳細を取得した前のノードから取得されます。
* `body`: 返信のコンテンツ。これは静的なテキストでもよく、より効果的には、ワークフロー内の AI ノードから動的に生成されたテキスト(例:自動確認、質問、または要約)でもよいでしょう。
* **実行**: このアクション ノードが実行されると、`giselles-ai/giselle` リポジトリ内の指定された `pullNumber` の `commentId` に対して、`body` パラメーターのコンテンツを返信として投稿します。
* **潜在的な出力**: ノードは投稿された返信に関する情報(独自の ID や URL など)を出力する可能性があり、これはさらなる条件付きワークフローロジックに役立つ可能性があります。
#### 例:GitHub ディスカッションの取得
このアクションにより、ワークフローはリポジトリから特定の GitHub ディスカッションのコンテンツと詳細を取得できます。
* **リポジトリ**: `giselles-ai/giselle`(または他の設定されたリポジトリ)
* **アクション**: ディスカッションの取得
* **必須パラメーター(入力)**:
* `discussionNumber`: 取得する GitHub ディスカッションの番号。これは静的な値でも、前のノードの出力やトリガー入力から動的に取得したものでも構いません。
* **実行**: このノードが実行されると、GitHub に接続し、選択されたリポジトリから `discussionNumber` で指定されたディスカッションの詳細を取得します。
* **潜在的な出力**: ノードはディスカッションデータを含むオブジェクトを出力します。これには通常、ディスカッションの `id`、`title`、`bodyHTML`(HTML 形式のディスカッションのコンテンツ)、`createdAt`、`updatedAt`、`author` 情報、およびディスカッションに関連する `comments` の配列(各コメントも `bodyHTML`、`author` などの詳細を持つ)などの詳細が含まれます。この構造化されたデータは、ワークフロー内の後続ノードで使用でき、例えば、ディスカッションの要約、要点の抽出、コメントの分析の実行、またはコンテンツに基づく他のアクションのトリガーなどに使用できます。
アクション ノード、特に GitHub 統合機能は、Giselle の自動化機能をソフトウェア開発およびプロジェクト管理ライフサイクルに拡張するための汎用的なツールです。より多くのアクションと他の外部サービスとの統合にご期待ください。
# AI パラメーター
Source: https://docs.giselles.ai/ja/glossary/ai-parameters
Giselle の AI モデルで使用される生成パラメーターの辞書。
このドキュメントでは、Claude、Gemini、GPT-4o、Sonar、Fal AI などのさまざまなマルチモーダル AI モデルからの出力を微調整するために、Giselle のジェネレーター ノード内で設定できる一般的な生成パラメーター(「生成パラメーター」)の詳細な概要を提供します。
生成パラメーターの定義と可用性は、AI プロバイダーと特定のモデルによって異なる場合があることにご注意ください。また、Giselle は現在、各プロバイダーの API でサポートされているすべてのパラメーターを実装しているわけではありません。このドキュメントは主に、使用可能なパラメーターの一般的な定義と典型的な使用法を扱っています。Giselle でサポートしてほしいパラメーターの提案がございましたら、お気軽にお問い合わせください。
## 一般的な AI パラメーター
### Temperature
* **定義:** テキストまたは画像生成におけるランダム性を制御します。
* **範囲:** 0(ランダム性が低く、決定論的)から 1(非常にランダムで創造的)。
* **推奨使用法:**
* 低い値(0–0.3):正確で事実に基づく出力。
* 高い値(0.7–1.0):創造的または探索的な出力。
### Top-p(Nucleus Sampling)
* **定義:** 累積確率が閾値(p)を超える最小のセットにトークン選択を制限します。
* **範囲:** 通常 0.0 から 1.0。
* **推奨使用法:**
* 低い値(0.7–0.9):焦点を絞った一貫した出力。
* 高い値(~1.0):より広範囲で多様なコンテンツ生成。
### Max Tokens
* **定義:** 応答で生成されるトークンの最大数。
* **推奨使用法:**
* 希望する応答の長さと API/モデルのトークン制限に基づいて調整。
* コスト管理とリソース最適化に不可欠。
## テキスト固有のパラメーター
### Frequency Penalty
* **定義:** 反復されたトークンにペナルティを課すことで反復を減らします。
* **範囲:** 通常 0.0(ペナルティなし)から 1.0(強いペナルティ)。
* **推奨使用法:**
* 反復的な出力が望ましくない場合に増加。
### Presence Penalty
* **定義:** 以前に使用されたトークンにペナルティを課すことで新しいコンテンツを促進します。
* **範囲:** 通常 0.0(ペナルティなし)から 1.0(強いペナルティ)。
* **推奨使用法:**
* より多様なテキスト出力の生成に役立ちます。
### Stop Sequences
* **定義:** モデルが生成を停止すべき場所を示すトークンまたはフレーズ。
* **推奨使用法:**
* 構造化されたまたは部分的な出力が必要な場合に明確に定義。
## 画像生成パラメーター
### Guidance Scale
* **定義:** 生成された画像が提供されたプロンプトにどれだけ忠実に従うかに影響します。
* **範囲:** 通常 1(厳密でない遵守)から 20(非常に厳密な遵守)。
* **推奨使用法:**
* 低い値:探索的で抽象的な出力。
* 高い値:プロンプトへの正確で詳細な遵守。
### Inference Steps
* **定義:** 拡散プロセスのステップ数。
* **推奨使用法:**
* 低い値(flux/schnell で 1–4 ステップ):迅速なプロトタイピング。
* 高い値(stable-diffusion で ~28 ステップ):詳細で高品質な画像。
## マルチモーダル パラメーター
### Context Window
* **定義:** モデルが一度に「記憶」または処理できる最大トークン数。
* **典型的な値:**
* Gemini: 最大 1M トークン。
* GPT-4o: 128k トークン。
* Claude: 最大 200k トークン。
* **推奨使用法:**
* 大規模な文書、マルチモーダル データ分析、詳細な理解を必要とするタスクには、より大きなコンテキストウィンドウを使用。
### Input Modalities
* **定義:** モデルがサポートする入力タイプ(テキスト、画像、音声、動画)。
* **モデル:**
* Gemini 2.5 Pro と GPT-4o は広範なマルチモーダル入力をサポート。
* 必要な入力モダリティに基づいてモデルを選択。
## ウェブ検索パラメーター
### Grounding
* **定義:** モデルがリアルタイムのウェブ検索結果を生成された応答に組み込むことを可能にします。
* **推奨使用法:**
* 最新で事実に基づく研究タスクまたは情報クエリに対して有効化。
## Giselle での実用的な推奨事項
* **実験と調整:** タスク固有の結果に基づいてパラメーターを定期的に調整。
* **ノード統合:** チェーンされたノード全体でパラメーターを戦略的に使用してワークフローの効果を最大化。
* **設定の明確な文書化:** チームの明確性と再現性のために、Giselle ワークフロー内で選択したパラメーター設定を明確に文書化。
# ファイル ノード
Source: https://docs.giselles.ai/ja/glossary/file-node
Giselle のファイル ノードが PDF、画像、テキストなどのファイルをアップロードし、AI ワークフローの入力として使用する方法を学びます。
## Giselle のファイル ノード
**ファイル ノード**は「変数ノード」の特殊なタイプで、Giselle ワークフロー内でファイルのアップロードと処理を直接行うことができます。入力ソースとして機能し、AI モデルが分析、要約、または変換を行うための文書、画像、テキストファイルを組み込むことができます。
### ファイル ノードの使用方法
1. **ノードを追加**: キャンバス下部のツールバーから「ファイル」ノードをワークスペースにドラッグ&ドロップします。
2. **ファイルをアップロード**: ノードを選択して設定パネルを開きます。指定された領域にファイルをドラッグ&ドロップするか、クリックしてファイルセレクターを開くことでファイルをアップロードできます。
3. **ステータスを確認**: ノードはアップロードのステータスを表示します。ファイルは「アップロード中」「アップロード完了」「失敗」の3つの状態のいずれかになります。正常にアップロードされると、ファイルはワークスペース内に安全に保存され、ワークフローで使用する準備が整います。
### サポートされるファイル タイプ
ファイル ノードは複数のファイル タイプをサポートしており、それぞれ特定の用途と制限があります。
| ファイル タイプ | 対応形式 | 最大サイズ | 一般的な用途 |
| :------- | :----------------------------------------------- | :---- | :---------------- |
| **PDF** | `application/pdf` | 4.5MB | 文書処理、テキスト抽出、分析 |
| **画像** | `image/png`、`image/jpeg`、`image/gif`、`image/svg` | 4.5MB | ビジュアル コンテンツの分析と生成 |
| **テキスト** | `text/plain`、`text/markdown` | 4.5MB | テキスト コンテンツの処理と生成 |
### ワークフロー統合
ファイル ノードの主要な目的は、他のノード(最も一般的には[ジェネレーター ノード](/glossary/generator-node))にデータを提供することです。
* **出力を接続**: ファイル ノードの「出力」をジェネレーター ノードの入力に接続できます。
* **コンテンツを処理**: ジェネレーター ノードで、ファイルのコンテンツに対してタスクを実行するよう AI モデルに指示できます。例えば、PDF ファイルを接続して AI に「添付文書から主要な発見事項を要約してください」と指示できます。
#### モデル互換性
接続できるファイルのタイプは、対象となる AI モデルの機能によって決まります。例えば:
* **PDF とテキスト ファイル**は、分析、要約、質疑応答などのタスクのために、テキストベースまたはマルチモーダル モデルに接続できます。
* **画像ファイル**は、分析のために画像入力を受け入れるマルチモーダル モデルや、変換タスクのための画像生成モデルに接続できます。
### 技術的制限
ファイル ノードを使用する際は、以下の制限にご注意ください:
* **最大ファイル サイズ**: プラットフォームの制約(Vercel Serverless Function の制限)により、単一ファイル アップロードの最大サイズは **4.5MB** です。
* **画像サイズ制限**: 画像ファイルの最大サイズは **4.5MB** です。
* **接続制限**: サポートしないタイプのノードにファイルを接続することはできません。例えば、PDF ファイルを画像のみを生成するノードに接続することはできませんし、画像ファイルは古いテキスト専用生成モデルと互換性がない場合があります。
# ジェネレーター ノード
Source: https://docs.giselles.ai/ja/glossary/generator-node
Giselle のジェネレーター ノードが AI モデルを使用してテキスト、画像などを生成し、AI フローの中核を形成する方法を学びます。
## Giselle のジェネレーター ノード
**ジェネレーター ノード** は、Giselle における AI 駆動コンテンツ作成の中核コンポーネントです。様々な高度な AI モデルの力を活用して、指示に基づいてテキストと画像を生成できます。プロンプトの設定、モデルの選択、ツールの提供により、任意のフローに対して高度にカスタマイズされた出力を作成できます。
ジェネレーター ノードは、設定パネルの 3 つの主要タブ **Prompt**、**Model**、**Tools** を通じて設定されます。
### Prompt タブ
ここで AI モデルへの指示を提供します。AI に実行させたいタスクを説明する明確で詳細なプロンプトを書いてください。モデルによって生成された出力がこのパネルの下部に表示され、結果をすぐに確認できます。
**Generate** ボタンをクリックして、フロー全体を実行せずにこのノードのみを実行して、ノードを個別にテストすることもできます。
### Model タブ
Model タブでは、生成タスクに使用する特定の AI モデルを選択できます。Giselle は主要プロバイダーからの幅広いモデルへのアクセスを提供しています。
* **モデルを選択**: OpenAI の `gpt-4o`、Anthropic の `claude-4-opus`、Google の `gemini-2.5-pro` など、利用可能なモデルのリストから選択してください。
* **パラメータを設定**: 選択したモデルに応じて、出力を微調整するために `Temperature` や `Max Tokens` などの様々な [AI パラメータ](ai-parameters) を調整できます。
各プロバイダーから利用可能なモデルの詳細については、ドキュメントを参照してください:
* [Anthropic](https://docs.giselles.ai/models/providers/anthropic)
* [fal.ai](https://docs.giselles.ai/models/providers/fal)
* [Google](https://docs.giselles.ai/models/providers/google)
* [OpenAI](https://docs.giselles.ai/models/providers/openai)
### Tools タブ
Tools タブでは、AI モデルに外部サービスへのアクセス権を付与し、Giselle の外部からアクションを実行したりデータを取得したりできるようにします。これは、より動的で強力なフローを作成するのに役立ちます。
現在、以下のツールがサポートされています:
* [GitHub](/glossary/github-tools)
* [PostgreSQL](/glossary/postgresql-tools)
将来的により多くのツールのサポートを追加するため、継続的に取り組んでいます。
## ジェネレーター ノードの出力
ジェネレーター ノードの主要な出力は、作成するコンテンツ(テキストブロックや画像など)です。この出力は他のノードの入力に接続でき、AI タスクを連鎖させることができます。例えば、あるノードで生成されたテキストを、要約や翻訳を行う別のノードの入力として使用できます。
# GitHub ツール
Source: https://docs.giselles.ai/ja/glossary/github-tools
ジェネレーター ノード内で GitHub ツールを構成し使用する方法を学び、AI モデルが GitHub リポジトリと直接連携できるようにします。
**GitHub ツール**は、Generator Node内のAIモデルに厳選された機能セットへのアクセスを提供することで、GitHub上で幅広いアクションを実行できるようにします。この機能は、しばしば「ツール使用」や「関数呼び出し」と呼ばれ、プロンプトでの自然言語指示に基づいて、課題の作成、プルリクエストの管理、コードの検索など、開発ワークフローを自動化する強力なAIエージェントを構築できます。
## GitHubツールの設定
以下の手順に従ってGitHubアカウントを接続し、Generator Nodeで特定のツールを有効化してください。
### 1. ツールタブに移動
任意のGenerator Node(例:`gemini-2.5-pro`)で、**ツール**タブを選択します。接続可能な統合の一覧が表示されます。
### 2. GitHubへの接続
GitHub統合の隣の\*\*+ Connect\*\*ボタンをクリックします。これにより、認証情報を追加するための設定モーダルが開きます。
### 3. パーソナルアクセストークン(PAT)の追加
GitHubで認証するために、パーソナルアクセストークン(PAT)を提供する必要があります。
GitHubアカウント設定から新しいPATを作成できます:[https://github.com/settings/personal-access-tokens](https://github.com/settings/personal-access-tokens)。実行したいアクションに必要なアクセス許可(スコープ)がトークンに含まれていることを確認してください。
「Connect to GitHub」ウィンドウで:
1. **トークン名**: 後で簡単に識別できるように、トークンに説明的な名前を付けてください(例:「Create Issue」や「Update Docs」)。
2. **パーソナルアクセストークン(PAT)**: このフィールドにトークンを貼り付けてください。Giselleは保存前に認証暗号化でトークンを暗号化します。
3. **Save & Connect**をクリックしてください。
### 4. 有効化するツールの選択
トークンが検証された後、カテゴリー別にグループ化された利用可能なGitHubツールの一覧が表示されます。セキュリティと制御のため、AIモデルが実行を許可されるアクションを明示的に選択する必要があります。
このノードで有効化したいツールの隣のチェックボックスをオンにしてください(例:`createIssue`、`getPullRequest`、`createOrUpdateFile`)。
### 5. 設定の保存
希望のツールを選択したら、モーダルの下部の**Save & Connect**をクリックしてください。Generator NodeにGitHubが接続されたことが表示され、有効化されたツールと今後の変更用の**Configuration**ボタンが表示されます。
## 利用可能なGitHubツール
以下は、設定画面に表示されるようにカテゴリー別に分類された、AIモデルに対して有効化できるツールの一覧です。
**注意**: GitHubツールは [https://github.com/github/github-mcp-server](https://github.com/github/github-mcp-server) の定義に準拠しています。
### リポジトリ
#### `getFileContents`
リポジトリからファイルまたはディレクトリの内容を取得します
* **必須**:
* `owner` (リポジトリ所有者)
* `path` (ファイル/ディレクトリへのパス)
* `repo` (リポジトリ名)
* **オプション**: `branch` (内容を取得するブランチ)
#### `listBranches`
リポジトリ内のすべてのブランチをページネーションサポート付きで一覧表示します
* **必須**:
* `owner` (リポジトリ所有者)
* `repo` (リポジトリ名)
* **オプション**:
* `page` (ページネーション用ページ番号、最小1)
* `perPage` (1ページあたりの結果数、最小1、最大1000)
### 課題(Issues)
#### `createIssue`
必須のタイトルとオプションの本文、担当者、ラベル、マイルストーン番号で新しい課題を作成します
* **必須**:
* `owner` (リポジトリ所有者)
* `repo` (リポジトリ名)
* `title` (課題タイトル)
* **オプション**:
* `body` (課題本文内容)
* `assignees` (担当するユーザー名の配列)
* `labels` (適用するラベルの配列)
* `milestone` (マイルストーン番号)
#### `getIssue`
番号で特定の課題の詳細情報を取得します
* **必須**:
* `owner` (リポジトリ所有者)
* `repo` (リポジトリ名)
* `issueNumber` (課題番号)
#### `listIssues`
Lists repository issues with filters for state, labels, date, sort order, and direction with pagination
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* **Optional**:
* `state` (open/closed/all)
* `labels` (Array of labels to filter by)
* `sort` (created/updated/comments)
* `direction` (asc/desc)
* `since` (ISO 8601 timestamp)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `updateIssue`
Updates an existing issue's properties
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `issueNumber` (Issue number to update)
* **Optional**:
* `title` (New title)
* `body` (New description)
* `state` (open/closed)
* `assignees` (New assignees array)
* `labels` (New labels array)
* `milestone` (New milestone number)
#### `addIssueComment`
Adds a comment to an existing issue with required body content
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `issueNumber` (Issue number)
* `body` (Comment content)
#### `getIssueComments`
Retrieves all comments on a specific issue with pagination support
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `issueNumber` (Issue number)
* **Optional**:
* `page` (Page number)
* `perPage` (Number of records per page)
### Pull Requests
#### `createPullRequest`
Opens a new PR from head branch to base branch with title, optional body, draft status
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `title` (PR title)
* `head` (Branch containing changes)
* `base` (Branch to merge into)
* **Optional**:
* `body` (PR description)
* `draft` (Create as draft PR)
* `maintainerCanModify` (Allow maintainer edits)
#### `getPullRequest`
Fetches detailed information about a specific pull request by number
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `updatePullRequest`
Edits PR properties including title, body, base branch, state, and maintainer permissions
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* **Optional**:
* `title` (New title)
* `body` (New description)
* `state` (open/closed)
* `base` (New base branch name)
* `maintainerCanModify` (Allow maintainer edits)
#### `listPullRequests`
Lists PRs with filters for state, base/head branches, sort order, and direction with pagination
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* **Optional**:
* `state` (open/closed/all)
* `head` (Filter by head user/org and branch)
* `base` (Filter by base branch)
* `sort` (created/updated/popularity/long-running)
* `direction` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `getPullRequestComments`
Retrieves review comments on a pull request
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `getPullRequestFiles`
Lists all files changed in a pull request with pagination
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `getPullRequestReviews`
Gets all reviews submitted for a PR
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `getPullRequestStatus`
Checks CI/CD status checks for a pull request
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
#### `createPullRequestReview`
Creates a pending review that can be submitted later
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* `event` (APPROVE/REQUEST\_CHANGES/COMMENT)
* **Optional**:
* `body` (Review comment text)
* `commitId` (SHA of commit to review)
* `comments` (Array of line-specific comment objects)
#### `addPullRequestReviewComment`
Adds inline comments to specific lines/files during review with support for multi-line comments
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* `body` (Review comment text)
* **Optional** (one of these patterns required):
* **Pattern 1 (reply)**: `inReplyTo` (ID of comment to reply to)
* **Pattern 2 (new comment)**:
* `commitId` (SHA of commit to comment on)
* `path` (Relative path to file)
* `line` (Line number in the diff)
* `side` (LEFT/RIGHT)
* `startLine` (For multi-line comments)
* `startSide` (LEFT/RIGHT for multi-line)
* `subjectType` (line/file)
#### `mergePullRequest`
Merges a PR with options for merge method, commit title, and commit message
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* **Optional**:
* `mergeMethod` (merge/squash/rebase)
* `commitTitle` (Title for merge commit)
* `commitMessage` (Extra detail for merge commit)
#### `updatePullRequestBranch`
Updates PR branch with latest changes from base branch
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `pullNumber` (Pull request number)
* **Optional**:
* `expectedHeadSha` (Expected SHA of the PR's HEAD ref)
### Code Management
#### `createBranch`
Creates a new branch from an existing branch or repository's default branch
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `branch` (Name for new branch)
* **Optional**:
* `fromBranch` (Source branch, defaults to repo default)
#### `createOrUpdateFile`
Creates new files or updates existing ones with content, commit message, and branch. Requires SHA for updates
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `path` (Path where to create/update the file)
* `content` (Content of the file)
* `message` (Commit message)
* `branch` (Branch to create/update the file in)
* **Optional**:
* `sha` (SHA of file being replaced, required for updates)
#### `getCommit`
Retrieves detailed information about a specific commit by SHA, branch name, or tag name
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* `sha` (Commit SHA, branch name, or tag name)
* **Optional**:
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `listCommits`
Lists commit history with optional filtering by author and SHA/branch/tag reference
* **Required**:
* `owner` (Repository owner)
* `repo` (Repository name)
* **Optional**:
* `sha` (SHA or branch name)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
### Search
#### `searchCode`
Searches for code using GitHub's code search syntax
* **Required**:
* `q` (Search query using GitHub code search syntax)
* **Optional**:
* `sort` (indexed)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchIssues`
Searches issues and pull requests using GitHub search syntax, can be scoped to specific owner/repo
* **Required**:
* `q` (Search query using GitHub issues search syntax)
* **Optional**:
* `sort` (comments/reactions/reactions-+1/reactions--1/reactions-smile/reactions-thinking\_face/reactions-heart/reactions-tada/interactions/created/updated)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchPullRequests`
Specifically searches pull requests with advanced filtering and GitHub search syntax
* **Required**:
* `q` (Search query using GitHub issues search syntax, automatically adds type:pr)
* **Optional**:
* `sort` (comments/reactions/reactions-+1/reactions--1/reactions-smile/reactions-thinking\_face/reactions-heart/reactions-tada/interactions/created/updated)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchRepositories`
Finds repositories matching search query with pagination support
* **Required**:
* `query` (Search query)
* **Optional**:
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
#### `searchUsers`
Searches for GitHub users using search syntax
* **Required**:
* `q` (Search query using GitHub users search syntax)
* **Optional**:
* `sort` (followers/repositories/joined)
* `order` (asc/desc)
* `page` (Page number, min 1)
* `perPage` (Results per page, min 1, max 100)
## GitHubツールの使用方法
設定が完了すると、プロンプト内で有効化されたツールを直接使用するようにAIモデルに指示できます。モデルはリクエストを理解し、適切なパラメータで必要な関数を呼び出してタスクを完了します。
### プロンプト例: 新しいドキュメントページを追加するプルリクエストの作成
ノードに`getFileContents`、`createPullRequest`、`createBranch`、`createOrUpdateFile`ツールを有効化したと仮定します。
```markdown
最終ステップを確認なしで完了してください。
プルリクエストの作成では、以下の手順に従ってください:
1. GitHubリポジトリ https://github.com/giselles-ai/docs に新しいブランチを作成する
- GitHubツール createBranch を使用
- fromBranch: main
- newBranchName: prefix giselle/create-docs-xxx
2. 以下の内容に基づいて新しいファイルを作成してください
- GitHubツール createOrUpdateFile を使用
- Contents: @generate-contents-node-output
- Latest SHA: @getSHA-node-output
3. https://github.com/giselles-ai/docs へプルリクエストを作成する
- GitHubツール createPullRequest を使用
```
このプロンプトが実行されると、Giselleは以下を行います:
1. GitHubリポジトリに新しいブランチを作成します。
2. 内容に基づいて新しいファイルを作成します。
3. Create pull request.
# GitHub ベクター ストア ノード
Source: https://docs.giselles.ai/ja/glossary/github-vector-store-node
GitHub ベクター ストア ノードが GitHub リポジトリをベクター化し、Giselle の AI ワークフロー用の検索可能なナレッジベースを作成する方法を学びます。
GitHub ベクター ストア ノードが GitHub リポジトリをベクトル化し、AI ワークフロー内でクエリできる検索可能なナレッジベースを作成する方法を学びます。
## Giselle の GitHub ベクター ストア ノード
**GitHub ベクター ストア ノード**は、GitHub リポジトリの内容から強力で検索可能なデータベースを作成する特殊な「ソース」ノードです。リポジトリ内のコードと文書をベクトル化することで動作し、AI モデルがセマンティック検索を実行し、関連するコンテキストを取得できるようにします。
このプロセスでは、先進的な埋め込みモデルを使用してリポジトリのコンテンツをベクターエンベディングに変換します。OpenAI の [`text-embedding-3-small`](https://platform.openai.com/docs/models/text-embedding-3-small) や [`text-embedding-3-large`](https://platform.openai.com/docs/models/text-embedding-3-large)、Google の [`gemini-embedding-001`](https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemini-embedding-001?hl=ja) など、複数の埋め込みモデルから選択できます。これらのベクトル化されたデータは、Giselle の専用ベクター ストアに安全に保存されます。
この機能を使用するには、対象の GitHub リポジトリに [Giselle GitHub App](https://github.com/apps/giselles-ai) がインストールされている必要があります。
### GitHub ベクター ストア ノードの設定:
1. **ノードの追加**:
* キャンバス下部のツールバーから、**ソース** アイコン(リンクシンボル付きフォルダー)をクリックします。
* ポップアップメニューから **GitHub ベクター ストア** を選択して、ノードをワークスペースに追加します。
2. **リポジトリの設定**:
* 最初に追加されたとき、ノードは「設定が必要」ステータスを表示します。
* ノードを選択して、右側の設定パネルを開きます。
* **リポジトリを選択** ドロップダウンメニューをクリックします。このリストには、Giselle GitHub App がインストールされているリポジトリのみが表示されます。ナレッジソースとして使用したいリポジトリを選択します(例:`giselles-ai/docs`)。
3. **コンテンツタイプの選択**:
* リポジトリを選択した後、ベクトル化するコンテンツのタイプを指定する必要があります。利用可能なオプションは次のとおりです:
* **コード**: リポジトリのデフォルトブランチからソースコードと文書をベクトル化します。これは、コードベースからナレッジベースを作成するのに役立ちます。
* **プルリクエスト**: 説明、コメント、ディスカッションを含むプルリクエストのコンテンツをベクトル化します。これは、開発パターンの分析や変更の要約に最適です。
* 使用したいコンテンツに対応するラジオボタンを選択します。
4. **設定の完了**:
* リポジトリとコンテンツタイプが選択されると、キャンバス上のノードが更新されて設定されたリポジトリの名前が表示されます。このリポジトリのベクトル化プロセスがバックグラウンドで開始または更新されます。
### ベクター ストアの管理
チームの設定ページから、GitHub ベクター ストア ノードによって処理される GitHub リポジトリを追加、設定、削除できます。
* Giselle アカウントで **設定 > チーム > ベクター ストア** に移動します。
* または、ノードの設定パネルから直接 **GitHub ベクター ストアの設定** リンクをクリックできます。
* このページでは、インデックス化されてワークフローで使用できるリポジトリを管理できます。こちらでアクセスできます:[https://studio.giselles.ai/settings/team/vector-stores](https://studio.giselles.ai/settings/team/vector-stores)。
#### 取り込むソース
新しいリポジトリを登録する際、取り込むコンテンツのタイプを選択できます。Giselle は現在2つのソースをサポートしています:
* **コード**: リポジトリからソースコードファイルを取り込みます。このソースは必須で、無効にできません。
* **プルリクエスト**: マージされたプルリクエストからコンテンツとディスカッションを取り込みます。これは、AI ワークフローに追加のコンテキストを提供するために有効にできるオプションのソースです。
#### 埋め込みモデル
GitHub ベクター ストアを設定する際、リポジトリコンテンツのインデックス化に使用する埋め込みモデルを複数から選択できます。少なくとも1つの埋め込みモデルを選択する必要があります。利用可能なオプションには以下があります:
* **OpenAI text-embedding-3-small**: プロバイダー: OpenAI • 次元数: 1536 - ほとんどのユースケースに適した強力で効率的なモデルです。
* **OpenAI text-embedding-3-large**: プロバイダー: OpenAI • 次元数: 3072 - 複雑なセマンティック理解により高い精度を提供する大型モデルです。
* **Google gemini-embedding-001**: プロバイダー: Google • 次元数: 3072 - 代替のセマンティック表現機能を提供するGoogleの埋め込みモデルです。
埋め込みモデルの選択は、コンテンツのベクトル化方法に影響し、検索品質とパフォーマンスに影響を与える可能性があります。ベクター ストアに異なるセマンティック表現機能を活用するために、複数のモデルを選択することができます。
### レート制限と考慮事項
GitHub ベクター ストア ノードを使用する際は、GitHub API のレート制限にご注意ください。Giselle の GitHub ベクター ストアは GitHub API アクセスに [GitHub App Installation](https://docs.github.com/ja/rest/using-the-rest-api/rate-limits-for-the-rest-api?apiVersion=2022-11-28#primary-rate-limit-for-github-app-installations) を使用しており、1時間あたり約5,000リクエストのレート制限があります。大規模プロジェクトで作業する際にエラーが発生する場合があります。この場合、しばらく待ってから再試行してください。
大規模なリポジトリや頻繁な更新では、ベクトル化プロセス中にレート制限が発生する場合があります。エラーが発生した場合は、レート制限ウィンドウがリセットされた後に待機して再試行してください。
### ワークフローでの使用
GitHub ベクター ストア ノードは、**クエリ ノード** と組み合わせて使用するように設計されています。クエリ ノードが検索するナレッジベースとして機能します。
* **出力を接続**: GitHub ベクター ストア ノードの「出力」をクエリ ノードの入力に接続する必要があります。
* **検索の実行**: クエリ ノードは、ユーザーの質問や動的な入力を受け取り、ベクトル化されたリポジトリコンテンツから最も関連性の高い情報を検索し、その情報を後続のノード(ジェネレーター ノードなど)に渡して処理、分析、または要約を行うことができます。
### ノードの出力
GitHub ベクター ストア ノードの**出力**は、選択されたリポジトリのベクトル化されたデータへの参照です。この出力は、クエリ ノードなどの他のノードがリポジトリのコンテンツにアクセスして検索するために必要な接続を提供します。
# Giselle のノード
Source: https://docs.giselles.ai/ja/glossary/node
ノードについて学びましょう。Giselle 上の AI アプリの構成要素です。さまざまな機能を持つノードを接続して、強力な AI ワークフローを視覚的に設計します。
## Giselle の AI エージェントは「ノード」を組み合わせて構築できます
Giselle は直感的なノードベースのインターフェースを通じて強力なAIエージェントを構築できるプラットフォームです。様々な機能を持つ「ノード」を接続することで、積み木を組み立てるように複雑なAIワークフローを視覚的に設計できます。これにより、専門知識がなくても誰でも簡単にAIエージェントによる自動化を実現できます。
## Giselle の主要ノードの紹介
Giselle で利用可能な基本的なノードの一部を以下に紹介します。これらのノードを組み合わせることで、さまざまな AI ワークフローを構築できます。
### ジェネレーター ノード
ジェネレーターノードは、高度なAIモデルを使用してテキストと画像の両方を作成できます。プロンプトと条件を設定することで、ニーズに合わせたコンテンツを生成できます。テキストについては、文書作成、ブログ執筆、研究レポート生成などのアプリケーションがあり、Giselleの LLM APIを活用して高品質で自然な響きのテキストを生成します。画像については、テキストプロンプトから視覚的コンテンツを生成でき、クリエイティブなコンテンツ作成や視覚データを活用したワークフローを可能にします。ジェネレーターノードにより、ワークフロー内で幅広いAI生成アウトプットを柔軟に作成できます。
**ウェブ検索機能**: ウェブ検索機能をサポートするモデルを使用する場合、ジェネレーターノードはインターネットからリアルタイム情報にアクセスできます。これにより、最新データや現在の出来事に基づいたコンテンツ作成が可能になり、AIワークフローをより動的で最新のものにできます。
### テキストノード
テキストノードはテキストデータを保持するために使用されます。プロンプト、指示、注釈などを記録するために使用できます。ワークフロー内でテキストデータの管理と整理を支援し、テキスト生成ノードへの入力や他のノードでのデータ使用を効率化します。
### ファイルノード
ファイルノードはファイルデータを処理するために使用されます。ファイルを読み取り、AIモデルの入力として使用し、出力結果をファイルに保存できます。データベース分析やレポート生成など、ファイルデータを活用する様々なタスクに有用です。
### ウェブページノード
ウェブページノードは、ウェブページからコンテンツを取得して保持するために使用されます。1つまたは複数のURLを入力でき、Giselleはこれらのページからコンテンツの取得を試みます。現在、取得されたコンテンツは主にMarkdown形式で処理され利用可能になります。これにより、ウェブコンテンツをAIモデルやワークフロー内の他の処理ノードの動的な入力ソースとして使用でき、ウェブからの情報に基づいた要約、分析、コンテンツ生成などのタスクが可能になります。
### トリガーノード
トリガーノードは、Giselle アプリで構築したワークフローを実行する開始点です。接続されたノードの実行を順序的に開始します。現在、2種類のトリガーノードがサポートされています:
* **マニュアルトリガーノード**: このノードでは、Giselle アプリワークスペース内で直接ワークフローを手動で開始できます。テスト、オンデマンド実行、またはワークフローの実行タイミングを直接制御したい場合に有用です。
* **GitHubトリガーノード**: このノードはGitHubのwebhookによってワークフローを自動的にトリガーできます。Giselle GitHubアプリがリポジトリにインストールされている場合、このノードは特定のイベント(issueのコメントやプルリクエストなど)をリッスンし、それに応じてGiselleアプリのワークフローを開始できます。
### アクションノード
アクションノードは外部サービスを呼び出すことができるノードです。現在は主にGitHubとの統合をサポートしており、ワークフローがリポジトリ内でアクションを実行できます。将来的には、様々な他の外部サービスとのインタラクションを可能にするために機能を拡張する予定です。
### GitHub Vector Store ノード & Query ノード
Giselle は **GitHub Vector Store ノード** と **Query ノード** を通じて高度なデータ取得と検索機能をサポートしています。
* **GitHub Vector Store ノード**: この専用ソースノードは、GitHub リポジトリの内容をベクトル化し、検索可能なナレッジベースを作成できます。OpenAI のテキスト埋め込みモデルや Google の gemini-embedding-001 など、複数の先進的な埋め込みモデルから選択してリポジトリのコードと文書をベクトル表現に変換し、ワークフロー内でセマンティック検索を可能にします。これは検索拡張生成(RAG)アプリケーションの構築に特に有用です。設定と詳細については、[GitHub Vector Store ノードドキュメント](github-vector-store-node)を参照してください。
* **Query ノード**: Query ノードは、GitHub Vector Store ノードなどの接続されたデータソースに対して検索クエリを実行するよう設計されています。ベクトル化されたリポジトリから最も関連性の高い情報(テキストチャンク)を取得し、AI 生成やさらなる処理の動的なコンテキストとして使用できます。詳細については、[Query ノードドキュメント](query-node)を参照してください。
**典型的な使用方法:**
1. GitHub Vector Store ノードを追加し、リポジトリで設定します。
2. その出力を Query ノードに接続します。
3. Query ノードを使用してリポジトリのコンテンツを検索し、結果をジェネレーターノードなどの他のノードに渡して、コンテキスト認識 AI ワークフローを構築します。
これらのノードにより、Giselle 内で独自のデータソースを活用して、強力で最新かつコンテキストが豊富な AI アプリケーションを構築できます。
## ノード使用のヒント
Giselle でのノード体験を向上させるための役立つヒントをご紹介します。
### ノードの複製
ワークフロー効率を向上させるため、Giselle はノードの複製をサポートしています。この機能により、ワークフローデザイナー内で既存のノードのコピーを素早く作成できます。
**ノードを複製する方法:**
* **右クリックコンテキストメニュー:** ワークフローデザイナーで任意のノードを右クリックしてコンテキストメニューを開き、「ノードを複製」を選択します。
* **キーボードショートカット:** 複製したいノードを選択し、`Cmd + D`(macOS)または `Ctrl + D`(Windows/Linux)のキーボードショートカットを使用します。
**複製動作:**
* 複製されたノードは、元のノードからオフセット位置に表示されます。
* 元のノードからの接続は、適用可能な場合に複製で保持されます。
* ファイルノードの場合、複製されたノードは新しくコピーされたファイルを正しく参照します。
* クローンノードは「未設定」状態で開始され、元のノードから独立して設定をカスタマイズできます。
* 複製プロセスで問題が発生した場合、エラーメッセージが表示されます。
この機能により、設定済みまたはテンプレートノードの簡単な複製が可能になり、複雑なワークフローの構築プロセスが効率化されます。
## 将来のノード拡張計画
ユーザーが AI ワークフローを構築する能力をさらに高めるため、ノード機能の拡張を計画しています。チームが現在検討している内容をご紹介します:
### ファイルノードの拡張
ファイルノードでサポートするファイル形式を拡張し、以下への対応を追加予定です:
* **表形式ファイル**(CSV、Excel など)
* **音声ファイル**
Giselle の製品アップデートにご期待ください!
# PostgreSQL ツール
Source: https://docs.giselles.ai/ja/glossary/postgresql-tools
ジェネレーター ノードで PostgreSQL ツールを使用して AI モデルを PostgreSQL データベースに接続し、クエリやデータ取得を可能にする方法を学びます。
**PostgreSQL Tools** empower AI models within a Generator Node to connect directly to your PostgreSQL databases. This feature, a form of "tool use" or "function calling," allows you to build AI agents that can query tables, retrieve data, and understand your database schema, all based on natural language instructions in your prompt.
This enables powerful workflows, such as generating business reports, answering data-driven questions, or performing automated data analysis.
## Configuring PostgreSQL Tools
Follow these steps to connect your PostgreSQL database and enable specific tools for a Generator Node.
### 1. Navigate to the Tools Tab
In any Generator Node (e.g., `gemini-2.5-pro`), select the **Tools** tab. You will see a list of available integrations that can be connected.
### 2. Connect to PostgreSQL
Click the **+ Connect** button next to the PostgreSQL integration. This will open a configuration modal to add your database credentials.
### 3. Add Your Connection String
To authenticate with your PostgreSQL database, you need to provide a connection string.
The connection string typically follows the format: `postgresql://[user[:password]@][netloc][:port][/dbname][?param1=value1&...]`. For detailed information, refer to the [official PostgreSQL documentation](https://www.postgresql.org/docs/current/libpq-connect.html#LIBPQ-CONNSTRING).
In the "Connect to PostgreSQL" window:
1. **Connection Name**: Give your connection a short, descriptive name for easy identification (e.g., "giselle-db-preview"). You'll use this to link other nodes.
2. **Connection String**: Paste your full PostgreSQL connection string into this field. Giselle encrypts the connection string with authenticated encryption before saving it.
3. Click **Save & Connect**.
### 4. Select the Tools to Enable
After your connection is validated, you'll be presented with a list of available PostgreSQL tools. For security and control, you must explicitly select which actions the AI model is allowed to perform.
Check the boxes next to the tools you want to enable for this node:
* `getTableStructure`
* `query`
### 5. Save the Configuration
Once you've selected the desired tools, click **Save & Connect**. The Generator Node will now show that PostgreSQL is connected, displaying the enabled tools and a **Configuration** button to make future changes.
## Available PostgreSQL Tools
The following is a list of tools you can enable for your AI model.
### Schema
* `getTableStructure`: Allows the AI model to retrieve the schema of your database. This includes table names, column names, and data types. This is crucial for the AI to understand how to construct valid queries.
### Query
* `query`: Allows the AI model to execute a standard SQL query against the connected database and retrieve the results.
## How to Use PostgreSQL Tools
Once configured, you can instruct the AI model to use the enabled tools directly in your prompt. The model will understand your request, call the appropriate function, and use the results to complete the task.
### Example Prompt: Calculate the number of users
Imagine you have enabled the `getTableStructure` and `query` tools for a node.
```markdown
Please find out the total number of users from the database.
```
When this prompt is run, the Giselle AI agent will:
1. Call the `getTableStructure` function to understand the database layout.
2. Identify the relevant table (e.g., `users`).
3. Formulate a SQL query like `SELECT COUNT(*) FROM users;`.
4. Execute the query using the `query` tool.
5. Return a final answer based on the query result, such as: "The total number of users is 1,234."
# クエリ ノード
Source: https://docs.giselles.ai/ja/glossary/query-node
Giselle のクエリ ノードが GitHub ベクター ストアなどのデータソースに対してクエリを実行し、検索拡張生成(RAG)を可能にする方法を学びます。
## Giselle のクエリ ノード
**クエリ ノード**は、接続されたデータソースから情報を検索し、取得するために設計された Giselle の強力なコンポーネントです。その主要な機能は、データセットに対してクエリ(質問や検索用語など)を実行し、最も関連性の高い結果を返すことです。
現在、クエリ ノードは **GitHub ベクター ストア ノード** との連携に最適化されており、Giselle ワークフロー内で検索拡張生成(RAG)アプリケーションを作成するための重要な構成要素となっています。
### クエリ ノードの使用方法
クエリ ノードの設定では、キャンバスに追加し、データソースを接続し、クエリを実行します。
#### 1. クエリ ノードの追加
キャンバス下部のノードツールバーから、虫眼鏡のアイコンで識別される**クエリ ノード**を選択し、ワークスペースに配置します。
#### 2. データソースの接続
クエリ ノードが機能するには、データソースからの入力が必要です。データソース ノード(GitHub ベクター ストア ノードなど)の `出力` をクエリ ノードの `入力` に接続する必要があります。データソースが接続されるまで、ノードは接続を待機していることを示します。
#### 3. クエリの記述と実行
データソースが接続されると、クエリ ノードを設定できます:
* **クエリを入力**: 設定パネルで、「クエリ」入力フィールドに質問や検索用語を入力します。
* **クエリを実行**: **クエリを実行** ボタンをクリックして、接続されたデータソースに対して検索を実行します。
#### 4. 結果の確認
クエリが実行された後、結果はノードのパネルに直接表示されます。結果には通常以下が含まれます:
* 見つかった結果数の要約。
* ソースドキュメントから取得された関連するテキストの「チャンク」のリスト。
* 各チャンクの類似度スコア(例:58%)で、クエリとの関連性を示します。
各チャンクを展開して、その内容とメタデータを表示できます。
### 中核的な用途:検索拡張生成(RAG)
クエリ ノードの主要な目的は、**検索拡張生成(RAG)** ワークフローを可能にすることです。RAG は、応答を生成する前に、独自のデータソースから関連性が高く最新の情報を提供することで、大規模言語モデル(LLM)の機能を強化します。
Giselle における典型的な RAG ワークフローは次のようになります:
1. **データソース(GitHub ベクター ストア ノード)**: GitHub リポジトリからドキュメントを取得してベクトル化し、検索可能にします。
2. **クエリ ノード**: ユーザーの質問(クエリ)を受け取り、ベクター ストアから最も関連性の高いテキストチャンクを取得します。
3. **ジェネレーター ノード**: 元の質問*と*クエリ ノードの出力から取得された情報を受け取ります。この組み合わされたコンテキストを使用して、より正確で詳細、かつ事実に基づいた回答を生成します。
### クエリ ノードの出力
クエリ ノードの `結果` 出力には、取得されたデータチャンクのコレクションが含まれます。この構造化されたデータは、後続ノード(最も一般的には**ジェネレーター ノード**)に渡され、テキスト生成のための動的なコンテキストとして機能できます。
クエリ用のデータソース設定の詳細については、[GitHub ベクター ストア ノード](github-vector-store-node) のドキュメントをご覧ください。
# テキスト ノード
Source: https://docs.giselles.ai/ja/glossary/text-node
Giselle のテキスト ノードが、プロンプト、指示、データなどのプレーン テキストをワークフロー内で直接保存および管理する方法を学びます。
## Text Node in Giselle
**テキストノード** は、Giselle で最もシンプルでありながら最も汎用性の高い「ソース」ノードの 1 つです。ワークフロー内でプレーンテキストコンテンツを直接保持・管理するように設計されており、幅広いアプリケーションにとって不可欠なツールです。アップロードされたファイルを処理するファイルノードとは異なり、テキストノードはコンテンツをインラインで保存し、読み込みや処理時間なしで常にすぐに利用できるようになっています。
### 主な機能
* **直接テキスト入力**: ノードの内蔵エディターに任意のテキストを直接書き込んだり貼り付けたりできます。
* **インラインストレージ**: コンテンツはノード自体内に単純な文字列として保存され、ワークフローを自己完結型で可搬性の高いものにします。
* **即座の可用性**: ファイルのアップロードや外部ストレージがないため、テキストは他のノードの出力として即座に利用できます。
### テキストノードの使用方法
1. **ノードを追加**: キャンバス下部のツールバーから **Source** アイコンをクリックし、**Plain Text** を選択してノードをワークスペースに追加します。
2. **コンテンツを設定**: ノードを選択して、右側の設定パネルを開きます。
3. **テキストを入力**: 「Write or paste text here...」というプレースホルダーが表示されるテキストエディターに、コンテンツを直接入力または貼り付けします。コンテンツは入力と同時に自動保存されます。
### 一般的な使用例
テキストノードは以下に最適です:
* **プロンプトの保存**: ジェネレーターノード用の再利用可能なプロンプトを書いて保存します。
* **テンプレートの作成**: 様々なコンテンツ生成タスク用のテキストテンプレートを保持します。
* **指示の記述**: チーム向けのワークフロー固有の指示やガイドラインを文書化します。
* **データの保持**: 処理用の JSON や CSV コンテンツなどの小さな構造化データセットを保存します。
* **クイックノート**: ワークフロー開発中の一時的なテキスト保存やスクラッチパッドとして使用します。
### テキストノード vs ファイルノード
**ファイルノード** もテキストファイル(`.txt` や `.md` など)を処理できますが、**テキストノード** は根本的に異なり、しばしばより便利です:
* **ストレージ**: テキストノードはコンテンツをワークフロー内に*直接*保存します。ファイルノードは*アップロード*したファイルを別途保存する必要があります。
* **編集**: テキストノードのコンテンツは Giselle インターフェース内で即座に編集できます。ファイルノードのコンテンツを変更するには、新しいファイルをアップロードする必要があります。
* **オーバーヘッド**: テキストノードにはファイル管理のオーバーヘッドがありません(サイズ追跡、アップロード状態、潜在的なアップロード失敗なし)。
* **最適用途**: テキストノードは動的または頻繁に編集されるコンテンツにより適していますが、ファイルノードは大きな静的テキストファイルをデータソースとして使用するのに理想的です。
### ノードの出力
テキストノードの**出力**は、エディターに入力した生のテキストコンテンツです。この出力は任意の互換性のあるノードの入力に接続できます。例えば、テキストをプロンプトとして使用するためにジェネレーターノードに接続したり、外部サービスにテキストをパラメータとして渡すためにアクションノードに接続したりできます。
# トリガー ノード
Source: https://docs.giselles.ai/ja/glossary/trigger-node
トリガー ノードについて学びましょう。Giselle のワークフローの開始点です。パラメーターでマニュアル トリガーを設定したり、GitHub トリガーを使用して AI ワークフロー シーケンスを開始したりできます。
## Giselle のトリガー ノード
**トリガー ノード** は、Giselle アプリで構築されたワークフローを実行する開始点です。接続されたノードの実行を順番に開始します。
現在、2種類のトリガー ノードがサポートされています。
### マニュアル トリガー ノード
**マニュアル トリガー ノード** では、ボタンをクリックしてワークフローを開始できます。また、実行するたびに特定のパラメータを要求するように設定することもできます。これは、実行時にワークフローに動的な入力を提供するのに便利です。
**マニュアル トリガー パラメータの設定:**
ワークフローにマニュアル トリガー ノードを追加する際、フローが手動でトリガーされた時に要求されるパラメータを定義できます。パラメータが設定されていない場合、フローはトリガーされた時に単純に開始されます。
パラメータを追加して設定するには:
1. 「Add New Parameter」セクションで:
* **Parameter Name**: パラメータの説明的な名前を入力します(例:「Title」、「Message」、「Priority」)。この名前は、トリガーが実行される時に入力フィールドを識別するために使用されます。
* **Type**: このパラメータが受け入れるデータのタイプを選択します。利用可能なオプションは:
* **Text**: 単一行のテキスト入力用。
* **Text(multi-line)**: 複数行にまたがる可能性がある長いテキスト入力用。
* **Number**: 数値入力用。
* **Required**: ワークフローをトリガーする前にパラメータを入力する必要がある場合は、このボックスにチェックを入れます。必須パラメータが空のままの場合はエラーが発生します。
2. **プラスアイコン(+)** をクリックして、設定したパラメータをリストに追加します。
3. 上記の手順を繰り返すことで、複数のパラメータを追加できます。
4. すべての必要なパラメータが追加・設定されたら、**Save Configuration** をクリックします。
このワークフローを手動で実行すると、定義したパラメータの値を入力するよう促すフォームが表示されます。これらの値は、ワークフロー内の後続のノードで使用できます。
### GitHub トリガー ノード
**GitHub トリガー ノード** では、GitHub リポジトリで発生する特定のイベントに基づいて Giselle ワークフローを自動的に開始できます。これにより、コード管理と AI を活用したタスクの間でシームレスな統合が可能になります。
**GitHub トリガーの設定:**
1. **GitHub アカウント/組織の選択**:
* GitHub トリガー ノードを追加する際、まずターゲット リポジトリが存在する GitHub アカウントまたは組織を選択する必要があります(例:`giselles-ai`、`liam-hq`)。
* GitHub アカウント接続が不足している場合や権限を調整する必要がある場合は、「Adjust GitHub App Permissions」をクリックしてください。
2. **リポジトリを選択**:
* 選択したアカウント/組織で利用可能なリポジトリのリストが表示されます(例:`docs`、`giselle`)。
* 希望するリポジトリ(例:`giselle`)の横にある **Set up** ボタンをクリックします。
* リポジトリがリストにない場合は、「Adjust GitHub App Permissions」でGiselle にアクセス権を付与する必要があるかもしれません。
3. **トリガー イベントの設定**:
* リポジトリが選択されたら(例:`giselles-ai/giselle`)、ワークフローをトリガーする GitHub イベントを指定する必要があります。
* 「Choose when you want to trigger the flow」というラベルのドロップダウン メニューをクリックします。
* 以下のようなリストからイベントを選択します:
* **Issue Created**: リポジトリで新しい issue が作成された時にフローをトリガーします。
* **Issue Closed**: issue がクローズされた時にトリガーします。
* **Issue Comment Created**: issue に新しいコメントが作成された時にトリガーします。
* **Pull Request Comment Created**: 新しいプルリクエスト コメントでトリガーします。
* **Pull Request Opened**: 新しいプルリクエストが開かれた時にトリガーします。
* **Pull Request Ready for Review**: プルリクエストがレビュー準備完了とマークされた時にトリガーします。
* **Pull Request Closed**: プルリクエストがクローズされた時にトリガーします。
4. **コールサインの設定(特定のイベントの場合)**:
* 「Issue Comment Created」や「Pull Request Comment Created」などの一部のイベントでは、**コールサイン** を指定できます。
* コールサインは、トリガーを起動するためにコメント内に存在する必要がある特定の文字列またはコマンド(例:`/code-review`、`/deep-research`)です。これにより、すべてのコメントでフローが実行されることを防ぎます。
* 提供されたフィールドに希望するコールサインを入力します。例では `/code-review` が示されています。
* コールサインの設定後、**Set up** をクリックします。
5. **トリガーを有効化**:
* イベントと関連オプション(コールサインなど)を設定した後、トリガーは最初「Disabled」状態になります。キャンバス上のノードは「Requires Setup」を表示するか、リポジトリとイベント タイプを「Disabled」ステータスで表示します。
* トリガーの設定パネル(例:「On Issue Created」または「On Issue Comment Created」)で、現在の **State** が「Disable」と表示されます。
* **Enable** をクリックしてトリガーを起動します。
* 有効化されると、**State** が「Enable」に変わり、**Disable Trigger** オプションが表示されます。キャンバス上のノードも「Enabled」ステータスを反映します。
6. **ワークスペースでの実行**:
* GitHub トリガー ノードでは、「Run」ボタンをクリックすることで、実際の GitHub webhook を待つことなくワークフローをテストできます。GitHub イベントをシミュレートするフォームに値を入力でき、実際の GitHub イベントに対して有効化する前にワークフローが正しく機能することを確認できます。
**設定後のワークフロー例:**
Issue Created の場合:
* **トリガー**: リポジトリ `giselles-ai/giselle` の「On Issue Created」。
* **状態**: 有効。
* **アクション**: `giselles-ai/giselle` リポジトリで新しい issue が作成されると、この Giselle ワークフローが自動的に開始されます。
Pull Request Comment Created の場合:
* **トリガー**: リポジトリ `giselles-ai/giselle` の「On Pull Request Comment Created」、コールサイン `/code-review`。
* **状態**: 有効。
* **アクション**: `giselles-ai/giselle` のプルリクエストに `/code-review [enter your request...]` を含むコメントが投稿されると、このワークフローが開始されます。後続のノードは、コメント本文、プルリクエスト番号、プルリクエストの差分コンテンツなどの情報にアクセスできます。
Giselle のノードの更新と機能追加にご期待ください!
# ウェブページ ノード
Source: https://docs.giselles.ai/ja/glossary/webpage-node
Giselle のウェブページ ノードがウェブページからコンテンツを取得し、AI ワークフローで静的入力として使用する方法を学びます。
## Giselle のウェブページ ノード
**ウェブページ ノード**は、ウェブページからコンテンツを取得し、保持するために使用されます。1つまたは複数のURLを入力すると、Giselleがこれらのページからコンテンツを取得しようと試行します。現在、取得されたコンテンツは処理され、主に **Markdown 形式** で利用可能になります。これにより、ワークフロー内で AI モデルや他の処理ノードの静的入力ソースとしてウェブコンテンツを使用でき、ウェブからの情報に基づいて要約、分析、またはコンテンツ生成などのタスクを実行できます。
ウェブページ ノードは独立した変数ノードとして機能し、ウェブベースの情報を Giselle アプリケーションに統合する合理化された方法を提供します。
### ウェブページ ノードの設定:
1. **ウェブページ ノードの追加**:
* キャンバス下部のツールバーから「ウェブページ」ノードをワークスペースにドラッグ&ドロップします。
2. **URL の設定**:
* キャンバス上でウェブページ ノードを選択して、右側の設定パネルを開きます。
* 「URL(1行に1つ)」というラベルの付いたテキストエリアに、コンテンツを取得したいページの完全なウェブアドレス(URL)を入力します。複数のURLがある場合は、それぞれを新しい行に入力します。
```
https://example.com/
https://docs.giselles.ai/glossary/node
```
3. **URL の追加**:
* 希望のURLを入力した後、青い **追加** ボタンをクリックします。
* Giselleは指定されたURLからコンテンツを取得しようと試行します。
* URLが処理されると、設定パネルが更新されて追加されたページがリストされ、多くの場合そのタイトルまたはURLへの参照が表示されます。「URL(1行に1つ)」入力エリアと **追加** ボタンは残り、必要に応じてさらにURLを追加できます。
### ウェブページ ノードの出力:
* **コンテンツ**: 提供されたURLからデータを正常に取得した後、ウェブページ ノードはこのコンテンツを**出力**として利用可能にします。
* **形式**: 取得されたコンテンツは主に **Markdown 形式** で配信されます。この標準化された形式により、後続のテキスト処理ノードで簡単に使用できます。
* **接続性**: ウェブページ ノードの出力は、ワークフロー内の他のノードに接続できます。例えば、Markdown コンテンツを**ジェネレーター ノード**に供給して記事を要約したり、特定の情報を抽出したり、新しいコンテンツを生成するためのコンテキストとして使用したりできます。
キャンバス上のウェブページ ノードには「出力」ポートがあり、これを他のノードの入力ポートに接続するためにドラッグできます。
### 例:ウェブ記事の要約
1. **ウェブページ ノードの設定**:
* ウェブページ ノードを追加します。
* オンラインブログ記事のURL(例:`https://giselles.ai/blog/transforming-product-development-human-ai-collaboration`)を入力します。
* **追加** をクリックします。
2. **ジェネレーター ノードへの接続**:
* ジェネレーター ノードを追加します。
* ウェブページ ノードの「出力」をジェネレーター ノードの入力(例:コンテキストまたは文書入力)に接続します。
3. **ジェネレーター ノードの設定**:
* 提供されたテキストを要約するようジェネレーター ノードに指示します。例えば、「以下の記事を簡潔に要約してください:」のようなプロンプトを使用します。
4. **ワークフローの実行**:
* ワークフローが実行されると、ウェブページ ノードが記事コンテンツをMarkdownとして取得し、ジェネレーター ノードが要約を生成します。
### 今後のアップデート
サポートされる出力形式を含む、ウェブページ ノードのユーザーインターフェースと機能は、Giselleの今後のリリースで段階的に更新される可能性があります。
# マイ アプリ
Source: https://docs.giselles.ai/ja/guides/apps/myapp
個人用 AI アプリケーションを作成し管理します
マイ アプリは、Giselle AI App Builder プラットフォームで作成・管理できる個人用 AI アプリケーションです。複数の AI モデルとデータソースを組み合わせて強力な AI アプリケーションを構築し、必要な回数だけ実行できます。
## 主な機能
### アプリケーション構築
* **AI モデル統合**: さまざまな AI モデルを組み合わせてカスタムアプリケーションを作成
* **データソース接続**: 複数のデータソースからの情報を活用して AI 機能を強化
* **繰り返し実行**: 構築したアプリケーションを必要な回数だけ実行
### GitHub 統合によるチーム活用
マイ アプリは主に個人使用を想定していますが、GitHub 統合を通じてチームで活用できます:
* **リポジトリ統合**: GitHub などのリポジトリと接続
* **自動実行トリガー**: イシューの作成やプルリクエストの提出をトリガーとしたアプリケーションの自動実行設定
* **出力共有**: GitHub App として機能し、接続されたリポジトリにアクセスできるすべてのチームメンバーが出力結果を共有可能
これにより、個人で作成したマイ アプリの機能をチーム全体のワークフローに組み込むことができます。
## マイ アプリとチーム アプリの違い
マイ アプリには以下の制限があります:
* **編集権限**: アプリケーション自体の編集は作成者のみが可能
* **閲覧制限**: アプリケーションの設定や構成の閲覧も作成者に限定
これらの制限を解除し、複数のメンバーとアプリケーションの協調編集や閲覧を可能にするには、Pro ユーザーになってチームを作成する必要があります。チーム作成後は、チーム アプリとして協調管理が可能になります。
## マイ アプリの使用例
* **個人生産性向上**: 日常の作業や研究をサポートする AI アプリケーションの作成
* **プロジェクト自動化**: GitHub 統合による開発プロセスの自動化
* **コードレビューサポート**: プルリクエスト作成時の自動コード分析実行
## 始め方
1. [Giselle アカウント](https://studio.giselles.ai/signup) を作成
2. 「New App+」から新しいマイ アプリを作成
3. 必要な AI モデルとデータソースを選択・設定
4. アプリケーションを[構築](workspaces/build)
5. 必要に応じてアプリケーションを実行
# チーム アプリ
Source: https://docs.giselles.ai/ja/guides/apps/teamapp
チームと協力して AI アプリケーションを管理します
チーム アプリは、Giselle AI App Builder プラットフォーム上で複数のチームメンバーがアプリケーションを一緒に作成、編集、管理できる協調型 AI アプリケーションです。チーム アプリを使用することで、チームの集合的な専門知識を活用して、複数の AI モデルとデータソースを組み合わせ、より洗練された AI ソリューションを構築できます。
## 主な機能
### 協調的なアプリケーション構築
* **共有編集アクセス**: 複数のチームメンバーが同じアプリケーションを編集・改良可能
* **協調設定**: チームメンバーが AI モデルとデータソースを共同で設定
* **バージョン履歴**: 異なるチームメンバーからの変更と貢献を追跡
### チーム管理
* **権限制御**: チームメンバーに異なる役割とアクセスレベルを割り当て
* **共有可視性**: すべてのチームメンバーがアプリケーション設定と構成を閲覧可能
* **集合的所有権**: アプリケーションは単一の作成者ではなくチームに属する
### 強化された統合機能
チーム アプリには、マイ アプリで利用可能なすべての GitHub 統合機能が含まれています:
* **リポジトリ統合**: GitHub などのリポジトリと接続
* **自動実行トリガー**: イシューの作成やプルリクエストの提出をトリガーとしたアプリケーションの自動実行設定
* **出力共有**: GitHub App として機能し、接続されたリポジトリにアクセスできるすべてのチームメンバーが出力結果を共有可能
## マイ アプリとチーム アプリの違い
チーム アプリは、マイ アプリと比較していくつかの利点を提供します:
* **協調編集**: 作成者のみが編集アクセス権を持つマイ アプリとは異なり、複数のチームメンバーがアプリケーションを編集可能
* **共有閲覧**: すべてのチームメンバーがアプリケーション設定と構成を閲覧可能
* **シームレスな引き継ぎ**: チームメンバーが同僚が開始した作業を継続可能
## チーム アプリの要件
* **Pro サブスクリプション**: チーム アプリは Pro ユーザーのみ利用可能
* **チーム作成**: チーム アプリの使用を開始する前にチームを作成する必要があります
* **チームメンバー**: チーム管理インターフェースを通じて同僚をチームに招待
## 始め方
1. [Pro サブスクリプション](https://studio.giselles.ai/pricing) にアップグレード
2. アカウントの「チーム」セクションからチームを作成
3. チームメンバーを招待
4. チームワークスペース内の「New App+」から新しいチーム アプリを作成
5. チームと協力してアプリケーションを構築、プレビュー、統合
# クイックスタート
Source: https://docs.giselles.ai/ja/guides/get-started/quickstart
Giselle で初めての AI エージェントを数分で構築しよう!このクイックスタートガイドはサインアップからワークフローの実行までをカバーします。
## Giselle で初めての AI エージェントを構築しよう
Giselle を数分で使い始めましょう!このクイックスタートガイドでは、サインアップから完全なワークフローの実行まで、初めての AI エージェントの作成をステップバイステップで説明します。ユーザーフレンドリーなインターフェースでエージェントの構築とテストの方法を学びましょう。
Giselle の力を解き放ちましょう!初めてご利用の方は、[サインアップ](https://studio.giselles.ai/signup)ページでアカウントを作成してください。
すでに Giselle コミュニティの一員の方は、[ログイン](https://studio.giselles.ai/login)してすぐに始めましょう。
[Giselle Agents](https://studio.giselles.ai/agents) ページに移動し、「New Agent」ボタンをクリックして初めてのエージェントの作成を開始します。
下部のツールバーから「Text Generator」ノードをキャンバスにドラッグ&ドロップして配置します。これがワークフローの最初のノードになります。
「Instruction」テキストエリアに、エージェントに与えたいプロンプトを入力します。このテキストがエージェントの動作を導きます。
```markdown
動物に関する興味深いトピックを1つ提案してください。
```
「Text Generator」ノードの右上にある「Generate」ボタンをクリックします。これによりこのノードのみが実行され、プロンプトをテストして出力を確認できます。
エージェントをワークフローとして実行するために、別のノードを追加しましょう。下部のツールバーから「Text Generator」ノードをドラッグして、キャンバスに配置します。
2つのノードを接続するには、2番目のノードの右パネルの「Sources」メニューから最初のノードを選択します。
「Instruction」テキストエリアに以下を入力して、2番目のノードに指示を与えます。最初のノードの出力を2番目のノードに入力することで、2番目のノードは最初のノードの出力に基づいて出力を生成します。
```markdown
以下のトピックについて調査してください:
```
最後に、右上の「Run」ボタンをクリックしてエージェントをワークフローとして実行します。これにより両方のノードが実行され、最終出力が生成されます。おめでとうございます!Giselle で初めてのエージェントをワークフローとして実行しました!
# Giselle について
Source: https://docs.giselles.ai/ja/guides/introduction
Giselle ドキュメントのホームへようこそ!
Giselle は、生成的 AI のポテンシャルを完全に引き出すために設計された、直感的でノーコードの AI アプリケーションビルダーです。研究の自動化、チームワークフローの合理化、カスタム AI エージェントの構築など、Giselle はアイデアから本番稼働までを高速に実現します。
強力なビジュアルエディターとシームレスな統合機能で構築された Giselle は、個人とチームがこれまでにない方法で AI と協力できるようにします。
***
## 主要機能
Giselle は、ノーコードで AI アプリを数分で作成、デプロイ、管理することを可能にします。以下のようにワークフローに適用できます:
### ビジュアルノードエディター
ドラッグアンドドロップシステムを使用して AI アプリケーションを設計できます。明確でモジュラーなロジックで複雑なタスクを自動化します。
### マルチモデル AI コラボレーション
OpenAI、Anthropic、Google Gemini など、複数のモデルを単一のアプリで組み合わせて使用できます。各モデルの長所を組み合わせて強力なワークフローを作成します。
### GitHub 統合
GitHub イベントで AI アプリをトリガーし、コードレビュー、ドキュメント作成、課題の分類などを自動化できます。
### チーム知識の共有
AI エージェントを協力して構築・改良できます。アプリやエージェントをチームと共有して、専門知識を拡張します。
***
# 請求
Source: https://docs.giselles.ai/ja/guides/learn-about/billing
個人アカウントの請求と支払いを管理します
## 支払いガイド
このガイドでは、サブスクリプション管理、請求サイクル、安全な決済を含むGiselleの価格システムの仕組みについて説明します。Giselleは安全で信頼性の高い取引を確保するため、[Stripe](https://stripe.com)を使用して簡単な請求処理を行っています。
***
## 請求設定へのアクセス方法
ログイン後、サイドバーメニューから「請求」を選択することで[設定 > チーム > 請求](https://studio.giselles.ai/settings/team/billing)にアクセスできます。
このページから、Stripeが提供する専用の請求ポータルにアクセスできます。
Stripe請求ポータルでは、以下のことが可能です:
現在のサブスクリプション詳細を確認する
支払い方法を更新する
請求書履歴を確認する
サブスクリプションをキャンセルする
サブスクリプションのキャンセルは、Stripe管理画面を通じて行うことができます。Giselle管理インターフェースから直接キャンセルすることはできません。
***
## 請求サイクルについて
* サブスクリプションは、ご契約日から毎月定期的に請求されます
* サブスクリプションは毎月同じ日に自動的に更新されます(例:5月5日)
* 支払いは登録されている支払い方法を通じて自動的に処理されます
***
## 現在のプランと価格
現在のプランと価格オプションの詳細については、[価格ページ](https://giselles.ai/pricing)をご覧ください。
また、包括的なプランの詳細と機能比較については、ドキュメントの[プラン](plan)を参照することもできます。
これらのページでカバーされていない特定の価格に関する質問については、サポートチームにお問い合わせください。
***
## AIモデル使用量の請求方法
* フリープランには月間30分のAI使用量が含まれています(期間限定オファー)
* Proプランには、プロモーション期間中は無制限のAIモデル使用量が含まれています
* プロモーション終了の1ヶ月前にユーザーに通知されます
***
## 請求書の確認とダウンロード方法
Stripe請求ポータルで請求書履歴を確認およびダウンロードできます。各請求書には以下が表示されます:
* 支払い日
* 請求金額
* 支払い状況
* サービスの説明
Stripeポータルから、記録や会計目的で請求書と領収書の両方をダウンロードできます。必要な請求書を見つけて、提供されているダウンロードオプションを使用してください。
***
## 支払い方法の更新方法
支払い情報を更新するには:
1. 設定の[請求セクション](https://studio.giselles.ai/settings/team/billing)に移動します
2. Stripe請求ポータルにアクセスします
3. 「支払い方法」セクションを探します
4. 支払い詳細を変更します。以下のことが可能です:
* クレジットカード情報を更新する
* 別の支払い方法に変更する
支払い情報への全ての変更は、Stripeによって安全に処理・保存されます。
***
## サブスクリプションのキャンセル方法
サブスクリプションをキャンセルするには:
1. [請求設定](https://studio.giselles.ai/settings/team/billing)に移動します
2. 「サブスクリプションをキャンセル」をクリックします
3. キャンセル情報を確認します
4. 「サブスクリプションをキャンセル」ボタンをクリックして確認します
サブスクリプションは現在の請求期間の終了まで有効のままです。終了日前に気が変わった場合は、サブスクリプションを更新することができます。
***
## 支払い処理
* すべての支払いはStripeを通じて安全に処理されます
* 主要クレジットカードなどの支払い方法がサポートされています
* 支払い情報はGiselleではなく、Stripeによって安全に保存されます
このガイドでカバーされていない質問がある場合や、請求関連の問題が発生した場合は、**[support@giselles.ai](mailto:support@giselles.ai)**までお問い合わせください。
迅速なサポートのため、アカウント情報と問題の説明を含めてください。
# オープンソースライセンス
Source: https://docs.giselles.ai/ja/guides/learn-about/open-source-license
Giselle のオープンソースライセンスとそれがお客様の使用にどのように適用されるかを学びます
Giselle Community Edition はオープンソースであり、[Apache License 2.0](https://www.apache.org/licenses/LICENSE-2.0) のもとでリリースされています。これにより、特定の条件のもとで、ソフトウェアを自由に使用、変更、配布することができます。完全な条項については、GitHub リポジトリの [`LICENSE`](https://github.com/giselles-ai/giselle/blob/main/LICENSE) ファイルをご参照ください。
このライセンスでは、以下の権利が付与されます:
* 商用および非商用での使用
* 変更および再配布
* プロプライエタリな製品での使用(帰属表示あり)
ただし、ライセンスの第6条に記載されているとおり、明示的な許可なしに Giselle の **名前、ロゴ、商標** を使用する権利は **付与されません**。
ライセンスや使用権に関してご質問やご不明な点がございましたら、**[support@giselles.ai](mailto:support@giselles.ai)** までお問い合わせください。
コミュニティからの貢献を歓迎いたします。貢献方法の詳細については、[Contributing Guide](https://github.com/giselles-ai/giselle/blob/main/CONTRIBUTING.md) をご参照ください。
# プラン
Source: https://docs.giselles.ai/ja/guides/learn-about/plans
Giselle サブスクリプションを理解します。
## 利用可能なプラン
当社のプランおよび価格オプションの最新情報については、[価格ページ](https://giselles.ai/pricing) をご覧ください。
### フリープラン
AI エージェントを探求する個人開発者に最適です。
* 月あたり **30分間** の AI モデル使用(月次クレジット\$3相当)
* 基本的な AI モデルへのアクセス
* ノーコードビルダーでのエージェント作成・デプロイ
* 単一ユーザーアカウント
* マネージドクラウドデプロイ
### プロプラン
成長する開発チーム向けに設計されています。
* **ユーザーあたり月額\$20**
* **無制限** の AI モデル使用(期間限定プロモーションオファー)
* すべてのプレミアム AI モデルへのアクセス
* フリープランのすべての機能を含む
* チームコラボレーション(無制限のチームサイズ、追加ユーザー席は月額\$20/ユーザー)
* マネージドクラウドデプロイ
* メールサポート
## 月次 AI モデル使用量の詳細
各 Giselle サブスクリプションには、月次 AI モデル使用クレジットが含まれます:
* **フリープラン:** AI 使用の月次制限は30分間です。月次制限に達すると、次の請求サイクルまで AI 使用は一時停止されます。
* **プロプラン:** 月額\$20相当の AI 使用クレジットが含まれます。現在の期間限定プロモーション中は、標準月次クレジットを超えるすべての使用量が追加料金なしで無制限となります。
AI モデル使用クレジットは毎月更新され、未使用クレジットの繰り越しはありません。
## プラン変更および請求情報
### フリーからプロへのアップグレード
* アップグレード時、フリープランの未使用クレジットは破棄されます。
* 無制限プロモーション使用を含むプロプランの特典は、アップグレード時に即座に利用可能になります。
### プロからフリーへのダウングレード
* ダウングレードは現在の請求サイクルの終了時に有効になります。
* プロの特典はダウングレードが有効になるまで利用可能です。
### チームメンバーシップ
* **フリープラン:** 単一ユーザーに限定され、1つのフリーチームのみの所属となります。
* **プロプラン:** 複数のチームメンバーシップと無制限のチームサイズを可能にします。各追加チームメンバーは月額\$20の料金が発生します。
### 追加使用料金(プロプラン)
* 標準(非プロモーション)期間中、月額\$20使用クレジットを超えるプロプランユーザーには、合理的な追加料金(10%手数料)が発生し、次のサブスクリプション支払いサイクルで自動的に請求されます。
### プロモーション期間
* プロプランの現在の無制限使用オファーは一時的なものです。このプロモーション終了の1か月前にユーザーに通知されます。
***
詳細な価格設定やさらなる情報については、[Giselle 価格ページ](https://giselles.ai/pricing) を訪問するか、[support@giselles.ai](mailto:support@giselles.ai) にお問い合わせください。
# プライバシー・セキュリティ
Source: https://docs.giselles.ai/ja/guides/learn-about/privacy-security
アカウントのセキュリティとプライバシー設定を管理します
Giselleのプライバシー設定、データ処理、セキュリティ慣行、および情報保護への取り組みについてのガイドです。
Giselleは[ROUTE06株式会社](https://route06.com)によって開発・運営されています。同社は\*\*情報セキュリティマネジメントシステム(ISMS)**に関して**ISO/IEC 27001:2013(JIS Q 27001:2014)\*\*の[認証(IS 779274)](https://www.bsigroup.com/en-US/products-and-services/assessment-and-certification/validation-and-verification/client-directory-profile/ROUTE0-0047877345-000)を取得しています。これにより、お客様のデータは最新のインフラストラクチャと暗号化標準によって保護されるだけでなく、グローバルなコンプライアンス基準を満たす厳格な組織ポリシーによっても保護されています。
***
## クイックリンク
* [プライバシーポリシー](https://giselles.ai/legal/privacy)
* [利用規約](https://giselles.ai/legal/terms)
* [請求ポータル](https://studio.giselles.ai/settings/team/billing)
* [ROUTE06 ISMS認証取得のお知らせ](https://route06.com/news/isms)
***
## ISMS認証
ROUTE06は**BSIグループジャパン株式会社**より**ISO/IEC 27001**標準の認証を正式に取得しています。
* **認証番号**: IS 779274
* **適用範囲**: エンタープライズソフトウェア提供、デジタルプロダクト設計・開発、DXコンサルティングなど
* **初回認証日**: 2023年2月12日
> この認証は、ROUTE06がデータの**機密性、完全性、可用性**に対するコミットメントを示しています。私たちは高水準の情報セキュリティを維持するために、システムの継続的な監視と改善を行っています。
***
## セキュリティ概要
Giselleは、ROUTE06のISMSに基づくセキュリティインフラストラクチャの恩恵を受けており、以下の要素が含まれています:
### 組織的セキュリティ
* **ISO/IEC 27001:2013**に基づくISMS認証
* 内部スタッフに対する役割ベースのアクセス制御
* 定期監査、内部自己評価、第三者ペネトレーションテスト
### 管理的対策
* 従業員の機密保持契約とセキュリティ研修
* インシデント報告とエスカレーションの定義された手順
* データ保護の役割を明確に定義
### 技術的保護措置
* 通信時のTLS暗号化
* 厳格なアクセス制御とAPIレート制限
* 安全なクラウドインフラストラクチャ(AWS、Supabase、Vercel)
### 物理的保護措置
* クラウドプロバイダーによる安全な施設
* リモートファーストチームに対するハードウェアおよびデバイスレベルの保護ポリシー
***
お客様のアカウント経由または[support@giselles.ai](mailto:support@giselles.ai)までメールでお問い合わせください。
# 使用状況
Source: https://docs.giselles.ai/ja/guides/learn-about/usage
チームのリソース使用状況を監視し管理します
## 使用状況概要
Giselle は、最適なパフォーマンスと可用性を確保するために、チームの機能とリソースの使用状況を監視および管理しています。
### リソースメトリクス
Giselle は、Free プランと Pro プランの割り当てを区別して、AI モデル使用率に関連する詳細なメトリクスを内部的に追跡しています。
## 使用制限
各サブスクリプションプランには、一貫したサービスレベルを維持するための使用制限が定められています。
### 現在のプラン制限
サブスクリプションプランには以下が含まれます:
* **Free プラン**: AI モデル使用時間 30 分の期間限定オファー(通常は月額 3 ドル相当のクレジット)
* **Pro プラン**: メンバーあたり月額 20 ドルで、プロモーション期間中は期間限定の AI モデル無制限使用
* **チームメンバーシート**: Free プランは 1 ユーザー、Pro プランは追加ユーザーあたり月額 20 ドルで複数ユーザー利用可能
## 使用状況レポート
Giselle は、分析と計画のためにリソース使用状況の詳細な内部レポートを生成します。
## 使用状況監視
Giselle は、精度を確保するために使用状況データを定期的に確認しています。システムに表示される使用状況情報は一日を通して更新されますが、API の問題や AI モデルに影響を与える他の技術的要因により、不一致が発生する場合があります。
Giselle が使用状況データに重大な不整合や異常なパターンを検出した場合、サポートチームが直接ご連絡する場合があります。同様に、何らかの不一致に気づいたり、報告された使用状況について質問がある場合は、[support@giselles.ai](mailto:support@giselles.ai) のサポートチームまでお気軽にお問い合わせください。
Giselle は、可能な限り正確で最新の情報を提供するために、監視システムの改善を継続的に行っています。
# 認証
Source: https://docs.giselles.ai/ja/guides/settings/account/Authentication
サードパーティ サービスと Giselle アカウントを接続してログインを簡略化します。
[設定 > アカウント > 認証](https://studio.giselles.ai/settings/account/authentication) に移動して認証設定ページにアクセスできます。
### 外部サービスの接続
ログインプロセスを簡素化するために、Giselle アカウントを Google や GitHub などの外部サービスと接続できます。これらの接続を簡単に管理できます:
* **Google**\
Google アカウントと Giselle アカウントを接続または再接続します。
* **GitHub**\
GitHub アカウントと Giselle アカウントを接続または切断します。
認証設定ページから直接接続を管理できます。
# 一般
Source: https://docs.giselles.ai/ja/guides/settings/account/general
アカウントの基本設定と環境設定を構成します
[設定 > アカウント > 一般](https://studio.giselles.ai/settings/account/general) に移動して一般設定ページにアクセスできます。
### 表示名
一般設定ページの「編集」ボタンをクリックし、希望の名前を入力して「保存」をクリックすることで、表示名を編集できます。
### メールアドレス
メールアドレスがここに表示され、アカウント関連の通知に使用されます。このメールアドレスはこのビューから直接編集できません。
### セッション管理
セッションセクションの「ログアウト」ボタンをクリックすることで、すべてのアクティブなセッションから安全にログアウトできます。
私たちのチームは、近日中に追加の設定オプションを提供するため積極的に取り組んでいます。更新をお待ちください。
# 概要
Source: https://docs.giselles.ai/ja/guides/settings/account/overview
チームを表示し管理します
[設定 > アカウント > 概要](https://studio.giselles.ai/settings/account) ページでチームを表示・管理できます。
### チーム
* 現在のチームの一覧を表示します。
* アカウント概要ページから新しいチームを作成できます。
**注**: 複数のチームを作成するには、有料(Pro)プランにアップグレードする必要があります。
追加の設定オプションを近日中に提供するため積極的に取り組んでいます。更新をお待ちください。
# 請求
Source: https://docs.giselles.ai/ja/guides/settings/team/billing
現在のサブスクリプションステータスを確認します。
[設定 > チーム > 請求](https://studio.giselles.ai/settings/team/billing) に移動して請求ページにアクセスできます。
### 現在のプラン
このページでは、サブスクリプションプランのステータスを確認できます。
Stripe ダッシュボードを通じて、キャンセル、支払い方法の変更、領収書や請求書へのアクセスなど、サブスクリプションを管理できます。Stripe にアクセスするには、[設定 > チーム > 請求](https://studio.giselles.ai/settings/team/billing) に移動し、支払い情報セクションの「更新」を選択してください。
サブスクリプションについてご質問がある場合は、[プランと料金ページ](https://studio.giselles.ai/settings/team/billing) をご覧ください。
私たちのチームは、お客様の請求ニーズをより良くサポートするための追加の機能強化とオプションの提供に継続的に取り組んでいます。更新をお待ちください。
# 一般
Source: https://docs.giselles.ai/ja/guides/settings/team/general
チームの基本設定と環境設定を構成します
[設定 > チーム > 一般](https://studio.giselles.ai/settings/team) に移動して一般設定ページにアクセスできます。
### チーム名
一般設定ページの「編集」ボタンをクリックしてチーム名を編集できます。
### チーム削除
必要に応じて、Giselle プラットフォームからチームと関連するすべてのデータを永久に削除できます。この操作は元に戻すことができないため、注意して進めてください。
私たちのチームは、これらの追加の設定オプションを近日中に提供するため積極的に取り組んでいます。更新をお待ちください。
# 統合
Source: https://docs.giselles.ai/ja/guides/settings/team/integrations
Giselle AI アプリとの統合を構成、管理、監督します。
[設定 > チーム > 統合](https://studio.giselles.ai/settings/team/integrations) に移動して統合ページにアクセスできます。
## 統合概要
統合ページでは、管理者とチーム所有者が Giselle AI アプリとサードパーティ統合を効率的に接続・管理できます。新しい統合の接続、統合権限の調整、必要に応じた統合の削除が可能です。
## 統合の管理
### 新しい統合の設定
新しい統合を設定するには:
1. **Giselle の GitHub アプリを設定** または関連する統合オプションをクリックします。
2. プロンプトに従って外部アカウントまたはサービスを認証・接続します。
### 統合権限
* **パブリック**: 適切な役割を持つすべてのチームメンバーがアクセス可能。
* **プライベート**: アクセス制限があり、特定のユーザーまたは管理者のみが表示・管理可能。
### 統合設定の調整
統合の設定や権限を変更するには:
* 変更したい統合を選択し、必要に応じて権限や設定を調整します。
### 統合の削除
GitHub 統合を削除するには:
1. GitHub アカウント設定に移動します。
2. **設定 > アプリケーション > インストール済み GitHub アプリ** に移動します。
3. Giselle AI 統合を見つけて、Danger Zone セクションの **アンインストール** をクリックします。
統合を削除すると、関連するすべての権限とアクセスが即座に取り消されます。
## 統合詳細
各統合エントリには、統合の名前とアクセスレベル(パブリックまたはプライベート)が表示されます。詳細が指定されていない統合は、デフォルト設定で明確にラベル付けされて表示されます。
統合管理でサポートが必要な場合や問題が発生した場合は、[support@giselles.ai](mailto:support@giselles.ai) のサポートチームまでお問い合わせください。
# メンバー
Source: https://docs.giselles.ai/ja/guides/settings/team/members
Giselle AI アプリへのチーム メンバーのアクセスを招待、管理、監督します。
メンバーページには [Settings > Team > Members](https://studio.giselles.ai/settings/team/members) へナビゲートしてアクセスできます。
## メンバーの概要
メンバーページでは、管理者やチームオーナーが Giselle AI アプリ内でのメンバーアクセスを効率的に管理できます。新しいメンバーの招待、役割の変更、必要に応じてユーザーの削除が可能です。
## メンバーの管理
### 新しいメンバーの招待
新しいメンバーを追加するには:
1. 提供された入力フィールドにメンバーのメールアドレスを入力します。
2. 適切な役割(例:メンバーまたは管理者)を選択します。
3. **招待** をクリックして招待を送信します。
### メンバーの役割
* **管理者**: メンバー、統合、請求、その他の設定を管理するフルアクセス権。
* **メンバー**: 管理者権限のない AI アプリへの標準ユーザーアクセス。
### メンバーアクセスの変更
メンバーのアクセス権を変更するには:
* ユーザー名の横にある **アクセスの管理** ボタンをクリックして、役割や権限を調整します。
### メンバーの削除
チームからメンバーを削除するには:
1. メンバー名の横にあるオプションアイコン(**...**)をクリックします。
2. **チームから削除** を選択します。
メンバーを削除すると、Giselle AI アプリへのすべてのアクセス権が即座に取り消されます。
## メンバー詳細
各メンバーエントリには、ユーザーのメールアドレスと割り当てられた役割が表示されます。表示名が指定されていないメンバーは **表示名なし** として表示されます。
チームメンバー管理でサポートが必要な場合や問題が発生した場合は、[support@giselles.ai](mailto:support@giselles.ai) のサポートチームまでお問い合わせください。
# 使用状況
Source: https://docs.giselles.ai/ja/guides/settings/team/usage
チームの AI アプリ使用状況を監視し管理します
[設定 > チーム > 使用状況](https://studio.giselles.ai/settings/team/usage) に移動して使用状況ページにアクセスできます。
## 使用状況概要
チームの AI アプリ使用状況を明確かつ効率的に監視します。最近、分単位での使用量計算からクレジットベースのシステムに移行しました。
### リソースメトリクス
Giselle は情報提供のみを目的として、チームの AI アプリ実行時間を分単位で追跡しています。この監視は現在、請求に直接関連していません。請求はクレジットを通じて計算されるようになりました。
## 使用制限
サブスクリプションプランには、毎月 AI モデル使用クレジットが含まれています:
* **Free プラン**: 月額30分(期間限定プロモーション)
* **Pro プラン**: プロモーション期間中は無制限使用
注:分単位で表示されるアプリ実行時間は、実際に請求されるクレジットとは別です。
## 使用状況レポート
開始時間、終了時間、総期間を含む最近のアプリ活動の詳細ログが、簡単な追跡のために提供されます。
## 使用状況監視
Giselle は一日を通してアプリの使用状況を継続的に更新しています。現在、時間ベースからクレジットベースの監視に移行中です。以前の UI の一部が残っており、混乱を招く可能性があります。
不明な点がある場合や使用状況に関してご不明な点がある場合は、[support@giselles.ai](mailto:support@giselles.ai) のサポートチームまでお問い合わせください。
# 構築
Source: https://docs.giselles.ai/ja/guides/workspaces/build
Giselle でワークスペースを構築し設定する方法を学びます
TBD
# Anthropic
Source: https://docs.giselles.ai/ja/models/providers/anthropic
利用可能な Anthropic AI モデルの概要。
## Claude モデル
Anthropic ワークスペースでは以下の Claude モデルが利用可能です。各モデルは、お客様の使用事例の要件に合わせて調整された特定の機能と特徴を提供します。適用可能なモデルでは、「推論」(拡張思考)機能が Giselle でサポートされています。
| Models | Generate Text | Web Search | Reasoning | Input PDF | Input Image | Context Window | Max Output | Plan\@Giselle |
| :----------------------------- | :------------ | :--------- | :-------- | :-------- | :---------- | :------------- | :---------- | :------------ |
| **claude-opus-4-1-20250805** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 32k tokens | Pro |
| **claude-4-opus-20250514** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 32k tokens | Pro |
| **claude-4-sonnet-20250514** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 64k tokens | Pro |
| **claude-3-7-sonnet-20250219** | ✅ | ✅ | ✅ | ✅ | ✅ | 200k tokens | 64k tokens | Pro |
| **claude-3-5-haiku-20241022** | ✅ | ✅ | ❌ | ✅ | ✅ | 200k tokens | 8192 tokens | Free |
公式APIで提供されている機能でも、Giselle内では利用できない場合があることにご注意ください。拡張思考モードおよびその他のAnthropic API機能は、Giselle内で段階的に実装される予定です。
### claude-opus-4-1-20250805
Claude Opus 4.1 は Anthropic の最も強力なモデルで、究極のコーディングパワーハウスとして設計されています。複雑な多段階コーディング、持続的な長時間タスク、高度な推論に優れています。200k トークンのコンテキストウィンドウと最大32kトークンの出力能力を持つOpus 4.1は、数時間にわたって持続的なパフォーマンスを提供し、複雑なリファクタリングやマルチリポジトリ解析など、深い理解と永続性を要求するプロジェクトに最適です。テキストと画像入力をサポートしています。
### claude-4-opus-20250514
Claude Opus 4 は Anthropic の最も強力なモデルで、究極のコーディングパワーハウスとして設計されています。複雑な多段階コーディング、持続的な長時間タスク、高度な推論に優れています。200k トークンのコンテキストウィンドウと最大32kトークンの出力能力を持つOpus 4は、数時間にわたって持続的なパフォーマンスを提供し、複雑なリファクタリングやマルチリポジトリ解析など、深い理解と永続性を要求するプロジェクトに最適です。テキストと画像入力をサポートしています。
### claude-4-sonnet-20250514
Claude Sonnet 4 はバランスの取れたパフォーマンスチャンピオンで、最適なコストパフォーマンスバランスで高い知性を提供します。日常的なコーディングタスク、コンテンツ生成、プレミアムコストを必要とせずに最先端レベルのパフォーマンスが必要なシナリオに適しています。Sonnet 4 は200k トークンのコンテキストウィンドウを特徴とし、最大64kトークンまで出力でき、テキストと画像入力をサポートしています。ほとんどの使用事例で優れた価値を提供し、幅広いアプリケーションで卓越した効率性を実現します。
### claude-3-7-sonnet-20250219
優れた知性と推論能力を提供する先進的なモデルです。複雑なタスク、拡張推論、詳細な分析、PDFや画像を含むマルチモーダルタスクの処理に最適です。最大200kトークンの広範なコンテキストウィンドウを含み、オプションの拡張思考機能により最大64kトークンまでの出力が可能です(ベータ版では128kトークンが利用可能)。
### claude-3-5-haiku-20241022
速度に最適化されたこのモデルは、リアルタイムの応答性に最適です。迅速なテキスト生成でPDFと画像入力をサポートし、高速なインタラクションと200kトークンのコンテキストウィンドウ内で迅速で簡潔な応答を必要とするシナリオに適しています。
## モデル選択ガイド
最適なClaudeモデルを選択するためのガイドライン:
* **究極のコーディングパワーハウスと最も複雑な推論(最新)**: `claude-opus-4-1-20250805`
* **究極のコーディングパワーハウスと最も複雑な推論**: `claude-4-opus-20250514`
* **バランスの取れた高性能、日常的なコーディング、コスト効率的なワークフロー**: `claude-4-sonnet-20250514`
* **最高の総合知性と複雑な推論(前世代)**: `claude-3-7-sonnet-20250219`
* **速度と即座の応答性が重要な場合**: `claude-3-5-haiku-20241022`
## Giselleでの実践
特に高度なコーディング、複雑な問題解決、深い分析を含むタスクにおいて、Giselleでは`claude-opus-4-1-20250805`、`claude-4-opus-20250514`または`claude-4-sonnet-20250514`を主要モデルとして推奨します。これらのモデルはハイブリッド推論モードを特徴とし、タスクの複雑さに基づいて即座の応答と拡張思考を自動的に切り替えます。
`claude-3-7-sonnet-20250219`は実証された推論能力により、引き続き強力な選択肢です。これらのモデルはコード生成、アーキテクチャ設計、技術レビューだけでなく、驚くほど自然なテキストも生成します。Giselleでサポートされている「推論」(拡張思考)機能により、多段階の思考プロセスを必要とするタスクに特に強力です。これらの多用途モデルは、魅力的なブログ記事の作成から複雑なコード実装の記述、詳細な分析作業の実行まで、幅広いタスクで効果的に活用できます。
### Anthropic Web Search Tool
サポートされているClaudeモデルについて、GiselleはAnthropic Web Search toolを統合しており、ジェネレーターノードの**Tools**タブから直接設定できます。この機能により、Claudeはウェブからリアルタイム情報にアクセスでき、最新のデータに基づいて質問に答え、ソース引用付きでコンテンツを生成できます。
#### 設定
ジェネレーターノードで**Tools**タブに移動し、「Anthropic Web Search」の横にある**Configure**をクリックします。その後、以下の設定が可能です:
* **Enable Tool**: ウェブ検索機能のオン/オフを切り替え
* **Set Maximum Uses**: 1回の実行でモデルが実行できるウェブ検索の回数を制限(1〜10回)
* **Filter Domains**: 以下のいずれかによって検索範囲を制御:
* **Allowing Specific Domains**: 信頼できるソースのホワイトリストに検索を制限
* **Blocking Specific Domains**: 検索結果から特定のウェブサイトを除外
詳細な仕様、パフォーマンスベンチマーク、または追加サポートについては、[Anthropic API Documentation](https://docs.anthropic.com/en/docs/about-claude/models/all-models)および[Claude 4 announcement](https://www.anthropic.com/news/claude-4)をご参照ください。
# fal.ai
Source: https://docs.giselles.ai/ja/models/providers/fal
利用可能な fal.ai 画像生成モデルの概要。
## fal.ai 画像生成モデル
fal.ai ワークスペースでは以下の画像生成モデルが利用可能です。各モデルは、速度、詳細、芸術的忠実度のバランスを取りながら、異なる使用事例に適した独特の機能を提供します。
| Models | Text-to-Image | Speed | Detail & Fidelity | Typography | Inference Steps | Safety Checker | Plan\@Giselle |
| -------------------------- | ------------- | ---------- | ----------------- | ------------ | ---------------- | ------------------------ | ------------- |
| flux-pro/v1.1 | ✅ | ⚡️ High | ⭐️⭐️⭐️⭐️⭐️ | ✅ | Optimized | ✅ (Tolerance levels 1-6) | Free |
| flux/schnell | ✅ | ⚡️⚡️ Turbo | ⭐️⭐️⭐️⭐️ | ✅ | 1-4 steps | ✅ | Pro |
| stable-diffusion-v3-medium | ✅ | Moderate | ⭐️⭐️⭐️⭐️⭐️ | ✅ (Enhanced) | Default 28 steps | ✅ | Pro |
公式APIで提供されている機能でも、Giselle内では利用できない場合があることにご注意ください。
### flux-pro/v1.1
FLUX.1の強化版で、優れた構図、詳細、芸術的忠実度を提供します。大幅に高速化された速度(最大10倍)により、プロフェッショナルグレードのビジュアルコンテンツに対して優秀な結果を提供します。調整可能な安全許容レベル、詳細なタイポグラフィサポート、効率性のために最適化された推論ステップが含まれています。
### flux/schnell
極めて高速な画像生成(1-4ステップ)に最適化された、非常に効率的な120億パラメータモデルです。品質に大きな妥協をすることなく迅速な画像生成を必要とする使用事例に最適です。組み込みの安全チェック機能により、個人用および商用利用の両方に適しています。
### stable-diffusion-v3-medium
画像品質、タイポグラフィ処理、プロンプト理解、および全体的な効率性を大幅に改善する先進的なマルチモーダル拡散トランスフォーマー(MMDiT)モデルです。強化されたタイポグラフィ機能と標準的な推論ステップにより、品質と速度の優れたバランスを提供します。
## モデル選択ガイド
最適なfal.aiモデルを選択するためのガイドライン:
* **最高の芸術的忠実度とプロフェッショナルな結果**: flux-pro/v1.1
* **最速の画像生成**: flux/schnell
* **バランスの取れた画像品質、タイポグラフィ、効率性**: stable-diffusion-v3-medium
## Giselleでの実践
優れた詳細、芸術的正確性、全体的に優れた画像品質が不可欠な場合、flux-pro/v1.1を主要な選択肢として推奨します。リアルタイムアプリケーションや迅速な視覚的フィードバックを必要とするプロジェクトには、flux/schnellが必要な速度を提供します。品質、効率性、タイポグラフィの精度の多用途なバランスが必要な場合は、stable-diffusion-v3-mediumを強く推奨します。
詳細な仕様、統合ガイド、および追加サポートについては、[fal.ai API Documentation](https://fal.ai/models)をご参照ください。
# Google
Source: https://docs.giselles.ai/ja/models/providers/google
利用可能な Google AI モデルの概要。
## Gemini
Giselle ワークスペースでは以下の Gemini モデルが利用可能です。各モデルは、お客様の使用事例の要件に合わせた特定の機能と特徴を提供します。
| Models | Generate Text | Web Search | Reasoning | Input PDF | Input Image | Input Audio | Input Video | Context Window | Plan\@Giselle |
| --------------------- | ------------- | ---------- | --------- | --------- | ----------- | ----------- | ----------- | ------------------- | ------------- |
| gemini-2.5-pro | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | 1M tokens (2M soon) | Pro |
| gemini-2.5-flash | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | 1M tokens | Pro |
| gemini-2.5-flash-lite | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | 1M tokens | Free |
*注意:Google公式APIで提供されている機能でも、Giselle内では利用できない場合があります。「Free」または「Pro」でマークされた機能は、それらにアクセスするために必要なGiselleサブスクリプションプランを示しています。*
### gemini-2.5-pro
次世代の包括的なモデルです。テキスト生成、ウェブ検索、高度な推論、堅牢なコーディング機能を含む、最先端の機能を提供します。幅広い入力形式(PDF、画像、音声、動画)をサポートし、100万トークンのコンテキストウィンドウを持ちます(200万トークンへの拡張予定)。複雑な問題と深いマルチモーダル理解のために最新の進歩を実験したいユーザーに最適です。Proプランが必要です。
### gemini-2.5-flash
速度*と*推論に最適化された次世代Flashモデルです。高速なテキスト生成、ウェブ検索、推論機能を提供し、様々な入力(PDF、画像、音声、動画)をサポートします。100万トークンのコンテキストウィンドウにより、迅速な応答と分析的深度およびマルチモーダル理解を組み合わせたタスクに最適です。Proプランが必要です。
### gemini-2.5-flash-lite
次世代Flash Liteモデルである`gemini-2.5-flash-lite`は、最大効率と可能な限り最速の応答のために設計されています。テキスト生成、ウェブ検索、マルチモーダル入力(PDF、画像、音声、動画)をサポートします。100万トークンのコンテキストウィンドウにより、高スループットタスクと即座のフィードバックが最重要のアプリケーションに最適です。Freeプランでご利用いただけます。
## モデル選択ガイド
お客様のニーズとプランに基づいて最適なモデルを選択するためのガイドライン:
**Freeプランモデル:**
* **極めて高速な応答と効率性**: `gemini-2.5-flash-lite`(最大速度)
**Proプランモデル:**
* **最高の全体的パフォーマンスと複雑なタスク**: `gemini-2.5-pro`(最も強力、全機能)
* **推論付きの高速応答**: `gemini-2.5-flash`(速度+推論のバランス)
## Giselleでの実践
複雑なタスクに対する実証された能力と安定性により、Giselleでは`gemini-2.5-pro`(Proプラン)を主要モデルとして推奨します。大量のデータ処理、複雑なコードレビューの実行、幅広いビジネスタスクの処理が可能です。
Freeプランで速度を重視するユーザーには、`gemini-2.5-flash-lite`が優れた選択肢です。速度と推論のバランスを求めるProユーザーは、`gemini-2.5-flash`を検討することをお勧めします。
これらのモデルで**Search grounding**機能を有効にすることにより(該当する場合)、ウェブ検索機能にアクセスでき、最新の利用可能な情報でワークフローを補完することができます。
詳細な仕様、パフォーマンスベンチマーク、または追加サポートについては、[Google AI for Developers](https://ai.google.dev/gemini-api/docs/models)をご確認ください。
# OpenAI
Source: https://docs.giselles.ai/ja/models/providers/openai
Giselle ワークスペース内で利用可能な OpenAI モデルの概要。
Giselle ワークスペースで利用可能な OpenAI モデルを探索します。これらのモデルは、OpenAI のプラットフォーム構造を反映して、主な強みと使用事例に基づいてカテゴライズされています。
## クイック比較
Giselle で利用可能な OpenAI モデルの主な機能を以下の表にまとめました。
| Models | Generate Text | Input Image | Web Search | Reasoning | Context Window | Max Output Tokens | Pricing (Input/Output per 1M tokens) | Availability |
| ----------- | ------------- | ----------- | ---------- | ----------- | -------------- | ----------------- | ------------------------------------ | ------------ |
| gpt-5 | ✅ | ✅ | ✅ | ✅ (Highest) | 400k tokens | 128k tokens | $1.25 / $10.00 | Pro |
| gpt-5-mini | ✅ | ✅ | ✅ | ✅ (High) | 400k tokens | 128k tokens | $0.25 / $2.00 | Pro |
| gpt-5-nano | ✅ | ✅ | ❌ | ✅ (Medium) | 400k tokens | 128k tokens | $0.05 / $0.40 | Free |
| gpt-image-1 | ❌ | ✅ | ❌ | ❌ | Unknown | N/A | $5.00 / $40.00 | Pro |
*基盤となる OpenAI モデルでサポートされている場合でも、一部の機能(ファインチューニング、バッチ処理、音声や転写などの特定のツール使用などの特定の API 機能)は、Giselle インターフェース内で直接公開されていない、または利用できない場合があります。*
## GPT-5 シリーズモデル
OpenAI の最新かつ最も先進的なモデルファミリーである GPT-5 シリーズをご紹介します。これらのモデルは、強化された推論機能、より高速な処理速度、改善された効率性を特徴とし、幅広いタスクにわたってパフォーマンスの新しいベンチマークを設定しています。
### gpt-5
GPT-5 は OpenAI のフラッグシップモデルで、様々な領域におけるコーディング、複雑な推論、エージェンティックなタスクの新たな基準を設定しています。専門家レベルの知能と深い推論エンジンを内蔵し、多段階問題、技術文書作成、テキスト・コード・画像の分析において例外的な能力を発揮します。ウェブ検索機能もサポートしています。
* **Context Window:** 400,000 tokens
* **Max Output Tokens:** 128,000 tokens
* **Knowledge Cutoff:** October 1, 2024
* **Inputs:** Text, Image
* **Availability:** Pro Plan
### gpt-5-mini
GPT-5 mini は、明確に定義されたタスクに最適化された、より高速でコスト効率に優れた GPT-5 のバージョンです。強力な推論能力を維持しながら、知能、速度、手頃な価格のバランスを取っています。画像入力とウェブ検索をサポートし、多くの一般的な用途において汎用的な選択肢となっています。
* **Context Window:** 400,000 tokens
* **Max Output Tokens:** 128,000 tokens
* **Knowledge Cutoff:** May 31, 2024
* **Inputs:** Text, Image
* **Availability:** Pro Plan
### gpt-5-nano
GPT-5 nano は GPT-5 シリーズで最も高速で費用対効果に優れたモデルです。要約や分類などの高スループットタスク用に設計され、迅速かつ効率的なパフォーマンスを提供します。テキストと画像の入力をサポートしていますが、ウェブ検索機能は含まれていません。
* **Context Window:** 400,000 tokens
* **Max Output Tokens:** 128,000 tokens
* **Knowledge Cutoff:** May 31, 2024
* **Inputs:** Text, Image
* **Availability:** Free Plan
## 画像生成モデル
これらのモデルは、テキストや画像入力から高品質な画像を生成することに特化しています。
### gpt-image-1
OpenAIの最先端画像生成モデルです。テキストと画像の両方の入力を受け入れ、画像出力を生成するネイティブマルチモーダル言語モデルです。このモデルは異なる品質レベル(Low、Medium、High)を提供し、様々な画像サイズをサポートしており、使用例の要件に基づいた柔軟な生成が可能です。
* **Pricing:** Input text: $5.00 per 1M tokens, Input images: $10.00 per 1M tokens, Output images: \$40.00 per 1M tokens
* **Quality Options:** Low, Medium, High
* **Supported Dimensions:** 1024x1024, 1024x1536, 1536x1024
* **Knowledge Cutoff:** April 2025 (estimate based on release date)
* **Inputs:** Text, Image
* **Outputs:** Image
* **Availability:** Pro Plan
## モデル選択ガイド
Giselle 内で最適な OpenAI モデルを選択するためのガイドライン:
* **最高の総合パフォーマンス、コーディング、エージェンティックなタスク、最高の推論性能には**: `gpt-5` (Pro)
* **明確に定義されたタスク向けの高速でコスト効率的なGPT-5バージョンには**: `gpt-5-mini` (Pro)
* **要約や分類用の最高速で最もコスト効率的なGPT-5バージョンには**: `gpt-5-nano` (Free)
* **テキストまたは画像入力からの高品質画像生成には**: `gpt-image-1` (Pro)
## Giselle でのプラクティス
Proユーザーにはまず **gpt-5** を Giselle における汎用性の高い主力モデルとして推奨いたします。複雑なコーディング、ビジネス文書作成、詳細な分析、高度な研究など、様々なタスクにおいて、能力、知能、機能(ツールによるウェブ検索を含む)の比類のないバランスを提供します。GPT-5 は高い信頼性と精度を持つよう設計されており、幻覚を大幅に削減し、指示への従順性を向上させています。
明確に定義されたタスクにおいて速度とコスト効率のバランスを求めるProユーザーには、**gpt-5-mini** が優れた選択肢であり、強力な推論とマルチモーダル機能を維持しています。
Freeプランのユーザーや、要約や分類などの高スループットタスクで最も高速でコスト効率的なソリューションを優先する方には、**gpt-5-nano** が推奨されるモデルです。
**廃止モデルの自動フォールバック:**
Giselleは既存のワークフローのシームレスな移行を保証するため、以前に利用可能だったOpenAIモデルを新しいGPT-5シリーズに自動的にマッピングするようになりました。
* **`gpt-5` (Pro) にマッピングされるモデル**: `gpt-4o`, `o3`, `gpt-4.1`, `o1`, `gpt-4-turbo`, `gpt-4`, `gpt-3.5-turbo`
* **`gpt-5-mini` (Pro) にマッピングされるモデル**: `o4-mini`, `gpt-4.1-mini`, `o3-mini`, `o1-mini`, `gpt-4o-mini`
* **`gpt-5-nano` (Free) にマッピングされるモデル**: `gpt-4.1-nano`
画像生成のニーズに対しては、**gpt-image-1** が高品質な結果を提供し、テキストと画像の両方の入力をサポートしています。このモデルは特定の要件に基づいてコストと詳細のバランスを取るために、異なる品質階層を提供しています。
ワークフローでこれらのモデルを組み合わせることで、それぞれの特定の強みを活用できます。例えば、高度な推論とコーディングには `gpt-5` を使用し、コスト効率的なタスクには `gpt-5-mini` を使用し、高速で大量処理が必要な操作には `gpt-5-nano` を使用します。
詳細な仕様とOpenAIが直接提供するモデルの全範囲については、[公式OpenAIドキュメント](https://platform.openai.com/docs/models)をご確認ください。
# 概要
Source: https://docs.giselles.ai/ja/models/providers/overview
AI モデル プロバイダー。
この文書は、Giselle のジェネレーター ノードを通じて利用可能な AI プロバイダーの概要を説明しています。Giselle は複数の AI プロバイダーの API と統合し、ワークフローに多様な機能を提供します。
## プロバイダー概要
### Anthropic
Anthropic は信頼性が高く、解釈可能で制御可能な AI システムの開発に焦点を当てています。彼らの Claude モデルは、有用性、無害性、誠実性に重点を置いて設計されており、ニュアンスのある理解と安全な出力が必要なアプリケーションに最適です。
**主要モデル:**
* Claude 3.7 Sonnet - 高度な推論機能を持つ最新モデル
* Claude 3.5 Sonnet - 一般的なアプリケーション向けバランス型モデル
* Claude 3.5 Haiku - 高速応答に最適化されたモデル
### Google AI
Google の Gemini モデルは、最も優秀で多機能な AI システムを代表しています。これらのモデルはマルチモーダル タスクに優れ、広範なコンテキスト ウィンドウを提供するため、複雑でコンテキストが豊富なアプリケーションや多様な入力タイプに適しています。
**主要モデル:**
* Gemini 2.5 Pro - マルチモーダル機能とウェブ検索を備えた包括的モデル
* Gemini 2.0 Flash - 高速応答に最適化されたモデル
* Gemini 2.0 Flash Thinking - 推論に特化した高速応答モデル
### OpenAI
OpenAI は、コード生成、創作コンテンツ、構造化された出力に特に優れた強力なモデルを幅広く提供しています。これらのモデルは堅牢な関数呼び出し機能と、多様な分野での優れた性能を特徴としています。
**主要モデル:**
* GPT-4o - 包括的な機能を持つフラッグシップ マルチモーダル モデル
* GPT-4o-mini - 特定タスク向けの高速で手頃な小型モデル
* o3-mini - 大容量トークン制限を持つ推論最適化小型モデル
### Fal AI
Fal AI は、品質、速度、汎用性のバランスを取った画像生成モデルに焦点を当てています。これらのモデルは、多様なクリエイティブおよび商業アプリケーション用に設計され、多様なニーズに合わせた異なる最適化プロファイルを提供しています。
**主要モデル:**
* flux-pro/v1.1 - 優れた構図と詳細を持つ高品質画像生成
* flux/schnell - 時間に敏感なアプリケーション向けの超高速画像生成
* stable-diffusion-v3-medium - 強化されたタイポグラフィ機能を持つバランス型モデル
## Giselle での使用事例
### コンテンツ制作ワークフロー
* **Anthropic (Claude)**: Giselle ワークフローで、ニュアンスのあるビジネス文書の作成、ポリシー コンテンツの生成、よく練られた説明の生成に理想的です。Claude モデルは、機密性の高い内容を扱う場合や、倫理的配慮が最重要である場合に特に効果的です。
* **Google (Gemini)**: 混合メディア入力を含む Giselle ワークフローに最適です。ワークフローがテキスト、画像、その他のメディア形式を含む文書を同時に処理する場合は Gemini モデルを使用してください。大きなコンテキスト ウィンドウにより、広範囲な文書や研究資料の分析に優れています。
* **OpenAI (GPT)**: Giselle での技術文書ワークフロー、コード生成パイプライン、創作コンテンツ制作に優れた選択肢です。構造化された出力機能により、Giselle ワークフローが特定の形式でコンテンツを生成したり、構造化されたデータを抽出したりする必要がある場合に GPT モデルが特に有用になります。
### ビジュアル コンテンツ ワークフロー
* **Fal AI**: 画像生成タスクを含む Giselle ワークフローに不可欠です。高品質なマーケティング ビジュアルには flux-pro を、迅速なプロトタイピングと反復設計プロセスには flux/schnell を、タイポグラフィ要件を満たすバランスの取れた結果には stable-diffusion を使用してください。
### マルチ プロバイダー ワークフロー
Giselle の強みの一つは、単一のワークフローで異なるプロバイダーを組み合わせる能力です:
* 異なるモデルで情報を収集し、影響を分析し、調査結果を構造化された文書にフォーマットする
* Gemini のマルチモーダル分析と Fal AI の画像生成を組み合わせて、文書分析に基づくビジュアル コンテンツを作成する
* 各ワークフロー段階でコスト/パフォーマンスを最適化するために、順次ノードで異なるモデルの強みを活用する
## 将来のロードマップ
Giselle では、AI の状況が進化するにつれて、プロバイダー統合を継続的に拡張し、サポートするモデルを更新することにコミットしています。私たちは、お客様のニーズに最適な最先端の AI 技術へのアクセスを確保するために、新しいモデルと機能を定期的に評価しています。
私たちのプラットフォームに追加したいモデルやプロバイダーについてのご意見を重要視しています。現在の提供サービスについて具体的なご要望やフィードバックがございましたら、お気軽にお問い合わせください。
## その他のリソース
各プロバイダーのモデルの詳細仕様と文書については:
* [Anthropic Documentation](https://docs.anthropic.com/)
* [Google AI for Developers](https://ai.google.dev/)
* [OpenAI Documentation](https://platform.openai.com/docs)
* [Fal.ai Models](https://fal.ai/models)
# 例
Source: https://docs.giselles.ai/ja/prompts/examples
Giselle のジェネレーター ノードでの効果的なプロンプト例。
このドキュメントでは、GiselleのGenerator Node専用にカスタマイズされた効果的で具体的なプロンプト例を提供します。AnthropicのClaude、GoogleのGemini、OpenAIのGPT-4o、画像生成用のFal AIなど、さまざまなマルチモーダルAIモデルを活用します。
## 基本例
### 1. GPT-4oを使用した技術的質問
```plaintext
Role: 経験豊富なプログラマー
Task:
Pythonのリストから一意な要素を取り出す最も効率的な方法を説明してください。
Output Format:
- 簡潔な説明
- 明確に手法を示すPythonコード例
```
**このプロンプトが効果的な理由:**
* 明確な役割定義がAIの立場を調整します。
* 明示的な指示と明確な出力期待です。
* プログラミング言語を明示的に指定しています。
### 2. Fal AIを使用した画像生成
```plaintext
Role: グラフィックデザイナー
Task:
「QuantumLeap」という名前のテクノロジースタートアップのための高品質でミニマリストなロゴを生成してください。
Constraints:
- Model: flux-pro/v1.1
- 配色: 青と白
- スタイル: モダン、ミニマリスティック
Output Format:
- PNG画像 (1024x1024)
```
**このプロンプトが効果的な理由:**
* 役割とクリエイティブな制約を明確に定義しています。
* 高品質な出力のために特定のFal AIモデルを利用しています。
* 即座に使用可能な正確な出力形式です。
## 上級例
### 1. Geminiを使用したマルチモーダル分析
```plaintext
Role: 業界アナリスト
Task:
添付されたPDF業界レポートと付随のインフォグラフィック画像を分析してください。
Steps:
1. PDFから主要な発見を要約する。
2. インフォグラフィックで視覚化されたトレンドを特定し、説明する。
3. 組み合わせた洞察に基づいて戦略的アクションを推奨する。
Constraints:
- Model: Gemini 2.5 Pro
Output Format:
- 簡潔な要約
- 明確に説明された視覚的トレンド
- 箇条書きでまとめた戦略的推奨事項
```
**このプロンプトが効果的な理由:**
* Geminiのマルチモーダル機能を明確に活用しています。
* 順次的で構造化された指示です。
* 正確な機能利用を確実にするためにモデルを明示的に指定しています。
### 2. Claudeを使用した倫理分析とコンテンツ構造化
```plaintext
Role: 倫理コンサルタント
Task:
AI監視技術に関する提供された研究論文をレビューしてください。
Steps:
1. 倫理的含意を特定する。
2. 展開のための実用的な倫理ガイドラインを提案する。
Constraints:
- Model: Claude 3.7 Sonnet
Output Format:
- 明確にリスト化された倫理的含意
- 実行可能なポイントとして構造化された実用的ガイドライン
```
**このプロンプトが効果的な理由:**
* タスクをClaudeの繊細な理解における強みに特化しています。
* Claudeの推論や分析機能を最大化するように明確に構造化されています。
## 統合ワークフロー例
### 1. 包括的な市場調査ワークフロー
```plaintext
ステップ 1 (Claude 3.7 Sonnet):
Role: 市場調査員と持続可能性アナリスト
Task: 持続可能な食品包装のトレンドを調査し、その倫理や持続可能性の観点から分析してください。
Output Format: 分析要約と推奨事項。
ステップ 2 (GPT-4o):
Role: テクニカルライター
Task: 洞察と推奨事項を構造化された業界レポートにフォーマットしてください。
Output Format: マークダウン形式のプロフェッショナルドキュメント。
ステップ 3 (Fal AI flux-pro/v1.1):
Role: グラフィックデザイナー
Task: 最終レポートのための魅力的なビジュアルカバー画像を生成してください。
Constraints: 持続可能性テーマ、プロフェッショナルスタイル
Output Format: 高品質カバー画像 (PNG, 1200x800)
```
**このプロンプトが効果的な理由:**
* 複数のAIモデルの強みを順次的に明確に活用しています。
* 明示的なモデル割り当てを伴う構造化された統合ステップです。
* 包括的で、すぐに使用可能なワークフロー出力を生成します。
## Giselleプロンプトの主要な効果的要素
効果的なGiselle Generator Nodeプロンプトには一般的に以下が含まれます:
* **明示的な役割定義**
* **明確な制約とコンテキスト**
* **構造化された出力形式**
* **連続的またはステップ別の指示**
* **機能に対する特定のモデル選択**
インパクトのあるプロンプト作成のための追加ガイダンスと実用的なコツについては、[tips.mdx](./tips)を参照してください。
# 概要
Source: https://docs.giselles.ai/ja/prompts/overview
Giselle のノードベース UI でのプロンプトエンジニアリング。
プロンプトエンジニアリングは、AI モデルを正確で高品質な出力へと導くように設計された構造化された指示であるプロンプトを作成し、改良することを含みます。Giselle は、ジェネレーター ノードと呼ばれる豊富なノードベース UI を通じてこの実践を強化し、直感的で視覚的、かつ効率的なプロンプト構築を可能にします。
## Giselle におけるプロンプトとは?
Giselle では、プロンプトは豊富なテキストエディターを通じて各ジェネレーター ノード内で個別に提供される、注意深く構造化された指示です。会話型インターフェースとは異なり、Giselle は主にワンショット プロンプティングを使用し、各ノードが独立して正確な指示を提供し、特定のタスクに合わせた AI 生成出力を受け取ることを可能にします。
各プロンプトには通常以下が含まれます:
* **役割定義**: AI モデルの意図された専門知識やペルソナを指定します。
* **タスク指示**: モデルが実行する必要があるタスクを明確に述べます。
* **コンテキスト**: 関連する背景情報と支援データを提供します。
* **入力データ**: 処理のための特定の情報またはデータソースを提供します。
* **出力形式**: AI の応答に必要な形式と構造を定義します。
## 効果的なプロンプトが重要な理由
Giselle のジェネレーター ノードで効果的なプロンプトを作成することは、以下の方法で AI 駆動ワークフローを大幅に向上させます:
* **出力品質の向上**: 明確に表現されたプロンプトは、正確で関連性の高い応答を生み出します。
* **エラーの最小化**: 誤解や不正確な出力の可能性を減らします。
* **一貫性の確保**: ダウンストリームタスクに重要な出力の統一性と信頼性を促進します。
* **リソースの最適化**: よく作成されたプロンプトは、トークン消費と処理時間を削減し、コスト効率を向上させます。
## Giselle のジェネレーター ノードの活用
Giselle のジェネレーター ノードは、プロンプトエンジニアリングのための堅牢なプラットフォームを提供し、チームが以下を行うことを可能にします:
* **モデルパラメーターの調整**: 特定のタスク要件に合わせてさまざまな LLM 設定を微調整します。
* **多様なデータソースの統合**: 複数のデータ入力を組み込み、ノード全体でシームレスに管理します。
* **ノード間でのデータ共有**: あるノードで生成された出力を後続のノードの入力として再利用し、洗練されたワークフロー自動化を可能にします。
* **ワークフローの視覚化**: チーム内の透明性、協調、理解の向上のために知的生産プロセスを明確にマップ化します。
## 推奨プラクティス
Giselle のジェネレーター ノードの効果を最大化するために、以下のプラクティスに従ってください:
* **役割を明確に定義**: AI の期待される視点や専門知識を明示的に確立します。
* **正確な指示を書く**: 明確で簡潔なタスク記述を提供することで曖昧さを避けます。
* **関連するコンテキストを提供**: 理解を向上させるための包括的な背景情報を提供します。
* **構造化された出力を指定**: 一貫性を維持するために常に詳細な出力フォーマットを含めます。
* **プロンプトを反復的に改良**: ノードベース UI 内でプロンプトを定期的にテストし、改良して出力を継続的に向上させます。
効果的に設計されたプロンプトは、AI 生成出力の品質と信頼性に大きな影響を与えるため、プロンプトエンジニアリングの基礎を理解することは重要です。
詳細なプロンプトの例については、[examples.mdx](./examples) を参照してください。追加の実用的なヒントについては、[tips.mdx](./tips) を参照してください。
# コツ
Source: https://docs.giselles.ai/ja/prompts/tips
Giselle のジェネレーター ノードでの効果的なプロンプト作成のための実用的なコツ。
このドキュメントでは、GiselleのGenerator Node内で効果的なプロンプトを作成するために特別に調整された、具体的で実行可能なコツを提供します。会話型UIとは異なり、Giselleは単発型プロンプトモデルを使用しており、各プロンプトは正確で独立して完結している必要があります。単一ノード内での会話による直接的な反復改良は不可能ですが、複数のノードを戦略的に連鎖させることで、慎重なノード統合と多様なデータソーシングを通じて出力品質を大幅に向上させることができます。
## 基本原則
### 1. 明確性と正確性の確保
* AIモデルの役割を明確に定義します。
* 曖昧さのない明示的で焦点を絞った指示を提供します。
```plaintext
❌ 悪い例:
「有用な発明について説明してください。」
✅ 良い例:
「Role: 技術史研究者
Task: 電話の発明について簡潔な要約(最大100語)を提供し、その歴史的意義と現代への影響を強調してください。
Output Format:
- 要約段落
- 明確に述べられた歴史的背景と現代的関連性」
```
### 2. 包括的なコンテキストの提供
* プロンプト内で必要な背景と目的を明確に提供します。
* タスクに関連する制約や期待を明示的に述べます。
### 3. 構造化された出力の指定
* 希望する応答構造、長さ、スタイルを明確に概説します。
* 形式を明示的に定義します(例:箇条書き、構造化された段落、JSON、画像寸法)。
## 高度なノード統合技術
### 1. 効果的な役割定義
役割を定義することで、AIがコンテキストに適した正確な出力を生成できるようにガイドします:
```plaintext
✅ 例:
「Role: UXデザイナー
Task: 提供されたWebインターフェースデザインのユーザビリティの問題を評価してください。
Output Format:
- 特定された問題を明確にリスト化する
- 改善のための具体的な推奨事項を提供する」
```
### 2. 連続ノードチェーン
Giselleノードは単発型ですが、複数のノードを連続させることで反復的改良を達成できます:
1. **アイデアノード**: 初期のアイデアやコンセプトを生成します。
2. **下書きノード**: 初期コンセプトから詳細な下書きを開発します。
3. **レビューノード**: 下書きを批判的に評価し、改善を提案します。
### 3. マルチノードワークフローの活用
出力品質を最大化するために、ノード間で多様なAIモデルを組み合わせます:
* **Claude** 繊細な分析と倫理的考慮用
* **GPT-4o** 構造化された創造的コンテンツ作成用
* **Fal AI** 高品質な画像とビジュアルコンテンツ生成用
## 避けるべき一般的な落とし穴
### 1. 過度に制限的な指示
過度に硬直な制約を避けます:
```plaintext
❌ 避けるべき例:
「正確に200単語で、正確に4つの例を含む詳細レポートを作成してください。」
```
### 2. 矛盾したまたは紛らわしい指示
指示が論理的に一貫していることを確認します:
```plaintext
❌ 避けるべき例:
「高度な用語を使用して、非常に詳細でありながらシンプルな説明を提供してください。」
```
### 3. 曖昧または不完全なプロンプト
不明確な出力につながる曖昧な指示を避けます:
```plaintext
❌ 避けるべき例:
「何か有用なことを説明してください。」
```
## Giselleワークフローの最適化
### 1. 反復的ノード改良
* 各ノードからの出力を定期的にレビューし、後続プロンプトを最適化します。
* 複数のノードを戦略的に使用して、コンセプト、下書き、最終出力を反復的に洗練します。
### 2. テンプレートの戦略的使用
一貫した効果的な出力のためにプロンプトテンプレートを活用します:
```plaintext
✅ Giselleテンプレート:
Role: [定義されたAIの役割]
Task: [明示的で正確なタスク説明]
Constraints:
- [特定の制約または制限]
- [必要に応じて追加の制約]
Input Data:
- [明確に参照または提供されたデータ]
Output Format:
- [応答の詳細な期待構造]
```
## Giselle固有の推奨事項
### 1. 適切なAIモデルの選択
タスクの要件と機能に応じてAIモデルを注意深く選択します:
* **Claude**: 繊細な倫理分析用
* **Gemini**: 複雑なマルチモーダル入力用
* **GPT-4o**: 構造化された出力とクリエイティブコンテンツ用
* **Fal AI**: 画像生成タスク用
### 2. 視覚化とコラボレーション
* GiselleのUI内でワークフローを明確に視覚的にマッピングします。
* コラボレーションと明確性を向上させるためにワークフローをチームと共有します。
* 標準的な会話型インターフェースを超えた高度で高品質な結果を達成するためにノードの組み合わせを実験します。
## 効果的なGiselleプロンプトの要点
* **役割定義**: AIモデルの役割を明確に明示する。
* **精度**: 正確で詳細な指示を提供する。
* **コンテキストの完全性**: 必須のコンテキストと制約を含める。
* **出力構造**: 応答形式を明確に定義する。
* **ワークフロー最適化**: 出力品質を向上させるために複数のノードを戦略的に連続させる。
# 製品ノート
Source: https://docs.giselles.ai/ja/releases/product-notes
この文書は、私たちの製品の主要な更新、改善、将来の展望を概説しています。
## 最新の製品アップデート
### パブリックベータ
Giselle は現在パブリックベータとして利用可能で、ユーザーが私たちの AI アプリ構築プラットフォームをテストし、フィードバックを提供できます。
[https://www.producthunt.com/products/giselle](https://www.producthunt.com/products/giselle) で Product Hunt での正式ローンチを近日中に行うことを発表できて興奮しています。
このローンチでは、カスタム AI アプリケーションを構築するためのオープンソースビジュアルエディターをより幅広いオーディエンスに紹介します。
正式なローンチ日をお待ちいただき、Giselle の全機能を最初に探索する方の一人となってください。
# リリースノート
Source: https://docs.giselles.ai/ja/releases/release-notes
このページは、私たちの製品の最新リリースと更新に関する時系列情報を提供します。
TBD
## コミュニティ主導
私たちは、コミュニティとともに構築することを信じています。皆様のフィードバックとご提案は、私たちの製品方向性を形作るために不可欠です。機能リクエスト、改善提案、バグレポート、ユースケースシナリオを積極的に歓迎します。[GitHub Issues](https://github.com/giselles-ai/giselle) または [GitHub Discussions](https://github.com/giselles-ai/giselle/discussions) を通じてご意見をお聞かせください。
# ロードマップ
Source: https://docs.giselles.ai/ja/releases/roadmap
私たちの製品開発計画と今後のマイルストーンを発見してください。
私たちのロードマップは現在、積極的に開発中です。将来の計画とマイルストーンの明確なビジョンを提供するために取り組んでいます。
## コミュニティ主導
私たちは、コミュニティとともに構築することを信じています。皆様のフィードバックとご提案は、私たちの製品方向性を形作るために不可欠です。
以下を積極的に歓迎します:
* 機能リクエスト
* 改善提案
* バグレポート
* ユースケースシナリオ
以下を通じてご意見をお聞かせください:
* [GitHub Issues](https://github.com/giselles-ai/giselle)
* [GitHub Discussions](https://github.com/giselles-ai/giselle/discussions)
## 今後の予定
具体的なタイムラインと機能セットでロードマップを正式化する際は、ご注目ください。計画の進展に合わせて、このページを定期的に更新いたします。
注:このロードマップは、ユーザーフィードバックと開発優先度に基づいて予告なく変更される場合があります。