diff --git a/README.md b/README.md
index 4cbe075..9f0a986 100644
--- a/README.md
+++ b/README.md
@@ -1,32 +1,69 @@
-# Mintlify Starter Kit
+# Morph Documentation
-Click on `Use this template` to copy the Mintlify starter kit. The starter kit contains examples including
+Morph の Documentation の Repository です。
-- Guide pages
-- Navigation
-- Customizations
-- API Reference pages
-- Use of popular components
+[Mintlify](https://mintlify.com/docs/quickstart)というフレームワークを使用しています。
-### Development
+Anthropic, Perplexity, Resend, Cursor, Elevenlabs なども Minlify を使用しています。
-Install the [Mintlify CLI](https://www.npmjs.com/package/mintlify) to preview the documentation changes locally. To install, use the following command
+[https://mintlify.com/customers](https://mintlify.com/customers)
+
+## Development
+
+以下の手順でセットアップしてください。
+
+**1. Mintlify のインストール**
```
npm i -g mintlify
```
-Run the following command at the root of your documentation (where mint.json is)
+**2. ローカルサーバーの立ち上げ**
```
mintlify dev
```
-### Publishing Changes
+## ディレクトリ構造
+
+- `docs/`: ドキュメントの Markdown ファイル
+- `asstes/`: 画像などの静的ファイル
+- `examples/`: サンプルコード集ページ用のファイル
+
+その他、独立したページ群を作る際にはルート直下にディレクトリを切ってください。
+
+ここでいう「独立したページ群」は、Mintlify のタブで管理されるグループを指します。
+
+## mint.json
+
+各ページは MDX で記述することができますが、それを実際のページに反映するには、mint.json を編集する必要があります。
+
+詳しい設定は Mintlify のドキュメントを参照してください。
+
+よく使う項目については、以下で解説します。
+
+### navigation
+
+mint.json の navigation は、ページのグループを宣言するための項目で、navigation を設定することで、サイドバーやタブでそのグループを使用することができます。そのため、 **ページを追加したら必ず navigation にも設定を追加してください。**
+
+```json
+{
+ "navigation": [
+ {
+ "group": "Get Started",
+ "version": "en",
+ "pages": [
+ "docs/en/introduction",
+ "docs/en/quickstart",
+ "docs/en/development"
+ ]
+ }
+ ]
+}
+```
-Install our Github App to auto propagate changes from your repo to your deployment. Changes will be deployed to production automatically after pushing to the default branch. Find the link to install on your dashboard.
+# Contributing
-#### Troubleshooting
+main ブランチが自動的にデプロイされます。作業は、ローカルでブランチを作成して、main に向けて PR を作成してください。
-- Mintlify dev isn't running - Run `mintlify install` it'll re-install dependencies.
-- Page loads as a 404 - Make sure you are running in a folder with `mint.json`
+PR マージ後はブランチを削除してください。
diff --git a/api-reference/endpoint/create.mdx b/api-reference/endpoint/create.mdx
deleted file mode 100644
index 5689f1b..0000000
--- a/api-reference/endpoint/create.mdx
+++ /dev/null
@@ -1,4 +0,0 @@
----
-title: 'Create Plant'
-openapi: 'POST /plants'
----
diff --git a/api-reference/endpoint/delete.mdx b/api-reference/endpoint/delete.mdx
deleted file mode 100644
index 657dfc8..0000000
--- a/api-reference/endpoint/delete.mdx
+++ /dev/null
@@ -1,4 +0,0 @@
----
-title: 'Delete Plant'
-openapi: 'DELETE /plants/{id}'
----
diff --git a/api-reference/endpoint/get.mdx b/api-reference/endpoint/get.mdx
deleted file mode 100644
index 56aa09e..0000000
--- a/api-reference/endpoint/get.mdx
+++ /dev/null
@@ -1,4 +0,0 @@
----
-title: 'Get Plants'
-openapi: 'GET /plants'
----
diff --git a/api-reference/introduction.mdx b/api-reference/introduction.mdx
deleted file mode 100644
index c835b78..0000000
--- a/api-reference/introduction.mdx
+++ /dev/null
@@ -1,33 +0,0 @@
----
-title: 'Introduction'
-description: 'Example section for showcasing API endpoints'
----
-
-
- If you're not looking to build API reference documentation, you can delete
- this section by removing the api-reference folder.
-
-
-## Welcome
-
-There are two ways to build API documentation: [OpenAPI](https://mintlify.com/docs/api-playground/openapi/setup) and [MDX components](https://mintlify.com/docs/api-playground/mdx/configuration). For the starter kit, we are using the following OpenAPI specification.
-
-
- View the OpenAPI specification file
-
-
-## Authentication
-
-All API endpoints are authenticated using Bearer tokens and picked up from the specification file.
-
-```json
-"security": [
- {
- "bearerAuth": []
- }
-]
-```
diff --git a/api-reference/openapi.json b/api-reference/openapi.json
deleted file mode 100644
index b1509be..0000000
--- a/api-reference/openapi.json
+++ /dev/null
@@ -1,195 +0,0 @@
-{
- "openapi": "3.0.1",
- "info": {
- "title": "OpenAPI Plant Store",
- "description": "A sample API that uses a plant store as an example to demonstrate features in the OpenAPI specification",
- "license": {
- "name": "MIT"
- },
- "version": "1.0.0"
- },
- "servers": [
- {
- "url": "http://sandbox.mintlify.com"
- }
- ],
- "security": [
- {
- "bearerAuth": []
- }
- ],
- "paths": {
- "/plants": {
- "get": {
- "description": "Returns all plants from the system that the user has access to",
- "parameters": [
- {
- "name": "limit",
- "in": "query",
- "description": "The maximum number of results to return",
- "schema": {
- "type": "integer",
- "format": "int32"
- }
- }
- ],
- "responses": {
- "200": {
- "description": "Plant response",
- "content": {
- "application/json": {
- "schema": {
- "type": "array",
- "items": {
- "$ref": "#/components/schemas/Plant"
- }
- }
- }
- }
- },
- "400": {
- "description": "Unexpected error",
- "content": {
- "application/json": {
- "schema": {
- "$ref": "#/components/schemas/Error"
- }
- }
- }
- }
- }
- },
- "post": {
- "description": "Creates a new plant in the store",
- "requestBody": {
- "description": "Plant to add to the store",
- "content": {
- "application/json": {
- "schema": {
- "$ref": "#/components/schemas/NewPlant"
- }
- }
- },
- "required": true
- },
- "responses": {
- "200": {
- "description": "plant response",
- "content": {
- "application/json": {
- "schema": {
- "$ref": "#/components/schemas/Plant"
- }
- }
- }
- },
- "400": {
- "description": "unexpected error",
- "content": {
- "application/json": {
- "schema": {
- "$ref": "#/components/schemas/Error"
- }
- }
- }
- }
- }
- }
- },
- "/plants/{id}": {
- "delete": {
- "description": "Deletes a single plant based on the ID supplied",
- "parameters": [
- {
- "name": "id",
- "in": "path",
- "description": "ID of plant to delete",
- "required": true,
- "schema": {
- "type": "integer",
- "format": "int64"
- }
- }
- ],
- "responses": {
- "204": {
- "description": "Plant deleted",
- "content": {}
- },
- "400": {
- "description": "unexpected error",
- "content": {
- "application/json": {
- "schema": {
- "$ref": "#/components/schemas/Error"
- }
- }
- }
- }
- }
- }
- }
- },
- "components": {
- "schemas": {
- "Plant": {
- "required": [
- "name"
- ],
- "type": "object",
- "properties": {
- "name": {
- "description": "The name of the plant",
- "type": "string"
- },
- "tag": {
- "description": "Tag to specify the type",
- "type": "string"
- }
- }
- },
- "NewPlant": {
- "allOf": [
- {
- "$ref": "#/components/schemas/Plant"
- },
- {
- "required": [
- "id"
- ],
- "type": "object",
- "properties": {
- "id": {
- "description": "Identification number of the plant",
- "type": "integer",
- "format": "int64"
- }
- }
- }
- ]
- },
- "Error": {
- "required": [
- "error",
- "message"
- ],
- "type": "object",
- "properties": {
- "error": {
- "type": "integer",
- "format": "int32"
- },
- "message": {
- "type": "string"
- }
- }
- }
- },
- "securitySchemes": {
- "bearerAuth": {
- "type": "http",
- "scheme": "bearer"
- }
- }
- }
-}
\ No newline at end of file
diff --git a/assets/.DS_Store b/assets/.DS_Store
new file mode 100644
index 0000000..9028b1f
Binary files /dev/null and b/assets/.DS_Store differ
diff --git a/assets/GitHub.copilot-1.223.1062.vsix b/assets/GitHub.copilot-1.223.1062.vsix
new file mode 100644
index 0000000..0e432b9
Binary files /dev/null and b/assets/GitHub.copilot-1.223.1062.vsix differ
diff --git a/assets/images/.DS_Store b/assets/images/.DS_Store
new file mode 100644
index 0000000..e7b6012
Binary files /dev/null and b/assets/images/.DS_Store differ
diff --git a/images/checks-passed.png b/assets/images/checks-passed.png
similarity index 100%
rename from images/checks-passed.png
rename to assets/images/checks-passed.png
diff --git a/assets/images/docs/.DS_Store b/assets/images/docs/.DS_Store
new file mode 100644
index 0000000..9163b64
Binary files /dev/null and b/assets/images/docs/.DS_Store differ
diff --git a/assets/images/docs/builtin-postgres.png b/assets/images/docs/builtin-postgres.png
new file mode 100644
index 0000000..280dd81
Binary files /dev/null and b/assets/images/docs/builtin-postgres.png differ
diff --git a/assets/images/docs/canvas-overview.png b/assets/images/docs/canvas-overview.png
new file mode 100644
index 0000000..91db126
Binary files /dev/null and b/assets/images/docs/canvas-overview.png differ
diff --git a/assets/images/docs/integrations.png b/assets/images/docs/integrations.png
new file mode 100644
index 0000000..4e969a0
Binary files /dev/null and b/assets/images/docs/integrations.png differ
diff --git a/assets/images/docs/mdx-1.mp4 b/assets/images/docs/mdx-1.mp4
new file mode 100644
index 0000000..96c1113
Binary files /dev/null and b/assets/images/docs/mdx-1.mp4 differ
diff --git a/assets/images/docs/visualization-how-to-start.png b/assets/images/docs/visualization-how-to-start.png
new file mode 100644
index 0000000..c0a24bb
Binary files /dev/null and b/assets/images/docs/visualization-how-to-start.png differ
diff --git a/assets/images/docs/visualization-overview.png b/assets/images/docs/visualization-overview.png
new file mode 100644
index 0000000..c97b055
Binary files /dev/null and b/assets/images/docs/visualization-overview.png differ
diff --git a/assets/images/docs/vscode-extension-edit-csv.png b/assets/images/docs/vscode-extension-edit-csv.png
new file mode 100644
index 0000000..abd2069
Binary files /dev/null and b/assets/images/docs/vscode-extension-edit-csv.png differ
diff --git a/assets/images/docs/vscode-extension-github-copilot.png b/assets/images/docs/vscode-extension-github-copilot.png
new file mode 100644
index 0000000..892b8d5
Binary files /dev/null and b/assets/images/docs/vscode-extension-github-copilot.png differ
diff --git a/assets/images/docs/vscode-extension-mdx.png b/assets/images/docs/vscode-extension-mdx.png
new file mode 100644
index 0000000..8e5a118
Binary files /dev/null and b/assets/images/docs/vscode-extension-mdx.png differ
diff --git a/assets/images/docs/vscode-extension-parquet-explorer.png b/assets/images/docs/vscode-extension-parquet-explorer.png
new file mode 100644
index 0000000..20a0b34
Binary files /dev/null and b/assets/images/docs/vscode-extension-parquet-explorer.png differ
diff --git a/assets/images/docs/vscode-extension-python.png b/assets/images/docs/vscode-extension-python.png
new file mode 100644
index 0000000..13d8fa3
Binary files /dev/null and b/assets/images/docs/vscode-extension-python.png differ
diff --git a/assets/images/docs/workspace-architecture.png b/assets/images/docs/workspace-architecture.png
new file mode 100644
index 0000000..3c5e2a7
Binary files /dev/null and b/assets/images/docs/workspace-architecture.png differ
diff --git a/assets/images/docs/workspace-editor-sql-run.png b/assets/images/docs/workspace-editor-sql-run.png
new file mode 100644
index 0000000..463b337
Binary files /dev/null and b/assets/images/docs/workspace-editor-sql-run.png differ
diff --git a/assets/images/docs/workspace-editor-sql.png b/assets/images/docs/workspace-editor-sql.png
new file mode 100644
index 0000000..3f5ebc4
Binary files /dev/null and b/assets/images/docs/workspace-editor-sql.png differ
diff --git a/assets/images/docs/workspace-git.png b/assets/images/docs/workspace-git.png
new file mode 100644
index 0000000..0c91955
Binary files /dev/null and b/assets/images/docs/workspace-git.png differ
diff --git a/assets/images/docs/workspace-job-schedule.png b/assets/images/docs/workspace-job-schedule.png
new file mode 100644
index 0000000..cd974c1
Binary files /dev/null and b/assets/images/docs/workspace-job-schedule.png differ
diff --git a/assets/images/docs/workspace-overview.png b/assets/images/docs/workspace-overview.png
new file mode 100644
index 0000000..dc9a39f
Binary files /dev/null and b/assets/images/docs/workspace-overview.png differ
diff --git a/assets/images/docs/workspace-template-canvas.png b/assets/images/docs/workspace-template-canvas.png
new file mode 100644
index 0000000..bd726ce
Binary files /dev/null and b/assets/images/docs/workspace-template-canvas.png differ
diff --git a/assets/images/docs/workspace-template-menu.png b/assets/images/docs/workspace-template-menu.png
new file mode 100644
index 0000000..af5dd47
Binary files /dev/null and b/assets/images/docs/workspace-template-menu.png differ
diff --git a/assets/images/docs/workspace-template.png b/assets/images/docs/workspace-template.png
new file mode 100644
index 0000000..3eaaf86
Binary files /dev/null and b/assets/images/docs/workspace-template.png differ
diff --git a/images/hero-dark.svg b/assets/images/hero-dark.svg
similarity index 100%
rename from images/hero-dark.svg
rename to assets/images/hero-dark.svg
diff --git a/images/hero-light.svg b/assets/images/hero-light.svg
similarity index 100%
rename from images/hero-light.svg
rename to assets/images/hero-light.svg
diff --git a/assets/images/integrations/bigquerycomplete.png b/assets/images/integrations/bigquerycomplete.png
new file mode 100644
index 0000000..14b7684
Binary files /dev/null and b/assets/images/integrations/bigquerycomplete.png differ
diff --git a/assets/images/integrations/bigqueryslug.png b/assets/images/integrations/bigqueryslug.png
new file mode 100644
index 0000000..af296ca
Binary files /dev/null and b/assets/images/integrations/bigqueryslug.png differ
diff --git a/assets/images/integrations/integrations-how-to-use.png b/assets/images/integrations/integrations-how-to-use.png
new file mode 100644
index 0000000..f81394c
Binary files /dev/null and b/assets/images/integrations/integrations-how-to-use.png differ
diff --git a/assets/images/integrations/mysqlcomplete.png b/assets/images/integrations/mysqlcomplete.png
new file mode 100644
index 0000000..16a0a5d
Binary files /dev/null and b/assets/images/integrations/mysqlcomplete.png differ
diff --git a/assets/images/integrations/mysqlslug.png b/assets/images/integrations/mysqlslug.png
new file mode 100644
index 0000000..02aae90
Binary files /dev/null and b/assets/images/integrations/mysqlslug.png differ
diff --git a/assets/images/integrations/postgrescomplete.png b/assets/images/integrations/postgrescomplete.png
new file mode 100644
index 0000000..66ff026
Binary files /dev/null and b/assets/images/integrations/postgrescomplete.png differ
diff --git a/assets/images/integrations/postgresslug.png b/assets/images/integrations/postgresslug.png
new file mode 100644
index 0000000..fcd3987
Binary files /dev/null and b/assets/images/integrations/postgresslug.png differ
diff --git a/assets/images/integrations/redshiftcomplete.png b/assets/images/integrations/redshiftcomplete.png
new file mode 100644
index 0000000..394106b
Binary files /dev/null and b/assets/images/integrations/redshiftcomplete.png differ
diff --git a/assets/images/integrations/redshiftslug.png b/assets/images/integrations/redshiftslug.png
new file mode 100644
index 0000000..31c1aeb
Binary files /dev/null and b/assets/images/integrations/redshiftslug.png differ
diff --git a/assets/images/integrations/snowflakecomplete.png b/assets/images/integrations/snowflakecomplete.png
new file mode 100644
index 0000000..e25dfd3
Binary files /dev/null and b/assets/images/integrations/snowflakecomplete.png differ
diff --git a/assets/images/integrations/snowflakeslug.png b/assets/images/integrations/snowflakeslug.png
new file mode 100644
index 0000000..fe397e6
Binary files /dev/null and b/assets/images/integrations/snowflakeslug.png differ
diff --git a/assets/images/morph_logo_svg.svg b/assets/images/morph_logo_svg.svg
new file mode 100644
index 0000000..d4728c6
--- /dev/null
+++ b/assets/images/morph_logo_svg.svg
@@ -0,0 +1,9 @@
+
diff --git a/assets/images/morph_logo_svg_w.svg b/assets/images/morph_logo_svg_w.svg
new file mode 100644
index 0000000..643c540
--- /dev/null
+++ b/assets/images/morph_logo_svg_w.svg
@@ -0,0 +1,9 @@
+
diff --git a/assets/images/python-sql/python-env.png b/assets/images/python-sql/python-env.png
new file mode 100644
index 0000000..bac3ec1
Binary files /dev/null and b/assets/images/python-sql/python-env.png differ
diff --git a/logo/dark.svg b/assets/logo/dark.svg
similarity index 100%
rename from logo/dark.svg
rename to assets/logo/dark.svg
diff --git a/logo/light.svg b/assets/logo/light.svg
similarity index 100%
rename from logo/light.svg
rename to assets/logo/light.svg
diff --git a/assets/videos/integrations/docs_connection_bigquery.mp4 b/assets/videos/integrations/docs_connection_bigquery.mp4
new file mode 100644
index 0000000..ed8f08a
Binary files /dev/null and b/assets/videos/integrations/docs_connection_bigquery.mp4 differ
diff --git a/assets/videos/integrations/docs_connection_mysql.mp4 b/assets/videos/integrations/docs_connection_mysql.mp4
new file mode 100644
index 0000000..8f6b40f
Binary files /dev/null and b/assets/videos/integrations/docs_connection_mysql.mp4 differ
diff --git a/assets/videos/integrations/docs_connection_postgresql.mp4 b/assets/videos/integrations/docs_connection_postgresql.mp4
new file mode 100644
index 0000000..1aad797
Binary files /dev/null and b/assets/videos/integrations/docs_connection_postgresql.mp4 differ
diff --git a/assets/videos/integrations/docs_connection_redshift.mp4 b/assets/videos/integrations/docs_connection_redshift.mp4
new file mode 100644
index 0000000..e89d043
Binary files /dev/null and b/assets/videos/integrations/docs_connection_redshift.mp4 differ
diff --git a/assets/videos/integrations/docs_connection_snowflake.mp4 b/assets/videos/integrations/docs_connection_snowflake.mp4
new file mode 100644
index 0000000..6f50841
Binary files /dev/null and b/assets/videos/integrations/docs_connection_snowflake.mp4 differ
diff --git a/data-application/en/custom-components.mdx b/data-application/en/custom-components.mdx
new file mode 100644
index 0000000..4456cd4
--- /dev/null
+++ b/data-application/en/custom-components.mdx
@@ -0,0 +1,19 @@
+---
+title: 'Custom Components'
+---
+
+Custom components can be used in MDX files.
+
+## Create a `.tsx` file to define custom components
+
+You can create `.tsx` files on Morph to define custom React components.
+
+The Morph data application uses [Vite](https://vitejs.dev) to build React applications.
+
+Styling using Tailwind CSS is also possible, as [Tailwind CSS](https://tailwindcss.com) is installed by default.
+
+## Adding dependency packages
+
+You can freely add npm packages to the Morph workspace.
+
+Run the npm install command from the terminal to add packages.
diff --git a/data-application/en/data-components.mdx b/data-application/en/data-components.mdx
new file mode 100644
index 0000000..b7a96c9
--- /dev/null
+++ b/data-application/en/data-components.mdx
@@ -0,0 +1,50 @@
+---
+title: 'Data Components'
+---
+
+To use Morph data, a dedicated component is used to pass the name of the Python function or SQL file as a property.
+
+Below is an example of a table display of a DataFrame from a Python run.
+
+```tsx index.mdx
+
+export const name = 'index';
+export const title = 'Top page';
+
+# Top page
+
+This is the top page of the data application.
+
+import { DataTable } from '@use-morph/page';
+
+
+
+
+
+```
+
+The components for data display are presented below.
+
+## DataTable
+
+The DataTable component displays the results of a Python function or SQL file execution in a table.
+
+```tsx
+import { DataTable } from '@use-morph/page';
+
+
+```
+
+## Embed
+
+The Embed component displays HTML when the result of a Python function execution is HTML.
+
+```tsx
+
+import { Embed } from '@use-morph/page';
+
+
+```
+
+
+
diff --git a/data-application/en/how-to-build-data-application.mdx b/data-application/en/how-to-build-data-application.mdx
new file mode 100644
index 0000000..bb51fb9
--- /dev/null
+++ b/data-application/en/how-to-build-data-application.mdx
@@ -0,0 +1,9 @@
+---
+title: 'How to build data applications'
+---
+
+## MDX
+
+When building data applications in Morph, use [MDX (https://mdxjs.com/)](https://mdxjs.com/) For more information on how to use MDX, see the [official MDX documentation](https://mdxjs.com/).
+
+The `.mdx` files created under the `src` directory of the workspace serve as individual pages in the data application.
\ No newline at end of file
diff --git a/data-application/en/mdx-setup.mdx b/data-application/en/mdx-setup.mdx
new file mode 100644
index 0000000..92d2809
--- /dev/null
+++ b/data-application/en/mdx-setup.mdx
@@ -0,0 +1,15 @@
+---
+title: 'MDX Setup'
+---
+
+## Running the set-up commands
+
+{/* 通常この手順は、ワークスペースのシステムが自動で実行するため、スキップして構いません。どうしても起動がうまくいかない場合に試してください。 */}
+
+To build a data application, first open the Morph workspace and execute the following commands. This may take several minutes.
+
+```bash
+npm i -S @use-morph/page-build && npx morph-page init
+```
+
+Once this command has been executed, you can start building your data application.
\ No newline at end of file
diff --git a/data-application/en/use-variables.mdx b/data-application/en/use-variables.mdx
new file mode 100644
index 0000000..cefeee2
--- /dev/null
+++ b/data-application/en/use-variables.mdx
@@ -0,0 +1,122 @@
+---
+title: 'Using Variables'
+---
+
+Morph allows variables to be defined in Python functions and SQL files, but variables can also be used when executing from MDX files.
+
+For more information on using variables in Python and SQL files, see [how to use variables](/data-application/en/variables).
+
+## How to use variables in MDX files
+
+To use variables in an MDX file, you need to **create a new tsx file**, create a React component that uses the variable and then use it in the MDX file.
+
+It is not possible to use `useVariable` directly in an MDX file.
+
+
+
+```tsx src/components/stocks-with-dates.tsx
+import { DataTable, useVariable, VariableDatePicker } from '@use-morph/page';
+
+export const StocksWithDates = () => {
+ const dateRangeStart = useVariable(null);
+ const dateRangeEnd = useVariable(null);
+
+ return (
+
+
+
+
+
+
+ );
+}
+
+```
+
+```tsx index.mdx
+export const name = 'index';
+export const title = 'Top page';
+
+# Stock prices with dates
+
+import { StocksWithDates } from './components/stocks-with-dates';
+
+
+```
+
+```python stocks.py
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+
+import pandas as pd
+
+@morph.func(
+ name="stocks",
+ description="stock prices with dates",
+ output_paths=["_private/{name}/{now()}{ext()}"],
+ output_type="dataframe",
+)
+@morph.variables('start_date')
+@morph.variables('end_date')
+def main(context: MorphGlobalContext) -> pd.DataFrame:
+ df = pd.read_csv('./src/stocks.csv')
+
+ start_date = context.var.get('start_date', None)
+ end_date = context.var.get('end_date', None)
+
+ df['date'] = pd.to_datetime(df['date'], format='%b %d %Y')
+
+ if start_date is None:
+ start_date = df['date'].min()
+ else:
+ start_date = pd.to_datetime(start_date, format='%Y-%m-%d')
+
+ if end_date is None:
+ end_date = df['date'].max()
+ else:
+ end_date = pd.to_datetime(end_date, format='%Y-%m-%d')
+
+ filtered_df = df[(df['date'] >= start_date) & (df['date'] <= end_date)]
+ return filtered_df
+```
+
+
+
+## `useVariable` Hook
+
+Use `useVariable` to declare variables.
+
+```tsx
+const dateRangeStart = useVariable(null);
+const dateRangeEnd = useVariable(null);
+```
+
+## Passing to components
+
+When passing to a component, pass the name of the variable in the Python or SQL file as a key, in object form.
+
+In the example above, `start_date` and `end_date` are used as variables in the Python file, so they are passed as keys.
+
+```tsx
+
+```
\ No newline at end of file
diff --git a/data-application/ja/custom-components.mdx b/data-application/ja/custom-components.mdx
new file mode 100644
index 0000000..ded2b6b
--- /dev/null
+++ b/data-application/ja/custom-components.mdx
@@ -0,0 +1,19 @@
+---
+title: 'カスタムコンポーネント'
+---
+
+mdxファイル中では、カスタムコンポーネントを使用することができます。
+
+## `.tsx` ファイルを作成してカスタムコンポーネントを定義する
+
+Morph上で `.tsx` ファイルを作成し、カスタムReactコンポーネントを定義することができます。
+
+Morphのデータアプリケーションでは、[Vite](https://vitejs.dev)を用いてReactアプリケーションをビルドしています。
+
+また、デフォルトで [Tailwind CSS](https://tailwindcss.com) が導入されているため、Tailwind CSSを使用したスタイリングも可能です。
+
+## 依存パッケージを追加する
+
+Morphのワークスペースには、自由にnpmパッケージを追加することができます。
+
+ターミナルから npm install コマンドを実行して、パッケージを追加してください。
diff --git a/data-application/ja/data-components.mdx b/data-application/ja/data-components.mdx
new file mode 100644
index 0000000..64a5a80
--- /dev/null
+++ b/data-application/ja/data-components.mdx
@@ -0,0 +1,50 @@
+---
+title: 'データコンポーネント'
+---
+
+Morphのデータを利用するには、専用のコンポーネントを用いて、Python関数やSQLファイルの name をプロパティとして渡します。
+
+以下は、Pythonの実行結果のDataFrameをテーブル表示する例です。
+
+```tsx index.mdx
+
+export const name = 'index';
+export const title = 'Top page';
+
+# Top page
+
+This is the top page of the data application.
+
+import { DataTable } from '@use-morph/page';
+
+
+ );
+}
+
+```
+
+```tsx index.mdx
+export const name = 'index';
+export const title = 'Top page';
+
+# Stock prices with dates
+
+import { StocksWithDates } from './components/stocks-with-dates';
+
+
+```
+
+```python stocks.py
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+
+import pandas as pd
+
+@morph.func(
+ name="stocks",
+ description="stock prices with dates",
+ output_paths=["_private/{name}/{now()}{ext()}"],
+ output_type="dataframe",
+)
+@morph.variables('start_date')
+@morph.variables('end_date')
+def main(context: MorphGlobalContext) -> pd.DataFrame:
+ df = pd.read_csv('./src/stocks.csv')
+
+ start_date = context.var.get('start_date', None)
+ end_date = context.var.get('end_date', None)
+
+ df['date'] = pd.to_datetime(df['date'], format='%b %d %Y')
+
+ if start_date is None:
+ start_date = df['date'].min()
+ else:
+ start_date = pd.to_datetime(start_date, format='%Y-%m-%d')
+
+ if end_date is None:
+ end_date = df['date'].max()
+ else:
+ end_date = pd.to_datetime(end_date, format='%Y-%m-%d')
+
+ filtered_df = df[(df['date'] >= start_date) & (df['date'] <= end_date)]
+ return filtered_df
+```
+
+
+
+## `useVariable` フック
+
+変数の宣言には `useVariable` を使用してください。
+
+```tsx
+const dateRangeStart = useVariable(null);
+const dateRangeEnd = useVariable(null);
+```
+
+## コンポーネントに渡す
+
+コンポーネントに渡す際には、オブジェクト形式で、PythonまたはSQLファイル内での変数名をキーとして渡してください。
+
+上記の例では、Pythonファイル中で `start_date` と `end_date` を変数として利用しているため、それらをキーとして渡しています。
+
+```tsx
+
+```
\ No newline at end of file
diff --git a/development.mdx b/development.mdx
deleted file mode 100644
index 8783008..0000000
--- a/development.mdx
+++ /dev/null
@@ -1,98 +0,0 @@
----
-title: 'Development'
-description: 'Learn how to preview changes locally'
----
-
-
- **Prerequisite** You should have installed Node.js (version 18.10.0 or
- higher).
-
-
-Step 1. Install Mintlify on your OS:
-
-
-
-```bash npm
-npm i -g mintlify
-```
-
-```bash yarn
-yarn global add mintlify
-```
-
-
-
-Step 2. Go to the docs are located (where you can find `mint.json`) and run the following command:
-
-```bash
-mintlify dev
-```
-
-The documentation website is now available at `http://localhost:3000`.
-
-### Custom Ports
-
-Mintlify uses port 3000 by default. You can use the `--port` flag to customize the port Mintlify runs on. For example, use this command to run in port 3333:
-
-```bash
-mintlify dev --port 3333
-```
-
-You will see an error like this if you try to run Mintlify in a port that's already taken:
-
-```md
-Error: listen EADDRINUSE: address already in use :::3000
-```
-
-## Mintlify Versions
-
-Each CLI is linked to a specific version of Mintlify. Please update the CLI if your local website looks different than production.
-
-
-
-```bash npm
-npm i -g mintlify@latest
-```
-
-```bash yarn
-yarn global upgrade mintlify
-```
-
-
-
-## Deployment
-
-
- Unlimited editors available under the [Startup
- Plan](https://mintlify.com/pricing)
-
-
-You should see the following if the deploy successfully went through:
-
-
-
-
-
-## Troubleshooting
-
-Here's how to solve some common problems when working with the CLI.
-
-
-
- Update to Node v18. Run `mintlify install` and try again.
-
-
-Go to the `C:/Users/Username/.mintlify/` directory and remove the `mint`
-folder. Then Open the Git Bash in this location and run `git clone
-https://github.com/mintlify/mint.git`.
-
-Repeat step 3.
-
-
-
- Try navigating to the root of your device and delete the ~/.mintlify folder.
- Then run `mintlify dev` again.
-
-
-
-Curious about what changed in a CLI version? [Check out the CLI changelog.](/changelog/command-line)
diff --git a/docs/en/data-sources/builtin-postgres.mdx b/docs/en/data-sources/builtin-postgres.mdx
new file mode 100644
index 0000000..2400a33
--- /dev/null
+++ b/docs/en/data-sources/builtin-postgres.mdx
@@ -0,0 +1,24 @@
+---
+title: 'Built-in PostgreSQL'
+---
+Morph has a built-in PostgreSQL database. This database can be utilised to temporarily store intermediate results of the data pipeline or to store final results and connect to external services.
+
+Open the workspace and go to the Database tab. From this tab you can use the Built-in PostgreSQL.
+
+From the Morph workspace, you can perform basic table and record editing.
+
+
+
+## Connect Externally
+
+The connection string listed under ‘Postgres Connection’ on the screen is the connection string to access PostgreSQL hosted on the workspace. This can also be used to connect from external database clients or applications.
+
+## IP Restrictions
+
+It is very important to set up security when connecting to PostgreSQL externally.
+You can restrict the IPs with access in the ‘IP Restrictions’ section of the Morph workspace.
+
+The default setting is ‘0.0.0.0/0’, so be sure to set IP restrictions before inserting important data as access is possible from anywhere.
diff --git a/docs/en/data-sources/connectors.mdx b/docs/en/data-sources/connectors.mdx
new file mode 100644
index 0000000..5ae7f4b
--- /dev/null
+++ b/docs/en/data-sources/connectors.mdx
@@ -0,0 +1,63 @@
+---
+title: 'Connectors: DB / DWH / SaaS'
+---
+
+Morph provides an environment where users can manage and analyse data centrally by working with a variety of data sources. This section presents the main data sources supported by Morph.
+
+## SQL databases
+
+Morph allows users to work with a variety of external data sources. This allows users to query directly from the following databases and data warehouses using SQL.
+
+1. **MySQL**: Open source relational database management system, widely used in many applications worldwide.
+2. **PostgreSQL**: A powerful open source object-relational database system, characterised by reliability, feature richness and performance.
+3. **BigQuery**: Google Cloud's serverless, highly scalable data warehouse supports rapid SQL queries on large volumes of data.
+4. **Snowflake**: Cloud-based data warehousing service with excellent data sharing and scalability to support diverse data workloads.
+5. **Redshift**: Cloud data warehousing with Amazon Web Services, for fast analysis of large data sets.
+
+By connecting these data sources to Morph, data can be integrated across different platforms and tools to efficiently perform data analysis and business intelligence tasks. Morph's interface allows you to easily set up connections and query data directly.
+
+## SaaS
+
+Morph provides integration with many SaaS. This allows users to concentrate on implementing the necessary business logic, leaving the setup to Morph.
+
+You can start analysing the data in SaaS immediately by creating an Integration from the Connections tab, as shown below:
+
+
+
+Get the `access_token` from the Integration created in Python.
+
+```python
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+from morphdb_utils.api import get_auth_token # ← access_tokenを取得する関数
+
+@morph.func(
+ name="freee_get_balance",
+ description="Freee Preprocess",
+ output_paths=["_private/{name}/{now()}{ext()}"],
+ output_type="dataframe",
+)
+def freee_get_balance(context: MorphGlobalContext) -> pd.DataFrame:
+ access_token = get_auth_token("Freee")
+
+ # ↓↓↓ call API with access_token ↓↓↓
+```
+
+## Non-SQL databases
+
+Morph can also work with NoSQL databases and other non-SQL databases, including MongoDB and Cassandra. Data can be retrieved and analysed against these databases using Python, which utilises powerful libraries to facilitate data manipulation and transformation — effectively extracting insights from non-SQL databases.
+
+## Interfacing via API
+
+Morph can also be integrated with various external services and applications via API. This allows real-time data to be retrieved from web services or integrated with other cloud services, for example.
+
+Users can use Python scripts to retrieve data from the API and process and analyse it directly within Morph. This allows for flexible and customisable data integration.
+
+## File upload
+
+Morph also supports data upload from local files. Users can easily upload CSV, JSON, or Excel files and import them into your Workspace. Uploaded data is immediately available and can be analysed and visualised using Morph's tools.
\ No newline at end of file
diff --git a/docs/en/getting-started/how-morph-works.mdx b/docs/en/getting-started/how-morph-works.mdx
new file mode 100644
index 0000000..c1196ae
--- /dev/null
+++ b/docs/en/getting-started/how-morph-works.mdx
@@ -0,0 +1,41 @@
+---
+title: 'How Morph Works'
+---
+
+Morph is a comprehensive tool to support data-driven decision-making — from data import to analysis, visualization, and sharing.
+
+This section provides a step-by-step description of how Morph works. It allows users to easily manipulate data and gain insights quickly.
+
+---
+
+{/* TODO 動画を埋め込む */}
+{/* */}
+
+
+## 1. Import data into your workspace
+
+Morph allows users to easily import data from a variety of data sources into their Workspace. Users can import a variety of file formats, including CSV, JSON, and Excel files. In addition, data can be imported directly from cloud storage and databases.
+
+## 2. Build a data pipeline on Canvas
+
+After data is imported into the workspace, a data pipeline is built on the canvas: Morph AI automates data cleaning, transformation, and integration for efficient data processing. Users can build the pipeline using drag-and-drop operations, and the AI suggests the best way to process the data.
+
+## 3. Edit code
+
+Morph provides a powerful editor for querying and analyzing data using SQL and Python. Users can edit code using Morph's built-in code editor, extract the data they need, and/or perform complex analyses. They can also see the results of their code execution in real-time, allowing them to get quick feedback.
+
+## 4. Generate visualizations and reports
+
+Once the analysis is complete, visualize the data using Morph's extensive visualization tools. Graphs and charts can be easily created, and interactive dashboards can be built. The visualizations generated can be exported as reports or shared in real-time. This allows you to effectively communicate data insights.
+
+## 5. Share with your team
+
+Morph allows you to easily share the data, pipelines, code, and visualizations you create with your team members. This facilitates collaboration across the team and efficient, data-driven decision-making.
\ No newline at end of file
diff --git a/docs/en/getting-started/why-morph.mdx b/docs/en/getting-started/why-morph.mdx
new file mode 100644
index 0000000..ce125e5
--- /dev/null
+++ b/docs/en/getting-started/why-morph.mdx
@@ -0,0 +1,62 @@
+---
+title: Why Morph?
+---
+
+Morph is a data workspace that focuses on ‘using’ data rather than ‘storing’ it.
+
+Today, the importance of collecting and storing data is well understood and many companies operate data warehouses and databases. However, making good use of the data collected is not an easy task.
+
+In an age where critical business data is collected on a daily basis and new actions are required on a daily or weekly basis, it is essential to build a quick, flexible, data utilization infrastructure to understand the true meaning of data.
+
+This section confirms the importance of incorporating data analysis and insight extraction in an agile manner to your workflow, and using the power of AI to better understand data... and why Morph is the best tool for such workflows.
+
+---
+
+## Challenges of traditional data tools
+
+Traditional data analysis and BI tools have:
+
+1. **High learning costs and long build times.** Many data tools require high learning costs, with proprietary extended programming languages and very complex configurations. They also require engineering to build and that must also be taken into account.
+2. **Long lead times to make changes.** Suppose you have finally completed the build and have gained insights from your data. But if new indicators emerge from the learnings that you want to monitor, you have to build the analysis flow and dashboards from scratch. You need to convene the engineers again and get the dashboard to reflect the requirements from the business unit.
+3. **Complex workarounds.** The problem becomes instantly more complex when you try to do more than what the tool has been designed specifically to do. In many cases, you will be forced to ask an engineer to build a workaround for you.
+
+In other words, it is like a waterfall model. This may not be a problem if the sequence of requirements definition, design, construction, and operational testing can take weeks or months, and furthermore, if the system is built once and then used on an annual basis.
+
+However, in an era of rapidly changing business environments, you may feel the need for faster data utilization cycles to make data-driven decisions.
+
+## Agile and flexible data analysis and BI
+
+Agile approaches have been widely adopted in software development, but the mindset can also be applied to data analysis and business intelligence (BI).
+
+### Benefits of the agile approach
+
+1. **Rapid feedback loop:** agile methodologies allow for rapid feedback through a series of short iterations (sprints). This allows immediate validation of the results of the analysis and, if necessary, a change of direction.
+2. **User-centred development:** agility allows development to be based on the needs of the user, so that data analysis can be tailored to the specific requirements of the business scene. This enables users to quickly obtain the information they need and make decisions more smoothly.
+3. **Flexibility:** an agile approach can be flexible as the business environment and requirements change. New data sources can be added and analysis methods can be changed quickly, so that decisions are always based on the latest information.
+
+### Specific methods of agile data analysis
+
+1. **Incremental data collection and integration:** focus on the most important data sets in the early stages and adopt a phased approach to adding and integrating data. This allows for gradual expansion of data coverage while providing value early on.
+2. **Continuous communication and collaboration:** communicate frequently within and outside the team and actively incorporate stakeholder feedback. Share progress and make necessary adjustments through regular meetings and review sessions.
+3. **Data pipeline automation:** automates data collection, integration, cleaning and analysis, reducing the burden of manual work. This improves the efficiency of analytical work and makes agile processes more effective.
+4. **Deploy to the production environment:** deploy what you have tried in the sandbox environment smoothly to the production environment. This allows the results of data analysis to be quickly utilised in the next sprint.
+
+Agile data analytics and BI enable companies to extract value from their data more quickly and flexibly, giving their business a competitive edge, and Morph supports this approach, providing an environment where users can get the information they need in a timely manner.
+
+## Morph Features:
+
+### Complete cloud infrastructure for data utilization
+
+Morph has all the cloud infrastructure needed for data analysis. This includes cloud-based Postgres providing advanced computing power, scalable storage solutions and management of directed graph models to build data pipelines. Users can easily utilise these infrastructures and start analysing data quickly.
+
+### SQL・Python
+
+Morph supports both SQL and Python, the main languages of data analysis. This allows users to choose the language best suited to their own skill set and efficiently query and analyse data: they can perform simple queries using SQL or build advanced data science and machine learning models using Python. Furthermore, Morph seamlessly integrates these languages, allowing users to easily exchange data between different languages.
+
+### Support for all file formats
+
+Morph supports a variety of file formats, including CSV, JSON and Excel. This allows data from different sources to be easily imported and centrally managed. Users can integrate data from different formats and provide a unified view, significantly increasing the efficiency of data analysis. Data can also be exported flexibly and easily integrated with other systems and tools.
+
+### Morph AI
+
+Morph includes AI capabilities that help users gain a deeper understanding of their data and assist in the analysis process; Morph AI automatically detects patterns and trends in the data and provides key insights. In addition, an AI assistant helps users in creating queries and visualizing data, making it easier to perform complex analysis tasks. This allows users to perform sophisticated analyses and quickly obtain decision-useful information, even if they do not have specialist data knowledge.
\ No newline at end of file
diff --git a/docs/en/morph-ai/features-of-morphai.mdx b/docs/en/morph-ai/features-of-morphai.mdx
new file mode 100644
index 0000000..0a8beab
--- /dev/null
+++ b/docs/en/morph-ai/features-of-morphai.mdx
@@ -0,0 +1,29 @@
+---
+title: 'Morph AI Features'
+---
+
+Morph AI provides advanced capabilities focused on data analysis to power users' data-driven decision-making. This section details the features and benefits of Morph AI.
+
+## Why Morph AI is special
+
+While analysis is possible in regular AI chat, Morph AI is specifically designed for data analysis and provides more accurate results for your requirements. It differs from regular AI chat in the following ways
+
+- **Understands the data schema:** because Morph AI understands the schema (structure) of the user's database, it can understand the relationships between tables and the meaning of columns, enabling accurate analysis that takes into account data relationships. This ensures that even complex queries get the right results quickly.
+- **Can take into account the schema resulting from previous and subsequent data processing:** the schema generated at each step of data processing can be understood and passed on appropriately to the next step. This allows data processing to proceed efficiently while maintaining the integrity of the entire pipeline.
+- **Able to give knowledge such as the meaning of each column:** users can provide the AI with knowledge about the meaning and use of columns, which allows the AI to perform more accurate queries and analyses. For example, it can analyze sales trends with the understanding that columns in sales data represent revenue.
+
+## Build multi-step data pipelines
+
+Morph AI has the ability to automatically build complex data pipelines based on user requirements. All the user has to do is tell Morph AI the desired analysis results, and Morph AI will design and execute all the necessary steps. For example, even in complex cases involving multiple SQL queries or Python scripts, Morph AI will smoothly build the pipeline. Furthermore, the code for each step can be manually modified as required, allowing fine-tuning while maintaining the integrity of the entire pipeline.
+
+## Generate and modify code
+
+Morph AI can automatically generate and modify SQL and Python code for each step. This allows users to perform advanced data analysis without any technical expertise. Furthermore, even when connected to an external database, Morph AI generates optimised code that takes into account the database schema. For example, if new tables are added or existing columns are modified, it automatically adapts and provides accurate queries.
+
+## Asking questions about data
+
+Morph AI can answer questions about analysis and aggregate results quickly and accurately. Users can ask questions about specific data points or trends to gain detailed insights using natural language, for example, ‘What are the top 10 selling products this month?’ or ‘Which regions have the highest customer satisfaction?’
+
+## Generate a report
+
+Morph AI generates rich reports based on aggregate and visualization results. Users can customise the content of the reports using prompts. For example, the format and content of reports can be tailored to specific needs, such as ‘agenda for next marketing meeting’ or ‘monthly report to management’. The generated reports are visually attractive and easy to understand, making them a powerful tool to support decision-making.
\ No newline at end of file
diff --git a/docs/en/rest-api/authentication.mdx b/docs/en/rest-api/authentication.mdx
new file mode 100644
index 0000000..a9dbc64
--- /dev/null
+++ b/docs/en/rest-api/authentication.mdx
@@ -0,0 +1,40 @@
+---
+title: 'Authentication'
+---
+
+To use Morph's API, an API key must be included in the header of the request; the API key can be obtained from the Morph dashboard and ensures secure access.
+
+
+
+## How to obtain an API key:
+
+1. from the Home screen, press the ‘Secrets’ tab to display the following page.
+2. next press the ‘Create Secret’ button, enter the Secret name and Source IP and confirm with the ‘Create’ button.
+※If the Source IP is left blank, all IPs are allowed; to restrict the Source IP, enter a comma-separated list.
+3. if the created API key is no longer required, it can be deleted from the ‘Delete’ button.
+4. press the ‘Delete’ button from the Delete confirmation modal that appears, and the API key will be deleted completely.
+**[NB!] This operation cannot be undone.**
+
+## API URL
+
+The URL of the API will be in the following format:
+
+BaseURL: `https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/`
+
+**How to check the database ID `[Your_DatabaseID]`**
+
+Within the Morph workspace screen, the database ID is displayed following `/workspace`.
+
+`https://beta-app.morphdb.io/workspace/[database_id]?selected...`
+
+**How to check the table name `[**Your_Table_Name**]`**.
+
+When querying for a specific table in the database schema, the URL of the API will be of the form:
+
+URL: `https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Name]`
+
+The table name is what you see in the Built-in Tables in the side menu. The table name is also what appears in the editor tab when you select a table.
\ No newline at end of file
diff --git a/docs/en/rest-api/overview.mdx b/docs/en/rest-api/overview.mdx
new file mode 100644
index 0000000..ae662b3
--- /dev/null
+++ b/docs/en/rest-api/overview.mdx
@@ -0,0 +1,46 @@
+---
+title: 'Overview'
+---
+
+Morph automatically generates and provides an API based on the database schema created. This allows data integration and application building using Morph's database through the API without the need to implement additional code.
+
+The API is designed in a RESTful format and can be accessed securely using API keys created from within the Morph dashboard.
+
+## Features
+
+The Morph database API is provided by [PostgREST](https://postgrest.org/) and offers the following benefits:
+
+- **Efficient development and collaboration:**
+ - The API is generated directly from the database schema, significantly reducing back-end development time and costs.
+- **Auto-update/Immediacy:**
+ - Changes to the database schema are immediately reflected in the API, eliminating the need for manual synchronisation and maintenance.
+- **Performance:**
+ - The lightweight, stateless design allows direct execution of SQL queries for extremely fast data access.
+- **Flexibility:**
+ - In addition to simple CRUD operations, complex operations such as query combination, filtering and sorting can be easily performed.
+- **Security:**
+ - Strict type checking and automatic escaping of query parameters provide a high level of protection against attacks such as SQL injection.
+
+### RESTful architecture
+
+The API employs standard HTTP methods and provides intuitive and easy-to-use CRUD operations based on a RESTful architecture. Its design allows for extensive integration with various programming languages and applications, making it easy for developers to integrate the system.
+
+In addition, the following advanced features are also provided:
+
+- **Filtering and searching:**
+ - Complex query parameters can be used to precisely extract only those records that match specific criteria.
+- **Sorting and pagination:**
+ - Sort the result set and use pagination to provide the data in small chunks.
+- **Relational query:**
+ - Data can be retrieved from multiple related tables in a single query. This allows data to be retrieved by utilising the relationships in the relational database without the need for multiple API calls.
+- **Aggregation:**
+ - Aggregation features such as grouping, counting, averaging, maximum and minimum values can be included in queries.
+- **Batch requests:**
+ - Multiple API calls can be executed in a single HTTP request, reducing network latency and ensuring efficient data processing.
+
+In addition to these, various other functions are provided by [PostgREST](https://postgrest.org/). For more information, please see the following reference documents:
+
+### Reference:
+
+- [PostgREST official documentation](https://postgrest.org/en/v12/)
+- [PostgREST sourcecode](https://github.com/PostgREST/postgrest)
\ No newline at end of file
diff --git a/docs/en/rest-api/quickstart.mdx b/docs/en/rest-api/quickstart.mdx
new file mode 100644
index 0000000..3de2ee2
--- /dev/null
+++ b/docs/en/rest-api/quickstart.mdx
@@ -0,0 +1,68 @@
+---
+title: 'Quickstart'
+---
+
+This chapter provides step-by-step instructions on how to perform basic CRUD operations (Create, Read, Update, and Delete) using Morph's API. Through this tutorial, you can easily start working with Morph's database.
+
+In this example, the API is invoked using the cURL command, so you can try it out by pasting the command into your terminal environment or an API client tool such as [Postman](https://www.postman.com/).
+
+### API calls
+
+*※**`[**Your_DatabaseID**]`,** `[Your_Table_Slug]`, **`[Your_API_Key]`** should be substituted.*
+
+**Create:**
+
+To create new data, use the POST method.
+
+```sh
+curl --location --request POST 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]' \
+--header 'Content-Type: application/json' \
+--data-raw '{
+ "column1": "value1",
+ "column2": "value2"
+}'
+```
+
+**Read:**
+
+To read data from a table, use the GET method.
+
+```sh
+curl --location 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]'
+
+```
+**Update:**
+
+To update existing data, use the PUT method.
+
+```sh
+curl --location --request PUT 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]' \
+--header 'Content-Type: application/json' \
+--data-raw '{
+ "column1": "new_value1"
+}'
+```
+
+**Delete:**
+
+To delete data, use the DELETE method.
+
+```sh
+curl --location --request DELETE 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]' \
+--header 'Content-Type: application/json' \
+--data-raw '{
+ "column1": "value_to_delete"
+}'
+
+```
+
+In addition to these, [PostgREST](https://postgrest.org/) allows various query patterns to be realized according to the users's application. For more information, please see the following reference documents.
+
+### Reference:
+
+- [PostgREST official documentation](https://postgrest.org/en/v12/)
+- [PostgREST sourcecode](https://github.com/PostgREST/postgrest)
\ No newline at end of file
diff --git a/docs/en/team-setting/credit.mdx b/docs/en/team-setting/credit.mdx
new file mode 100644
index 0000000..63152ae
--- /dev/null
+++ b/docs/en/team-setting/credit.mdx
@@ -0,0 +1,25 @@
+---
+title: 'Credit'
+---
+
+Morph manages the execution of cloud machines to run workspaces and AI functions by consuming credits.
+
+A certain number of credits are packaged with each usage plan and additional credits can be purchased.
+
+## Credit usage
+
+Each function consumes credits according to the table below:
+
+| Credit consumption / 1 hour | CPU | Memory |
+| :--- | :--- | :--- |
+| 30 | 2vCPU | 4MB |
+
+| Credit consumption | AI function |
+| :--- | :--- |
+| 6 | Chat messages |
+| 6 | Report generation |
+| 18 | Multistep generation |
+
+## Credit management
+
+You can check how much credit you have used, and purchase additional credits from the ‘Credit’ tab on the home screen.
\ No newline at end of file
diff --git a/docs/en/team-setting/manage-members.mdx b/docs/en/team-setting/manage-members.mdx
new file mode 100644
index 0000000..b4c24a1
--- /dev/null
+++ b/docs/en/team-setting/manage-members.mdx
@@ -0,0 +1,11 @@
+---
+title: 'Manage Members'
+---
+
+Team members can be added and managed from the ‘Members’ tab on the home page. Member permissions include Admin and General.
+
+Admin users are authorised to perform the following operations:
+
+- Manage users
+- Manage plans
+- Credit management
\ No newline at end of file
diff --git a/docs/en/workspace/about-canvas.mdx b/docs/en/workspace/about-canvas.mdx
new file mode 100644
index 0000000..da29d7a
--- /dev/null
+++ b/docs/en/workspace/about-canvas.mdx
@@ -0,0 +1,20 @@
+---
+title: 'Canvas'
+---
+
+Morph's Canvas is an interactive visual tool that allows users to intuitively design and manage data pipelines. Canvas allows users to visually understand and efficiently manipulate complex data flows.
+
+
+
+## Creating a visual data pipeline
+
+Canvas provides an intuitive interface for building data pipelines with drag-and-drop operations. SQL, Python, and json files can be placed on the canvas.
+
+
\ No newline at end of file
diff --git a/docs/en/workspace/about-workspace.mdx b/docs/en/workspace/about-workspace.mdx
new file mode 100644
index 0000000..baf095f
--- /dev/null
+++ b/docs/en/workspace/about-workspace.mdx
@@ -0,0 +1,28 @@
+---
+title: 'Workspace Overview'
+---
+
+The Morph workspace consists of three sections:
+
+- **Code:** a VS Code-based editor and a proprietary framework allow you to build data applications and analyse data fast.
+- **Database:** built-in PostgreSQL can be used. You can build the data marts you want to use during the analysis process and in your data applications, enabling more flexible data utilization.
+- **Connections:** create RDB / data warehouse / SaaS connections and start analysing immediately without writing complicated authentication code.
+
+
+
+You can find out more about each section on the following pages:
+
+
+
+ An overview of the data analysis and data application building.
+
+
+ The Built-in PostgreSQL available in the Database section.
+
+
+ How to create and use linkages in the Connections section.
+
+
diff --git a/docs/en/workspace/data-application.mdx b/docs/en/workspace/data-application.mdx
new file mode 100644
index 0000000..91d5444
--- /dev/null
+++ b/docs/en/workspace/data-application.mdx
@@ -0,0 +1,87 @@
+---
+title: 'Data Applications'
+---
+
+Morph makes it easy to create rich data applications using a combination of markdown formats and React components.
+
+This section provides step-by-step instructions for building data applications.
+
+## MDX
+
+When building data applications in Morph, use [MDX (https://mdxjs.com/)](https://mdxjs.com/) For more information on how to use MDX, see [Official MDX documentation](https://mdxjs.com/). See also.
+
+## 0. Setup
+
+{/* 通常この手順は、ワークスペースのシステムが自動で実行するため、スキップして構いません。どうしても起動がうまくいかない場合に試してください。 */}
+
+To build a data application, first open the Morph workspace and execute the following commands. This may take several minutes.
+
+```bash
+npm i -S @use-morph/page-build && npx morph-page init
+```
+
+
+## 1. Create MDX files
+
+
+
+First, create an mdx file to describe the content of your data application. mdx files combine text written in markdown format with React components to create rich content.
+Create the mdx file in the `src` directory of your workspace home directory.
+
+## 2. Edit MDX files
+
+Once the MDX file has been created, the contents can be edited.
+
+One very important element is the need to EXPORT two variables:
+
+- `name`: This is the pathname of the page for this file. For example, if name is `index`, this is `/`, and if name is `about`, this is `/about`.
+
+- `title`: This is the title of the page for this file. It appears in the menu and title in the screen.
+
+The following is an example of an `index.mdx` file:
+
+```tsx index.mdx
+
+export const name = 'index';
+export const title = 'Top page';
+
+# Top page
+
+This is the top page of the data application.
+
+```
+
+Normal markdown notation can be used.
+
+## 3. Using Morph data
+
+To use Morph data, a dedicated component is used to pass the name of the Python function or SQL file as a property.
+
+Below is an example of a table display of a DataFrame from a Python run:
+
+```tsx index.mdx
+
+export const name = 'index';
+export const title = 'Top page';
+
+# Top page
+
+This is the top page of the data application.
+
+import { DataTable } from '@use-morph/page';
+
+
+
+
+
+```
+
+For detailed specifications of Morph components, see the [Data Application page](/data-application/en/how-to-build-data-application).
+
+## 4. Launching data applications
+
+To start the data application, click on the Preview button in the top right-hand corner of the mdx file editing screen.
\ No newline at end of file
diff --git a/docs/en/workspace/environment.mdx b/docs/en/workspace/environment.mdx
new file mode 100644
index 0000000..decc3a3
--- /dev/null
+++ b/docs/en/workspace/environment.mdx
@@ -0,0 +1,53 @@
+---
+title: 'Development Environment'
+---
+
+The Code section of the Morph workspace provides a development environment for building data analysis and data applications.
+
+Every workspace is allocated its own VM (Virtual Machine), so each user has their own completely separate workspace.
+Even within the same team, each user has a completely separate VM, so there is no conflict in work. To enable collaboration between engineers, each VM is connected to a managed GitLab.
+
+You can also utilise a VS Code-based editor for executing code and coding on the VMs to build data applications.
+
+The organisation on the workspace is as follows:
+
+
+
+## Using Git
+
+Code automatically installs a built-in Git in the VM. Therefore, if you want to share your work on a workspace with other members, you need to commit to Git.
+
+The same workspace is tied to the same Gitlab project, so you can share your work with other members by committing your code.
+
+You can use VS Code's default Git manipulation functionality or Git from the Terminal. Of course, you can also install your preferred Git manipulation extension in the VS Code Extension.
+
+
+
+### About the framework
+
+The Morph framework allows you to use a range of tools to analyse, visualise and operationalise your data.
+The following pages show you how to build each of these:
+
+
+
+ SQL and Python can be used to analyse data.
+
+
+ GUIs make it easy to perform visualisations from aggregated data.
+
+
+ Rich data applications can be easily created using MDX.
+
+
+ Use Canvas to visualise data flows.
+
+
+ DAGs created in SQL or Python can be executed on a scheduled basis.
+
+
diff --git a/docs/en/workspace/job-schedule.mdx b/docs/en/workspace/job-schedule.mdx
new file mode 100644
index 0000000..7ca285a
--- /dev/null
+++ b/docs/en/workspace/job-schedule.mdx
@@ -0,0 +1,29 @@
+---
+title: 'Job Scheduling'
+---
+
+This section describes a mechanism for scheduling and executing data pipelines created in SQL or Python.
+
+Functions such as `load_data` in SQL and `@morph.load_data()` in Python allow multiple processes to be built as a pipeline.
+Scheduled execution of this pipeline can automate recurring tasks such as daily sales totals.
+
+As shown below, when you open the SQL/Python file, ‘Run Schedules’ appears in the tab on the right-hand side.
+Here you can check the jobs currently set up and register new jobs.
+
+
+
+## Job scheduling settings
+
+Job scheduling should be configured for the last function in the pipeline.
+The `load_data` function also executes the function to be loaded at runtime, so any data pipeline can be executed periodically by specifying the last function in the data pipeline.
+
+The execution date and time can be set flexibly, such as ‘every day’ or ‘only on weekdays’. The execution time can also be set in 15-minute increments.
+
+
\ No newline at end of file
diff --git a/docs/en/workspace/sql-python.mdx b/docs/en/workspace/sql-python.mdx
new file mode 100644
index 0000000..c83cf46
--- /dev/null
+++ b/docs/en/workspace/sql-python.mdx
@@ -0,0 +1,110 @@
+---
+title: 'Build with SQL & Python'
+---
+
+The workspace allows data analysis using SQL and Python.
+
+When you open the workspace, a `src` directory exists in the project root. Place and run SQL and Python files in this `src` directory.
+
+The `morph_project.yml` file is set to `source_paths: src`. It is possible to change the directory where the source code is placed by changing this value.
+
+
+
+### Execution of source code
+
+The SQL or Python you have written can be executed using the ‘RUN’ button located in the top right-hand corner of the editor, as shown in the image below.
+
+When executed, the corresponding Morph CLI log is output in the terminal and the data from the execution is displayed in the ‘Result’ tab in the right sidebar.
+
+
+
+## Implementing source code
+
+SQL and Python on Morph is run by the Morph CLI installed on a VM on the workspace. It builds on the DB and standard Python scripts used, and provides extensions to allow more powerful data analysis by the user.
+
+In addition, in Morph, files for analysis are named at runtime. Naming makes it easier to access the results of that file from other files.
+This mechanism is a very important part of the Morph framework.
+
+Note that duplicate names of this name at runtime will result in a compile error.
+
+### SQL
+
+You can use jinja2 to write SQL, and within jinja you can use Morph's own config, a function for writing metadata.
+In config, you can describe the processing of the function. This allows you to leave the processing details for team members and for the Morph AI to interpret the developer's intentions in detail.
+
+In the SQL below, the config function is used to name and describe the process in detail. Using jinja in this way allows metadata to be written directly in the SQL.
+
+```sql
+{{
+ config(
+ name="example_sql_cell",
+ description="Example SQL cell",
+ )
+}}
+
+select * from customers limit 10
+```
+
+
+If the config function is undefined or not named by name, the sql file name is used as the name.
+Example: example_sql_cell.sql, in which case example_sql_cell is used as the name.
+
+
+
+
+In Morph, it is forbidden to write a semicolon at the end of SQL to prevent multiple SQLs in one SQL file. If you have written one, an error message will be displayed, so delete the semi-colon and run the program again.
+
+
+For detailed config settings and other grammar rules, see the following detailed pages:
+
+
+
+ Describes how to run SQL on Morph.
+
+
+
+### Python
+
+In Python files, functions can be registered as functions that can be executed on Morph by adding the annotation `@morph.func` to the function. This mechanism allows Python files to contain and execute multiple functions in a single file.
+
+As with SQL, Python files can describe the name and description of a function by setting name and description to the arguments of this `@morph.func` annotation.
+
+In addition, `@morph.load_data` can be used to load the results of other SQL/Python executions directly into variables. The loaded variables can be referenced from within the `context` argument.
+In the following example, the result of an SQL execution called example_sql_cell is read in by a Python function called example_python_cell, which returns the accessed result as is.
+
+The `context` variable contains data in a dictionary type with the same name as the name of the read target.
+
+```python
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+
+@morph.func(
+ name="example_python_cell",
+ description="Example Python cell",
+)
+@morph.load_data("example_sql_cell")
+def main(context: MorphGlobalContext) -> pd.DataFrame:
+ sql_result_df = context.data["example_sql_cell"]
+ return sql_result_df
+
+```
+
+
+Python functions must always be given `@morph.func`, but arguments such as name are not required. If not specified, the function name is used as-is as the name.
+
+
+For more information on convenience functions, including detailed settings for `@morph.func` / `@morph.load_data` and other annotations, see the details page below:
+
+
+
+ This section explains how to run Python on Morph.
+
+
diff --git a/docs/en/workspace/template.mdx b/docs/en/workspace/template.mdx
new file mode 100644
index 0000000..15f6482
--- /dev/null
+++ b/docs/en/workspace/template.mdx
@@ -0,0 +1,139 @@
+---
+title: 'Template'
+---
+
+Morph has a template facility to make writing SQL and Python code easier.
+Two types of templates exist.
+
+## Built-in Template
+
+When the source code is opened on the workspace, a standard template created by the Morph team can be seen in the sidebar on the right.
+This template acts as a snippet of the Morph framework and by copying it you can immediately start implementing the analysis part.
+
+
+
+
+If you have any requests for templates, please do not hesitate to request them from `shibata@morphdb.io`!
+
+
+## Custom Template
+
+In the `templates` folder, user-defined template files can be created and managed.
+
+New files can be created from the created templates with the `morph create` command. You can also search for them with the `morph search` command.
+
+### Steps to create a template
+
+**(Step 1) Create template files**
+
+Template files are created under the templates directory.
+
+The following placeholders can be defined during creation. (The values defined in the placeholders can be specified in the morph create command options described below, which will create the file with the replacements).
+
+- `${MORPH_NAME}`: replaced by the template name (old alias). (Specified by the `--name` option of the `morph create` command).
+- `${MORPH_DESCRIPTION}`: replaced by the template description. (Specified by the `--description` option of the `morph create` command)
+
+E.g:
+
+```python
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+
+# morph.func is a decorator that takes in the following parameters:
+# name: The identifier for the file alias. The function name will be used if not provided.
+# description: The description for the function.
+# output_paths: The destination paths for the output.
+# output_type: The return type of the function
+@morph.func(
+ name="${MORPH_NAME}",
+ description="${MORPH_DESCRIPTION}",
+ output_paths=["_private/{name}/{now()}{ext()}"],
+ output_type="dataframe",
+)
+def main(context: MorphGlobalContext) -> pd.DataFrame:
+ return pd.DataFrame({{"key1": [3, 2, 1], "key2": [5, 4, 3]}})
+```
+
+**(Step 2) Edit template.yaml**
+
+Edit template.yaml directly under the templates folder, see example below for Syntax.
+
+※The src can be defined as the full path or relative to template.yaml.
+
+E.g:
+
+```yaml
+# [Description]
+# This file is used to manage your local templates.
+#
+# [Syntax]
+# This file is written in YAML format. The following is an example of the syntax.
+# E.g.)
+# templates:
+# - name: [required]
+# title:
+# description:
+# src: [required]
+# language: [required|options:"python", "sql"]
+#
+# [Compiling]
+# After editing this file, you need to compile it using the following command.
+# This command will validate the syntax of the file and make sure your templates are available.
+# E.g.)
+# $ morph template compile
+
+templates:
+ - name: test
+ title: Test Template
+ description: This is a test template.
+ src: ./python/test.py
+ language: python
+```
+
+**(Step 3) Compile**
+
+You can check the validity of template.yaml with the following command. Once you have created the template file and even edited template.yaml, hit the following command from the VS Code terminal.
+
+```bash
+$ morph template compile
+$ # If you run it and nothing is displayed, you have succeeded.🎉
+```
+
+## How to use templates
+
+The templates you set up can be used in the menu on the right-hand side of the workspace or when creating a new canvas in the canvas.
+
+**Select from the list of templates**
+
+
+
+**Select from canvas**
+
+
+### How to use templates from the CLI
+
+It can be created with the following command:
+
+※The `` is the name defined in template.yaml. Or by specifying the name returned by [Template API](https://queue-inc.stoplight.io/docs/morph-api-document/fhs6hbxyjjtxu-no-auth-search-template), You can also use a global template.
+
+```bash
+# morph create -template
+$ morph create src/test.py --template test
+```
+
+
+
+ Use the CLI to create files from templates.
+
+
diff --git a/docs/en/workspace/visualization.mdx b/docs/en/workspace/visualization.mdx
new file mode 100644
index 0000000..d5abc48
--- /dev/null
+++ b/docs/en/workspace/visualization.mdx
@@ -0,0 +1,97 @@
+---
+title: 'Data Visualization'
+---
+
+Visualization is crucial to understanding data. This section shows you how to visualise data on the Morph workspace.
+
+## Using the visualization function
+
+Morph provides a function for realising simple visualizations in the GUI by creating a file with the extension vg.json.
+To realise general visualizations such as bar charts and line graphs, the visualization results can be immediately obtained by aggregating the original data.
+
+### Treatment
+
+First, open the SQL, Python file containing the aggregated source data for the data you want to visualize.
+
+When you open the file, an icon to start the visualization function appears in the top right-hand corner. Click here.
+
+
+
+A file with the extension vg.json is generated on the same level of the directory. Open that file.
+
+A GUI screen for visualization will appear as follows. Set each value and a beautiful graph will be displayed in real time.
+
+
+
+### Visualization sample
+
+
+
+## Implement more complex visualizations
+
+If you want to implement more complex visualizations, you can use Python visualization libraries to visualize your data.
+
+Morph recommends using Plotly and Matplotlib for data visualization. Create an object for visualization in these libraries, write a function to return it and execute it, and Morph's CLI will automatically execute the visualization part.
+Below are some sample visualizations using Plotly and Matplotlib.
+
+**Plotly**
+
+```python
+import plotly.express as px
+
+import morph
+from morph import MorphGlobalContext
+
+@morph.func(
+ name="${MORPH_NAME}",
+ description="${MORPH_DESCRIPTION}",
+)
+@morph.load_data("${MORPH_PARENT_NAME}")
+def main(context: MorphGlobalContext) -> px.line:
+ data = context.data["${MORPH_PARENT_NAME}"]
+ # This is where you write your code.
+ # The `px.line` function creates a line plot using Plotly Express.
+ fig = px.line(data, x="X Axis", y="Y Axis", markers=True)
+ fig.update_layout(title="Plotly Plot")
+ return fig
+```
+
+**Matplotlib**
+
+```python
+import matplotlib.pyplot as plt
+
+import morph
+from morph import MorphGlobalContext
+
+@morph.func(
+ name="${MORPH_NAME}",
+ description="${MORPH_DESCRIPTION}",
+)
+@morph.load_data("${MORPH_PARENT_NAME}")
+def main(context: MorphGlobalContext) -> plt.Figure:
+ data = context.data["${MORPH_PARENT_NAME}"]
+ # This is where you write your code.
+ # The `plot` function creates a line plot using Matplotlib.
+ fig, ax = plt.subplots()
+ ax.plot(data["X-Axis"], data["Y-Axis"], marker="o")
+ ax.set_title("Matplotlib Plot")
+ ax.set_xlabel("X-Axis")
+ ax.set_ylabel("Y-Axis")
+ return fig
+```
+
+
+These visualizations output the results of the execution in HTML and PNG. If you want to access these raw data, you can specify the output destination with `@morph.func`'s `output_paths`.
+By specifying `@morph.func(output_paths=[‘_private/{name}/{now()}{ext()}’])` in this way, the output is output to `_private/{name of function}/{time stamp of execution}{.png, .html}`.
+
diff --git a/docs/en/workspace/vscode-extensions.mdx b/docs/en/workspace/vscode-extensions.mdx
new file mode 100644
index 0000000..f3b863e
--- /dev/null
+++ b/docs/en/workspace/vscode-extensions.mdx
@@ -0,0 +1,66 @@
+---
+title: 'VS Code Extensions'
+---
+
+The VS Code ecosystem can be used to streamline work on the Morph workspace.
+
+## Recommended VS Code Extensions
+
+These extensions are recommended to make working with Morph more efficient. They are all installed when you sign up, this page is just in case you have removed them.
+
+### Parquet Explorer
+
+Morph outputs DataFrame data as a Parquet file. This Extension can be used to visually check the Parquet file.
+
+
+
+### MDX
+
+MDX is used to build data applications. This Extension supports the implementation of MDX files.
+
+
+
+### Python(ms-python)
+
+This extension can be used to support Python file implementations.
+
+
+
+### Edit CSV
+
+This extension enables rich editing of CSV files from the workspace.
+
+
+
+## Installing Github Copilot
+
+To install Github Copilot you need to go through the following steps:
+
+1. upload the vsix file described below to the file system on Workspace (upload location optional)
+2. right-click on the file and install from Install Extension VSIX at the bottom
+
+
+
+3. log in with your GitHub account.
+
+#### vsix file
+
+Download the file below:
+
+[Github Copilot vsix download](/assets/GitHub.copilot-1.223.1062.vsix)
\ No newline at end of file
diff --git a/docs/ja/data-sources/builtin-postgres.mdx b/docs/ja/data-sources/builtin-postgres.mdx
new file mode 100644
index 0000000..dbb7d7f
--- /dev/null
+++ b/docs/ja/data-sources/builtin-postgres.mdx
@@ -0,0 +1,24 @@
+---
+title: 'データベース: ビルトインPostgreSQL'
+---
+Morphには、ビルトインのPostgreSQLデータベースが備わっています。このデータベースは、データパイプラインの中間結果を一時的に保存したり、最終結果を格納して外部サービスに接続するために活用できます。
+
+ワークスペースを開いて「Database」のタブを開いてください。このタブからBuilt-inのPostgreSQLを使用することができます。
+
+Morphのワークスペースからは基本的なテーブル編集、レコード編集を行うことができます。
+
+
+
+## 外部から接続する
+
+画面上の「Postgres Connection」に記載されている接続文字列は、ワークスペース上にホスティングされているPostgreSQLにアクセスをするための接続文字列になっています。これを使って外部のデータベースクライアントや、アプリケーションから接続をすることも可能です。
+
+## IP制限
+
+外部からPostgreSQLの接続する際にセキュリティを設定することは非常に重要です。
+Morphのワークスペースの「IP Restrictions」に許可をするIPを記載することで、記載されたIPアドレス以外からのアクセスを拒否します。
+
+初期設定は「0.0.0.0/0」が設定されているので、どこからでもアクセスが可能なので重要なデータを挿入する前に必ずIP制限を設定してください。
diff --git a/docs/ja/data-sources/connectors.mdx b/docs/ja/data-sources/connectors.mdx
new file mode 100644
index 0000000..b6b67d9
--- /dev/null
+++ b/docs/ja/data-sources/connectors.mdx
@@ -0,0 +1,62 @@
+---
+title: 'コネクター: DB / DWH / SaaS'
+---
+
+Morphは、様々なデータソースと連携することで、ユーザーが一元的にデータを管理・分析できる環境を提供します。このセクションでは、Morphがサポートする主要なデータソースを紹介します。
+
+## SQLデータベース
+
+Morphでは、さまざまな外部データソースとの連携が可能です。これにより、ユーザーは以下のデータベースやデータウェアハウスから直接SQLを使用してクエリを実行することができます。
+
+1. **MySQL**: オープンソースのリレーショナルデータベース管理システムで、世界中の多くのアプリケーションで広く使用されています。
+2. **PostgreSQL**: 強力なオープンソースのオブジェクトリレーショナルデータベースシステムで、信頼性、機能の豊富さ、パフォーマンスが特徴です。
+3. **BigQuery**: Google Cloudのサーバーレス、高スケーラビリティを持つデータウェアハウスで、大量のデータに対する迅速なSQLクエリをサポートします。
+4. **Snowflake**: クラウドベースのデータウェアハウスサービスで、データの共有やスケーラビリティに優れ、多様なデータワークロードをサポートします。
+5. **Redshift**: Amazon Web Servicesによるクラウドデータウェアハウスで、大規模なデータセットの分析を高速で行うことができます。
+
+これらのデータソースをMorphに接続することで、異なるプラットフォームやツール間でデータを統合し、効率的にデータ分析やビジネスインテリジェンスのタスクを行うことが可能になります。Morphのインターフェースを通じて簡単に接続を設定し、データを直接クエリすることができます。
+
+## SaaS
+
+Morphでは、一部のSaaSとの連携を用意しています。これにより、ユーザーは認証周りの実装を全てMorphに任せてビジネスロジックの実装に集中をすることができます。
+
+以下のようにConnectionsのタブからIntegrationを作成することで、すぐにSaaS内のデータの分析を始めることができます。
+
+
+
+Pythonで作成したIntegrationからaccess_tokenを取得します。
+
+```python
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+from morphdb_utils.api import get_auth_token # ← access_tokenを取得する関数
+
+@morph.func(
+ name="freee_get_balance",
+ description="Freee Preprocess",
+ output_paths=["_private/{name}/{now()}{ext()}"],
+ output_type="dataframe",
+)
+def freee_get_balance(context: MorphGlobalContext) -> pd.DataFrame:
+ access_token = get_auth_token("Freee")
+
+ # ↓↓↓ call API with access_token ↓↓↓
+```
+
+
+## 非SQLデータベース
+
+Morphは、NoSQLデータベースやその他の非SQLデータベースとも連携可能です。これには、MongoDBやCassandraなどが含まれ、これらのデータベースに対してPythonを使用してデータを取得し、分析することができます。Pythonの強力なライブラリを活用することで、データの操作や変換が容易になり、非SQLデータベースからも効果的にインサイトを引き出すことができます。
+
+## APIによる連携
+
+Morphは、様々な外部サービスやアプリケーションとAPIを通じて連携することも可能です。これにより、例えばウェブサービスからリアルタイムのデータを取得したり、他のクラウドサービスと統合したりすることができます。ユーザーはPythonスクリプトを使用してAPIからデータを取得し、Morph内で直接処理・分析を行うことができます。これにより、柔軟でカスタマイズ可能なデータ連携が実現します。
+
+## ファイルアップロード
+
+Morphは、ローカルファイルからのデータアップロードもサポートしています。ユーザーはCSV、JSON、Excelファイルなどを簡単にアップロードし、Workspaceにインポートすることができます。アップロードされたデータはすぐに利用可能で、Morphのツールを使って分析や可視化を行うことができます。
\ No newline at end of file
diff --git a/docs/ja/getting-started/how-morph-works.mdx b/docs/ja/getting-started/how-morph-works.mdx
new file mode 100644
index 0000000..23e0daa
--- /dev/null
+++ b/docs/ja/getting-started/how-morph-works.mdx
@@ -0,0 +1,39 @@
+---
+title: '使用の流れ'
+---
+
+Morphは、データのインポートから分析、可視化、そして共有まで、データ駆動型の意思決定を支援する包括的なツールです。このセクションでは、Morphがどのように機能するかをステップごとに説明します。これにより、ユーザーは簡単にデータを扱い、迅速にインサイトを得ることができます。
+
+---
+
+{/* TODO 動画を埋め込む */}
+{/* */}
+
+
+## 1. ワークスペースにデータをインポートする
+
+Morphでは、様々なデータソースから簡単にデータをワークスペースにインポートできます。ユーザーは、CSV、JSON、Excelファイルなど、さまざまなファイル形式に対応したインポート機能を活用できます。さらに、クラウドストレージやデータベースから直接データを取り込むことも可能です。
+
+## 2. キャンバスでデータパイプラインを構築する
+
+データがワークスペースにインポートされた後、キャンバス上でデータパイプラインを構築します。Morph AIは、データのクリーニング、変換、統合を自動化し、効率的なデータ処理を実現します。ユーザーはドラッグ&ドロップ操作でパイプラインを構築でき、AIが最適な処理方法を提案します。
+
+## 3. コードを編集する
+
+Morphは、SQLやPythonを用いてデータのクエリや分析を行うための強力なエディタを提供します。ユーザーは、Morph上のコードエディターを使ってコードを編集し、必要なデータを抽出したり、複雑な分析を実行することができます。また、リアルタイムでコードの実行結果を確認できるため、迅速にフィードバックを得ることができます。
+
+## 4. 可視化やレポートを生成する
+
+分析が完了したら、Morphの豊富な可視化ツールを使ってデータを視覚化します。様々なグラフやチャートを簡単に作成でき、インタラクティブなダッシュボードを構築することも可能です。生成した可視化は、レポートとしてエクスポートしたり、リアルタイムで共有したりすることができます。これにより、データのインサイトを効果的に伝えることができます。
+
+## 5. チームにシェアする
+
+Morphでは、作成したデータ、パイプライン、コード、可視化を簡単にチームメンバーと共有できます。これにより、チーム全体でのコラボレーションが促進され、効率的にデータ駆動型の意思決定を行うことができます。
\ No newline at end of file
diff --git a/docs/ja/getting-started/why-morph.mdx b/docs/ja/getting-started/why-morph.mdx
new file mode 100644
index 0000000..a6d10f8
--- /dev/null
+++ b/docs/ja/getting-started/why-morph.mdx
@@ -0,0 +1,62 @@
+---
+title: Morphの特徴
+---
+
+Morphは、データを「貯める」のではなく、「活用する」ことに焦点を当てたデータワークスペースです。
+
+今日では、データを収集し保管することの重要性は理解され、多くの企業でデータウェアハウスやデータベースの運用が行われています。しかしながら、収集されたデータを上手に活用するのは簡単なことではありません。
+
+重要なビジネスデータが日々収集され、日や週の単位で新たなアクションが求められる時代においては、素早く柔軟でデータ活用基盤を構築し、データの真の意味を理解することが不可欠です。
+
+本項では、データ分析とインサイトの抽出をアジャイルに運用し、AIの力を使ってデータの理解を深めることの重要性を確認します。さらに、そのようなワークフローにおいて、なぜMorphが最適なツールなのかをお伝えします。
+
+---
+
+## 従来のデータツールの課題
+
+従来のデータ分析ツールやBIツールは、以下のような問題を抱えています。
+
+1. **高い学習コストと長い構築時間** … 多くのデータツールでは、独自の拡張プログラミング言語が用いられていたり、設定が非常に複雑だったりと高い学習コストを払う必要があります。また、構築にはエンジニアの力が必要であり、構築のための時間も考慮しないといけません。
+2. **変更のために時間がかかる** … やっと構築が完了してデータからインサイトが得られたとしましょう。しかし、その学びから新たに監視したい指標が出てきたとしたら、分析フローとダッシュボードを一から構築しなければなりません。再度エンジニアを招集し、ビジネス部門からの要求をダッシュボードに反映させてもらう必要があります。
+3. **複雑なワークアラウンド** … 現実のビジネスの要求に応えるために、ツールの機能以上のことをしようとすると、途端に問題は複雑になります。多くの場合、エンジニアに頼んでワークアラウンドを構築してもらう必要に迫られるでしょう。
+
+つまり、まるでウォーターフォールモデルのようだということです。要件定義・設計・構築・運用テストの一連の流れに数週間から数ヶ月の時間をかけることができ、さらに一度構築したものを年単位で使用していくのであれば、これで問題ないのかもしれません。
+
+しかしながら、ビジネスの環境が急速に変化する時代において、データに基づいた意思決定をするためにはより高速なデータ活用サイクルが必要だと感じているのではないでしょうか?
+
+## アジャイルで柔軟なデータ分析とBI
+
+アジャイルなアプローチはソフトウェア開発で広く採用されていますが、データ分析とビジネスインテリジェンス(BI)にもその考え方を適用することができます。
+
+### アジャイルアプローチの利点
+
+1. **迅速なフィードバックループ**: アジャイルな方法論では、短期間の反復(スプリント)を重ねることで、迅速にフィードバックを得ることができます。これにより、分析結果をすぐに検証し、必要に応じて方向修正を行うことが可能です。
+2. **ユーザー中心の開発**: アジャイルではユーザーのニーズに基づいて開発を進めるため、ビジネスの現場が求める具体的な要件に即したデータ分析が可能になります。これにより、ユーザーは必要な情報を迅速に取得でき、意思決定がスムーズに行えます。
+3. **柔軟性**: ビジネス環境や要件が変化しても、アジャイルなアプローチは柔軟に対応できます。新しいデータソースの追加や分析方法の変更も迅速に行うことができるため、常に最新の情報を基にした意思決定が可能です。
+
+### アジャイルデータ分析の具体的な方法
+
+1. **インクリメンタルなデータ収集と統合**: 初期段階では最も重要なデータセットに焦点を当て、段階的にデータを追加・統合していく方法を採用します。これにより、早期に価値を提供しつつ、徐々にデータのカバレッジを拡大することができます。
+2. **継続的なコミュニケーションとコラボレーション**: チーム内外でのコミュニケーションを頻繁に行い、ステークホルダーのフィードバックを積極的に取り入れます。定期的なミーティングやレビューセッションを通じて、進捗状況を共有し、必要な調整を行います。
+3. **データパイプラインの自動化**: データの収集、統合、クリーニング、分析を自動化し、手動作業の負担を軽減します。これにより、分析作業の効率が向上し、アジャイルなプロセスをより効果的に実現できます。
+4. **運用環境へのデプロイ**: サンドボックス環境で試したものを、スムーズに運用環境へデプロイします。これにより、データ分析の成果を素早く次のスプリントに生かすことができます。
+
+アジャイルなデータ分析とBIの導入により、企業はより迅速かつ柔軟にデータから価値を引き出し、ビジネスの競争力を高めることができます。Morphは、このアプローチをサポートし、ユーザーが必要な情報を適時に取得できる環境を提供します。
+
+## Morphの特徴
+
+### データ活用に必要なクラウドインフラを完備
+
+Morphは、データ分析に必要なクラウドインフラをすべて備えています。これには、高度な計算能力を提供するクラウドベースのPostgres、スケーラブルなストレージソリューション、そしてデータパイプラインを構築する有向グラフモデルの管理を含みます。ユーザーはこれらのインフラを簡単に利用でき、迅速にデータ分析を開始できます。
+
+### SQL・Python
+
+Morphは、データ分析の主要な言語であるSQLとPythonの両方をサポートしています。これにより、ユーザーは自身のスキルセットに合わせて最適な言語を選択し、効率的にデータクエリや分析を行うことができます。SQLを使って簡単なクエリを実行したり、Pythonを使って高度なデータサイエンスや機械学習のモデルを構築することが可能です。さらに、Morphはこれらの言語をシームレスに統合しており、ユーザーは異なる言語間でデータを容易にやり取りできます。
+
+### あらゆるファイル形式に対応
+
+Morphは、CSV、JSON、Excelなど、さまざまなファイル形式に対応しています。これにより、異なるデータソースからデータを容易にインポートし、一元的に管理することができます。ユーザーは異なる形式のデータを統合し、統一されたビューを提供することで、データ分析の効率を大幅に向上させることができます。また、データのエクスポートも柔軟に行うことができ、他のシステムやツールとの連携も容易です。
+
+### データを理解するMorph AI
+
+Morphには、ユーザーのデータを深く理解し、分析プロセスを支援するAI機能が搭載されています。Morph AIは、データのパターンやトレンドを自動的に検出し、重要なインサイトを提供します。さらに、AIアシスタントがユーザーのクエリ作成やデータの可視化をサポートし、複雑な分析タスクを簡単に実行できるようにします。これにより、データの専門知識がなくても、高度な分析を行い、意思決定に役立つ情報を迅速に得ることが可能です。
\ No newline at end of file
diff --git a/docs/ja/morph-ai/features-of-morphai.mdx b/docs/ja/morph-ai/features-of-morphai.mdx
new file mode 100644
index 0000000..28f67d0
--- /dev/null
+++ b/docs/ja/morph-ai/features-of-morphai.mdx
@@ -0,0 +1,29 @@
+---
+title: 'Morph AIの機能'
+---
+
+Morph AIは、データ分析に特化した高度なAI機能を提供し、ユーザーのデータ駆動型の意思決定を強力にサポートします。このセクションでは、Morph AIの特徴とその利点について詳しく説明します。
+
+## Morph AIが特別な理由
+
+一般のAIチャットでも分析は可能ですが、Morph AIはデータ分析用に特化してデザインされており、要求に対してより高精度な結果を提供します。以下の点で通常のAIチャットとは異なります。
+
+- **データのスキーマを理解している**: Morph AIは、ユーザーのデータベースのスキーマ(構造)を理解しているため、テーブル間の関係やカラムの意味を把握し、データの関連性を考慮した正確な分析が可能です。これにより、複雑なクエリでも適切な結果を迅速に得ることができます。
+- **前後のデータ処理の結果のスキーマを考慮できる**: データ処理の各ステップで生成されるスキーマを把握し、次のステップに適切に引き継ぐことができます。これにより、パイプライン全体の整合性を保ちながら、効率的にデータ処理を進めることができます。
+- **各カラムの意味などの知識を与えることができる**: ユーザーは、カラムの意味や用途に関する知識をAIに提供することができ、これによりAIはより精度の高いクエリや分析を実行します。例えば、売上データのカラムが収益を表していることを理解した上で、売上トレンドの分析を行うことができます。
+
+## マルチステップのデータパイプラインを構築する
+
+Morph AIは、ユーザーの要求に基づいて複雑なデータパイプラインを自動で構築する能力を持っています。ユーザーが希望する分析結果を伝えるだけで、Morph AIが必要なステップを全て設計し、実行します。例えば、複数のSQLクエリやPythonスクリプトが絡む複雑なケースでも、Morph AIがスムーズにパイプラインを構築します。さらに、必要に応じて各ステップのコードを手動で修正することができるため、パイプライン全体の整合性を保ちながら微調整を行うことが可能です。
+
+## コードを生成・修正する
+
+Morph AIは、各ステップのSQLコードやPythonコードを自動で生成・修正することができます。これにより、ユーザーは技術的な専門知識がなくても、高度なデータ分析を実行できます。さらに、外部のデータベースに接続している場合でも、Morph AIはデータベースのスキーマを考慮した最適なコードを生成します。例えば、新しいテーブルの追加や既存のカラムの変更があった場合でも、自動的に対応し、正確なクエリを提供します。
+
+## データに関する質問をする
+
+Morph AIは、分析結果や集計結果に対する質問に対して、迅速かつ正確に答えることができます。ユーザーは、特定のデータポイントやトレンドについての質問を投げかけることで、詳細なインサイトを得ることができます。例えば、「今月の売上トップ10の商品は何か?」や「顧客満足度の高い地域はどこか?」といった質問に対して、具体的なデータと共に回答を提供します。
+
+## レポートを生成する
+
+Morph AIは、集計や可視化の結果を基にリッチなレポートを生成します。ユーザーは、プロンプトを使ってレポートの内容をカスタマイズすることができます。例えば、「次回のマーケティング会議のアジェンダ」や「経営陣への月次報告」といった具体的なニーズに合わせて、レポートの形式や内容を設定することが可能です。生成されたレポートは、視覚的に魅力的で分かりやすく、意思決定をサポートするための強力なツールとなります。
\ No newline at end of file
diff --git a/docs/ja/rest-api/authentication.mdx b/docs/ja/rest-api/authentication.mdx
new file mode 100644
index 0000000..e21084e
--- /dev/null
+++ b/docs/ja/rest-api/authentication.mdx
@@ -0,0 +1,40 @@
+---
+title: '認証'
+---
+
+MorphのAPIを利用するには、APIキーをリクエストのヘッダーに含める必要があります。APIキーはMorphのダッシュボードから取得でき、セキュアなアクセスを保証します。
+
+
+
+## APIキーの取得方法
+
+1. Home画面から「Secrets」タブを押下して下記のページを表示します。
+2. 次に「Create Secret」のボタンを押下し、Secret nameとSource IPを入力して「Create」ボタンで確定します。
+※Source IPを空欄にすると全部のIPが許可されます。Source IPを限定する場合はカンマ区切りで入力してください。
+3. 作成したAPIキーが不要になった場合は「Delete」ボタンから削除することができます。
+4. 出現した削除確認モーダルから「Delete」ボタンを押下すると、APIキーは完全に削除されます。
+**[NB!] この操作は取り消すことができません。一度削除すると復旧できないため十分にご注意ください。**
+
+## API URL
+
+APIのURLは以下のような形式となります。
+
+BaseURL: `https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/`
+
+**データベースID(`[Your_DatabaseID]`)の確認方法**
+
+Morphのワークスペース画面内で、 `/workspace` に続いて表示されているのがデータベースIDです。
+
+`https://beta-app.morphdb.io/workspace/[database_id]?selected...`
+
+**テーブル名(`[**Your_Table_Name**]`)の確認方法**
+
+データベーススキーマ内の特定のテーブルに対するクエリを行う場合は、APIのURLは以下のような形式となります。
+
+URL: `https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Name]`
+
+サイドメニューの Built-in Tables の中に表示されているのがテーブル名です。テーブルを選択した際に、エディターのタブに表示されるのもテーブル名です。
\ No newline at end of file
diff --git a/docs/ja/rest-api/overview.mdx b/docs/ja/rest-api/overview.mdx
new file mode 100644
index 0000000..72d3c64
--- /dev/null
+++ b/docs/ja/rest-api/overview.mdx
@@ -0,0 +1,46 @@
+---
+title: 'REST APIの概要'
+---
+
+Morphでは、作成されたデータベーススキーマに基づいて自動的にAPIを生成し、提供しています。これにより、追加のコードを実装することなく、APIを通じてMorphのデータベースを利用したデータ連携やアプリケーション構築が可能です。
+
+APIはRESTful形式で設計されており、Morphのダッシュボード上から作成したAPIキーを利用してセキュアにアクセスできます。
+
+### **特徴**
+
+MorphのデータベースAPIは、[PostgREST](https://postgrest.org/)によって提供され、以下のようなメリットを提供します:
+
+- **効率的な開発および連携**:
+ - データベーススキーマから直接APIが生成されるため、バックエンド開発の時間とコストを大幅に削減します。
+- **自動更新/即時性**:
+ - データベーススキーマの変更が即座にAPIに反映されるため、手動での同期やメンテナンスが不要です。
+- **パフォーマンス**:
+ - 軽量でステートレスな設計により、SQLクエリを直接実行して、非常に高速なデータアクセスを実現します。
+- **柔軟性**:
+ - シンプルなCRUD操作に加えて、クエリの組み合わせやフィルタリング、ソートなどの複雑な操作も簡単に行えます。
+- **セキュリティ**:
+ - 厳格な型チェックとクエリパラメータの自動エスケープ処理により、SQLインジェクションなどの攻撃から高いレベルの保護を提供します。
+
+### **RESTfulアーキテクチャ**
+
+このAPIは標準的なHTTPメソッドを採用しており、RESTfulアーキテクチャに基づいた直感的で使いやすいCRUD操作を提供します。この設計により、様々なプログラミング言語やアプリケーションとの幅広い連携が可能となり、開発者は容易にシステムを統合できます。
+
+さらに、以下の高度な機能も提供されます:
+
+- **フィルタリングと検索**:
+ - 複雑なクエリパラメータを使用して、特定の条件に一致するレコードだけを精密に抽出できます。
+- **ソートとページネーション**:
+ - 結果セットをソートし、ページネーションを利用してデータを小容量に分割して提供します。
+- **リレーショナルクエリ**:
+ - 複数の関連するテーブルからデータを単一のクエリで取得できます。これにより、リレーショナルデータベースの関連を活かしたデータ取得が複数のAPI呼び出しを必要とせずに可能となります。
+- **アグリゲーション**:
+ - グループ化、カウント、平均、最大値、最小値などの集計機能をクエリに含めることができます。
+- **バッチリクエスト**:
+ - 複数のAPI呼び出しを単一のHTTPリクエストで実行し、ネットワーク遅延を減らし、効率的なデータ処理を実現します。
+
+これら以外にも、[PostgREST](https://postgrest.org/)により様々な機能が提供されます。詳しくは下記の参考資料をご確認ください。
+
+### **参考資料**
+
+- [PostgREST 公式ドキュメント](https://postgrest.org/en/v12/)
+- [PostgREST ソースコード](https://github.com/PostgREST/postgrest)
\ No newline at end of file
diff --git a/docs/ja/rest-api/quickstart.mdx b/docs/ja/rest-api/quickstart.mdx
new file mode 100644
index 0000000..accd4c8
--- /dev/null
+++ b/docs/ja/rest-api/quickstart.mdx
@@ -0,0 +1,68 @@
+---
+title: 'クイックスタート'
+---
+
+このチャプターでは、MorphのAPIを使用して基本的なCRUD操作(作成、読み取り、更新、削除)を実行する方法をステップバイステップで説明します。このチュートリアルを通じて、Morphのデータベースとの連携を簡単に始めることができます。
+
+この例ではcURLコマンドを用いてAPIを呼び出しますので、お手元のターミナル環境や[Postman](https://www.postman.com/)などのAPIクライアントツールにコマンドをペーストしてお試しください。
+
+### API呼び出し
+
+*※**`[**Your_DatabaseID**]`,** `[Your_Table_Slug]`, **`[Your_API_Key]`** は置換してご利用ください。*
+
+**作成 (Create)**:
+
+データを新しく作成するには、POSTメソッドを使用します。
+
+```sh
+curl --location --request POST 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]' \
+--header 'Content-Type: application/json' \
+--data-raw '{
+ "column1": "value1",
+ "column2": "value2"
+}'
+```
+
+**読み取り (Read)**:
+
+テーブルからデータを読み取るには、GETメソッドを使用します。
+
+```sh
+curl --location 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]'
+
+```
+**更新 (Update)**:
+
+既存のデータを更新するには、PUTメソッドを使用します。
+
+```sh
+curl --location --request PUT 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]' \
+--header 'Content-Type: application/json' \
+--data-raw '{
+ "column1": "new_value1"
+}'
+```
+
+**削除 (Delete)**:
+
+データを削除するには、DELETEメソッドを使用します。
+
+```sh
+curl --location --request DELETE 'https://beta-api.morphdb.io/v0/rest/[Your_DatabaseID]/[Your_Table_Slug]' \
+--header 'x-api-key: [Your_API_Key]' \
+--header 'Content-Type: application/json' \
+--data-raw '{
+ "column1": "value_to_delete"
+}'
+
+```
+
+これら以外にも、[PostgREST](https://postgrest.org/)によりお客様の用途に応じて様々なクエリパターンを実現することができます。詳しくは下記の参考資料をご確認ください。
+
+### **参考資料**
+
+- [PostgREST 公式ドキュメント](https://postgrest.org/en/v12/)
+- [PostgREST ソースコード](https://github.com/PostgREST/postgrest)
\ No newline at end of file
diff --git a/docs/ja/team-setting/credit.mdx b/docs/ja/team-setting/credit.mdx
new file mode 100644
index 0000000..bdb8aa6
--- /dev/null
+++ b/docs/ja/team-setting/credit.mdx
@@ -0,0 +1,25 @@
+---
+title: 'クレジット消費と管理'
+---
+
+Morphでは、ワークスペースを実行するためのクラウドマシンの実行やAI機能の実行をクレジットの消費によって管理しています。
+
+利用プランごとに一定数のクレジットがパッケージされ、追加購入することも可能です。
+
+## クレジットの消費
+
+各機能は、以下の表に従ってクレジットを消費します。
+
+| 消費クレジット / 1時間 | CPU | メモリ |
+| :--- | :--- | :--- |
+| 30 | 2vCPU | 4MB |
+
+| 消費クレジット | AI機能 |
+| :--- | :--- |
+| 6 | チャットでのメッセージ |
+| 6 | レポート生成 |
+| 18 | マルチステップ生成 |
+
+## クレジットの管理
+
+ホーム画面の「Credit」タブからクレジットの使用量の確認と追加購入ができます。
\ No newline at end of file
diff --git a/docs/ja/team-setting/manage-members.mdx b/docs/ja/team-setting/manage-members.mdx
new file mode 100644
index 0000000..73e9790
--- /dev/null
+++ b/docs/ja/team-setting/manage-members.mdx
@@ -0,0 +1,11 @@
+---
+title: 'メンバーの管理'
+---
+
+ホーム画面の「Members」タブから、メンバーの追加と管理を行うことができます。メンバーの権限には、AdminとGeneralがあります。
+
+Admin ユーザーには特別に以下の操作が許可されます。
+
+- メンバーの管理
+- プランの管理
+- クレジットの管理
\ No newline at end of file
diff --git a/docs/ja/workspace/about-canvas.mdx b/docs/ja/workspace/about-canvas.mdx
new file mode 100644
index 0000000..95c7cd9
--- /dev/null
+++ b/docs/ja/workspace/about-canvas.mdx
@@ -0,0 +1,20 @@
+---
+title: 'キャンバス: データフローの可視化'
+---
+
+Morphのキャンバスは、データパイプラインの設計と管理を直感的に行えるインタラクティブなビジュアルツールです。キャンバスを使用することで、ユーザーは複雑なデータフローを視覚的に理解し、効率的に操作することができます。このセクションでは、キャンバスの主な機能とその利点について説明します。
+
+
+
+## ビジュアルデータパイプラインの作成
+
+キャンバスは、ドラッグ&ドロップ操作でデータパイプラインを構築できる直感的なインターフェースを提供します。キャンバス上には、SQLファイル、Pythonファイル、vg.jsonファイルを配置することができます。
+
+
\ No newline at end of file
diff --git a/docs/ja/workspace/about-workspace.mdx b/docs/ja/workspace/about-workspace.mdx
new file mode 100644
index 0000000..1c2a8e6
--- /dev/null
+++ b/docs/ja/workspace/about-workspace.mdx
@@ -0,0 +1,28 @@
+---
+title: 'ワークスペースの概要'
+---
+
+Morphのワークスペースは、以下の3つのセクションから構成されます。
+
+- Code: VS Codeベースのエディターと独自のフレームワークにより、データアプリケーションの構築、データ分析を高速に実施できます。
+- Database: Built-inのPostgreSQLを使用することができます。分析の過程やデータアプリケーションの中で使用したいデータマートを構築しより柔軟なデータ活用を実現できます。
+- Connections: RDB / データウェアハウス / SaaSとの連携を作成し、煩わしい認証用のコードを書くことなくすぐに分析業務を始めることができます。
+
+
+
+以下の各ページにて、各セクションの詳細を確認することができます。
+
+
+
+ Codeセクションで行うデータ分析やデータアプリケーションの構築について、その概要を説明します。
+
+
+ Databaseセクションで使用できるBuilt-inのPostgreSQLについてその使用方法を説明します。
+
+
+ Connectionsセクションでの、連携の作成方法とその使用方法を説明します。
+
+
diff --git a/docs/ja/workspace/data-application.mdx b/docs/ja/workspace/data-application.mdx
new file mode 100644
index 0000000..bd77f61
--- /dev/null
+++ b/docs/ja/workspace/data-application.mdx
@@ -0,0 +1,88 @@
+---
+title: 'データアプリケーションを構築する'
+---
+
+Morphでは、マークダウン形式とReactコンポーネントを組み合わせて、リッチなデータアプリケーションを簡単に作成することができます。
+
+このセクションでは、データアプリケーションを構築するための手順を説明します。
+
+## MDX
+
+Morphでデータアプリケーションを構築する際には、[MDX (https://mdxjs.com/) ](https://mdxjs.com/)を使用します。MDXの詳しい使い方については、[MDXの公式ドキュメント](https://mdxjs.com/)を参照してください。
+
+## 0. セットアップ
+
+{/* 通常この手順は、ワークスペースのシステムが自動で実行するため、スキップして構いません。どうしても起動がうまくいかない場合に試してください。 */}
+
+データアプリケーションを構築するためには、まずMorphのワークスペースを開いて、以下のコマンドを実行してください。これは数分かかる場合があります。
+
+```bash
+npm i -S @use-morph/page-build && npx morph-page init
+```
+
+
+## 1. mdxファイルを作成する
+
+
+
+まず、データアプリケーションのコンテンツを記述するためのmdxファイルを作成します。mdxファイルは、マークダウン形式で記述されたテキストとReactコンポーネントを組み合わせて、リッチなコンテンツを作成するためのファイルです。
+ワークスペースのホームディレクトリの `src` ディレクトリにmdxファイルを作成してください。
+
+## 2. mdxファイルを編集する
+
+mdxファイルを作成したら、内容を編集していきます。
+
+とても重要な要素として、2つの変数をexportする必要があります。
+
+- name ... これは、このファイルのページのパス名です。例えば、nameが`index`の場合は`/`となり、nameが`about`の場合は`/about`となります。
+
+- title ... これは、このファイルのページのタイトルです。画面内のメニューやタイトルに表示されます。
+
+以下は、`index.mdx`ファイルの例です。
+
+```tsx index.mdx
+
+export const name = 'index';
+export const title = 'Top page';
+
+# Top page
+
+This is the top page of the data application.
+
+```
+
+通常のマークダウン記法を使用することができます。
+
+## 3. Morphのデータを利用する
+
+Morphのデータを利用するには、専用のコンポーネントを用いて、Python関数やSQLファイルの name をプロパティとして渡します。
+
+以下は、Pythonの実行結果のDataFrameをテーブル表示する例です。
+
+```tsx index.mdx
+
+export const name = 'index';
+export const title = 'Top page';
+
+# Top page
+
+This is the top page of the data application.
+
+import { DataTable } from '@use-morph/page';
+
+
+
+
+
+```
+
+Morphのコンポーネントの詳しい仕様は、[Data Applicationのページ](/data-application/ja/how-to-build-data-application)を参照してください。
+
+## 4. データアプリケーションの起動
+
+データアプリケーションを起動するには、mdxファイルの編集画面右上にある Preview ボタンをクリックしてください。
+
diff --git a/docs/ja/workspace/environment.mdx b/docs/ja/workspace/environment.mdx
new file mode 100644
index 0000000..009cf5c
--- /dev/null
+++ b/docs/ja/workspace/environment.mdx
@@ -0,0 +1,53 @@
+---
+title: '開発環境について'
+---
+
+MorphのワークスペースのCodeセクションでは、データ分析やデータアプリケーションを構築するための開発環境を提供します。
+
+ワークスペースには、全てそれぞれのVM(Virtual Machine)が割り当てられているため各ユーザーは自分だけの完全に切り離された作業空間を手に入れることができます。
+同じチームでもユーザーごとに完全に切り離されたVMが立ち上がるので作業が競合することはありません。エンジニア同志のコラボレーション可能にするために各種VMからはマネージドなGitLabに接続をされています。
+
+また、VM上でのコード実行やコーディングを行うためのVS Codeベースのエディターを活用してデータアプリケーションの構築を行うことができます。
+
+ワークスペース上の構成は以下のようになっています。
+
+
+
+## Gitの利用
+
+CodeではVM内に自動でビルトインのGitをインストールしています。そのため、ワークスペース上での作業を他のメンバーと共有したい場合はGitに対してコミットをしてください。
+
+同一のワークスペースは同じGitlabのプロジェクトに紐づいているため、コードをコミットすることによって他のメンバーと作業を共有することができます。
+
+VS CodeのデフォルトのGit操作機能、もしくはターミナルからGitの操作を行うことができます。もちろん、VS Code Extensionであなたの好みのGit操作用拡張をインストールすることも可能です。
+
+
+
+### フレームワークについて
+
+Morphのフレームワークでは、データを分析・可視化・運用するための様々なツールを使うことができます。
+以下のページにそれぞれの構築方法を紹介しています。
+
+
+
+ SQLとPythonを使用してデータ分析を行えます。
+
+
+ GUIを使用して集計したデータから簡単に可視化を実行できます。
+
+
+ MDXを活用してリッチなデータアプリケーションを簡単に作成ができます。
+
+
+ Canvasを使用してデータフローを可視化します。
+
+
+ SQLやPythonで作成したDAGをスケジュール実行できます。
+
+
diff --git a/docs/ja/workspace/job-schedule.mdx b/docs/ja/workspace/job-schedule.mdx
new file mode 100644
index 0000000..f588a0a
--- /dev/null
+++ b/docs/ja/workspace/job-schedule.mdx
@@ -0,0 +1,29 @@
+---
+title: 'ジョブスケジューリング'
+---
+
+このセクションでは、SQLやPythonで作成したデータパイプラインをスケジュール実行する機構について説明します。
+
+SQLの`load_data`やPythonの`@morph.load_data()`などの関数を使うことで、複数の処理をパイプラインとして構築することができます。
+このパイプラインをスケジュール実行することで、毎日の売り上げの集計などの定期的なタスクを自動化することができます。
+
+以下のように、SQL/Pythonのファイルを開くと右側のタブに「Run Schedules」が表示されます。
+ここで、現在設定されているジョブの確認や新しいジョブの登録が行えます。
+
+
+
+## ジョブスケジューリングの設定
+
+ジョブスケジューリングは、パイプラインの最後の関数に対して設定をしてください。
+`load_data`関数では実行時時に読み込み対象の関数も実行するため、データパイプラインの最後の関数を指定して定期実行することで任意のデータパイプラインを定期実行することができます。
+
+実行日時は、「毎日」「平日だけ」など柔軟に設定をすることができます。また、実行時間は15分単位の設定が可能です。
+
+
\ No newline at end of file
diff --git a/docs/ja/workspace/sql-python.mdx b/docs/ja/workspace/sql-python.mdx
new file mode 100644
index 0000000..5658b3f
--- /dev/null
+++ b/docs/ja/workspace/sql-python.mdx
@@ -0,0 +1,110 @@
+---
+title: 'SQL/Pythonで分析をする'
+---
+
+ワークスペースでは、SQLとPythonを使用してデータ分析を行うことができます。
+
+ワークスペースを開くとプロジェクトルートに`src`ディレクトリが存在します。この`src`ディレクトリ内にSQLファイルやPythonファイルを配置して実行します。
+
+`morph_project.yml`ファイルに`source_paths: src`と設定されています。この値を変えることでソースコードを配置するディレクトリを変更することも可能です。
+
+
+
+### ソースコードの実行
+
+記述したSQLやPythonは以下の画像のように、エディターの右上に配置された「RUN」ボタンから実行することができます。
+
+実行をするとターミナル内に対応するMorph CLIのログが出力されるとともに、実行結果のデータが右のサイドバーの「Result」タブに表示されます。
+
+
+
+## ソースコードを実装する
+
+Morph上のSQLとPythonは、ワークスペース上のVMにインストールされたMorph CLIが実行します。使用するDBや標準のPythonスクリプトをベースにして、よりユーザーが強力にデータ分析を行えるように拡張を用意しています。
+
+また、Morphでは、分析用のファイルは実行時に名前が付けられます。名前をつけることで、他のファイルからそのファイルの結果に簡単にアクセスをすることができるようになります。
+この仕組みはMorphのフレームワークの中でとても重要な仕組みになります。
+
+実行時にこの名前が重複している場合はコンパイルエラーを起こしてしまいますので、注意をしてください。
+
+### SQL
+
+jinja2を使用してSQLを記述することができます。jinja内にMorph独自のconfigというメタデータを記述するための関数を使うことができます。
+configでは、その関数の処理の内容を記述することができます。これによって、チームメンバーに処理内容を残しておいたり、Morph AIが詳細に開発者の意図を解釈することができます。
+
+以下のSQLでは、config関数で処理に名前をつけたり詳細の説明を記述しています。このようにjinjaを使うことでSQL内にメタデータをそのまま記述することができます。
+
+```sql
+{{
+ config(
+ name="example_sql_cell",
+ description="Example SQL cell",
+ )
+}}
+
+select * from customers limit 10
+```
+
+
+config関数が未定義だったり、nameで命名がされていない場合はsqlファイル名がそのまま名前として使用されます。
+例: example_sql_cell.sqlの場合example_sql_cellが名前として使われる。
+
+
+
+
+Morph上では、1つのSQLファイルに複数のSQLを記述できないように、SQLの末尾にセミコロンを書くことを禁止しています。もし書いてしまった場合はエラーメッセージが表示されるので、セミコロンを削除して再度実行をしてください。
+
+
+configの詳細設定やその他の文法ルールに関しては以下の詳細ページをご覧ください。
+
+
+
+ Morph上でSQLを実行する方法を説明します。
+
+
+
+### Python
+
+Pythonファイルでは、`@morph.func`というアノテーションを関数に付与することでMorph上で実行できる関数として登録ができます。この仕組みによって、Pythonファイルには1つのファイルに複数の関数を記述して実行することができます。
+
+SQLの場合と同様にPythonファイルでは、この`@morph.func`のアノテーションの引数にnameとdescriptionを設定することで、関数の名前と説明を記述することができます。
+
+また、`@morph.load_data`を使用すると他のSQL/Pythonの実行結果をそのまま変数に読み込んで使用することができます。読み込まれた変数は引数の`context`の中から参照することができます。
+以下の例では、example_sql_cellというSQLの実行結果をexample_python_cellというPythonの関数で読み込んで、その結果にアクセスしたものをそのまま返しています。
+
+`context`変数の中には、読み込み対象の名前と同じ名前で辞書型でデータが格納されています。
+
+```python
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+
+@morph.func(
+ name="example_python_cell",
+ description="Example Python cell",
+)
+@morph.load_data("example_sql_cell")
+def main(context: MorphGlobalContext) -> pd.DataFrame:
+ sql_result_df = context.data["example_sql_cell"]
+ return sql_result_df
+
+```
+
+
+Pythonの関数には必ず`@morph.func`は付与する必要がありますが、nameなどの引数は必須ではありません。指定されなかった場合には、関数名がそのまま名前として使用されます。
+
+
+`@morph.func` / `@morph.load_data`の詳細設定やその他のアノテーションなどの便利関数の詳細は以下の詳細ページをご覧ください。
+
+
+
+ Morph上でPythonを実行する方法を説明します。
+
+
diff --git a/docs/ja/workspace/template.mdx b/docs/ja/workspace/template.mdx
new file mode 100644
index 0000000..c6167af
--- /dev/null
+++ b/docs/ja/workspace/template.mdx
@@ -0,0 +1,139 @@
+---
+title: 'テンプレート'
+---
+
+Morphには、SQLやPythonのコードをより簡単に記述するためにテンプレートの機能があります。
+テンプレートには2種類存在しています。
+
+## 標準で用意されているテンプレート (Built-in Template)
+
+ソースコードをワークスペース上で開くとMorphチームが作成した標準のテンプレートが右のサイドバーから確認することができます。
+このテンプレートは、Morphのフレームワークのスニペットの役割をしており、コピーをすることですぐに分析部分の実装を開始することができます。
+
+
+
+
+テンプレートの要望がある場合には、`shibata@morphdb.io`まで是非リクエストください!
+
+
+## 自作テンプレート (Custom Template)
+
+`templates`フォルダでは、ユーザー定義のテンプレートファイルを作成して管理することができます。
+
+作成したテンプレートから`morph create`コマンドで新規ファイルを作ることができます。また`morph search`コマンドで検索することもできます。
+
+### テンプレートの作成手順
+
+**(手順1) テンプレートファイルの作成**
+
+テンプレートファイルはtemplatesディレクトリ配下に作成します。
+
+作成時には以下のプレースホルダーを定義できます。(プレースホルダーで定義した値は後述するmorph createコマンドのオプションで指定することで、置換してファイルが作成されます。)
+
+- `${MORPH_NAME}`: テンプレート名(旧エイリアス)に置換されます。(`morph create`コマンドの`--name`オプションの指定)
+- `${MORPH_DESCRIPTION}`: テンプレート説明に置換されます。(`morph create`コマンドの`—-description`オプションの指定)
+
+E.g.)
+
+```python
+import pandas as pd
+
+import morph
+from morph import MorphGlobalContext
+
+# morph.func is a decorator that takes in the following parameters:
+# name: The identifier for the file alias. The function name will be used if not provided.
+# description: The description for the function.
+# output_paths: The destination paths for the output.
+# output_type: The return type of the function
+@morph.func(
+ name="${MORPH_NAME}",
+ description="${MORPH_DESCRIPTION}",
+ output_paths=["_private/{name}/{now()}{ext()}"],
+ output_type="dataframe",
+)
+def main(context: MorphGlobalContext) -> pd.DataFrame:
+ return pd.DataFrame({{"key1": [3, 2, 1], "key2": [5, 4, 3]}})
+```
+
+**(手順2) template.yamlの編集**
+
+templatesフォルダ直下のtemplate.yamlを編集します。Syntaxは以下の例を参考にしてください。
+
+※srcはフルパスまたはtemplate.yamlからの相対パスで定義します。
+
+E.g.)
+
+```yaml
+# [Description]
+# This file is used to manage your local templates.
+#
+# [Syntax]
+# This file is written in YAML format. The following is an example of the syntax.
+# E.g.)
+# templates:
+# - name: [required]
+# title:
+# description:
+# src: [required]
+# language: [required|options:"python", "sql"]
+#
+# [Compiling]
+# After editing this file, you need to compile it using the following command.
+# This command will validate the syntax of the file and make sure your templates are available.
+# E.g.)
+# $ morph template compile
+
+templates:
+ - name: test
+ title: Test Template
+ description: This is a test template.
+ src: ./python/test.py
+ language: python
+```
+
+**(手順3) コンパイル**
+
+以下のコマンドでtemplate.yamlの妥当性をチェックすることができます。テンプレートファイルを作成してtemplate.yamlの編集まで終わったら、VSコードのターミナルから以下のコマンドを叩いてください。
+
+```bash
+$ morph template compile
+$ # 実行して何も表示がなければ成功です🎉
+```
+
+## テンプレートの利用方法
+
+設定をしたテンプレートはワークスペースの右側のメニューやキャンバス内の新規作成時に使用することができます。
+
+**テンプレート一覧から選択**
+
+
+
+**キャンバスから選択**
+
+
+### CLIからテンプレートを利用する方法
+
+以下のコマンドで作成できます。
+
+※`<テンプレート名>`はtemplate.yamlで定義したnameを指定します。また、[テンプレートAPI](https://queue-inc.stoplight.io/docs/morph-api-document/fhs6hbxyjjtxu-no-auth-search-template) が返却するnameを指定することで、グローバルのテンプレートを利用することもできます。
+
+```bash
+# morph create <作成するファイル> —template <テンプレート名>
+$ morph create src/test.py --template test
+```
+
+
+
+ CLIを使用して、テンプレートからファイルを作成する。
+
+
diff --git a/docs/ja/workspace/visualization.mdx b/docs/ja/workspace/visualization.mdx
new file mode 100644
index 0000000..a33268b
--- /dev/null
+++ b/docs/ja/workspace/visualization.mdx
@@ -0,0 +1,97 @@
+---
+title: 'データを可視化をする'
+---
+
+データを理解する上で可視化は非常に重要です。このセクションでは、Morphのワークスペース上でデータを可視化する方法を紹介します。
+
+## 可視化機能を使う
+
+Morphでは、vg.jsonという拡張子のファイルを作成することで、GUIで簡単な可視化を実現するための機能があります。
+棒グラフや折れ線グラフなど一般的な可視化を実現するためには、元データとなる集計をしておけば可視化結果をすぐに取得することができます。
+
+### 使い方
+
+まず、可視化をしたいデータの元データを集計したSQL, Pythonのファイルを開きます。
+
+ファイルを開くと右上に可視化機能をスタートするアイコンが表示されます。こちらを押下してください。
+
+
+
+ディレクトリの同じ階層に、vg.jsonの拡張子のファイルが生成されます。そのファイルを開いてください。
+
+以下のようにGUIで可視化を行うための画面が表示されます。各値を設定をすると綺麗なグラフがリアルタイムで表示されます。
+
+
+
+### 可視化サンプル
+
+
+
+## より複雑な可視化を実装する
+
+さらに複雑な可視化を実装したい場合は、Pythonの可視化ライブラリを使用して、データを可視化することができます。
+
+Morphでは、PlotlyとMatplotlibを使用してデータ可視化をすることを推奨しています。これらのライブラリで可視化用のオブジェクトを作成して返却する関数を記述して、実行を行うとMorphのCLIが自動で可視化部分を実行します。
+以下にPlotlyとMatplotlibを使用した可視化のサンプルを紹介します。
+
+**Plotly**
+
+```python
+import plotly.express as px
+
+import morph
+from morph import MorphGlobalContext
+
+@morph.func(
+ name="${MORPH_NAME}",
+ description="${MORPH_DESCRIPTION}",
+)
+@morph.load_data("${MORPH_PARENT_NAME}")
+def main(context: MorphGlobalContext) -> px.line:
+ data = context.data["${MORPH_PARENT_NAME}"]
+ # This is where you write your code.
+ # The `px.line` function creates a line plot using Plotly Express.
+ fig = px.line(data, x="X Axis", y="Y Axis", markers=True)
+ fig.update_layout(title="Plotly Plot")
+ return fig
+```
+
+**Matplotlib**
+
+```python
+import matplotlib.pyplot as plt
+
+import morph
+from morph import MorphGlobalContext
+
+@morph.func(
+ name="${MORPH_NAME}",
+ description="${MORPH_DESCRIPTION}",
+)
+@morph.load_data("${MORPH_PARENT_NAME}")
+def main(context: MorphGlobalContext) -> plt.Figure:
+ data = context.data["${MORPH_PARENT_NAME}"]
+ # This is where you write your code.
+ # The `plot` function creates a line plot using Matplotlib.
+ fig, ax = plt.subplots()
+ ax.plot(data["X-Axis"], data["Y-Axis"], marker="o")
+ ax.set_title("Matplotlib Plot")
+ ax.set_xlabel("X-Axis")
+ ax.set_ylabel("Y-Axis")
+ return fig
+```
+
+
+これらの可視化では、実行結果をHTMLとPNGの2種類で出力をしています。これらの生のデータにアクセスをしたい場合は、`@morph.func`の`output_paths`で出力先を指定することができます。
+`@morph.func(output_paths=["_private/{name}/{now()}{ext()}"])`このように指定することで、`_private/{関数名}/{実行時間のタイムスタンプ}{.png, .html}`に出力されます。
+
diff --git a/docs/ja/workspace/vscode-extensions.mdx b/docs/ja/workspace/vscode-extensions.mdx
new file mode 100644
index 0000000..6af8f8b
--- /dev/null
+++ b/docs/ja/workspace/vscode-extensions.mdx
@@ -0,0 +1,66 @@
+---
+title: 'VS Code Extensions'
+---
+
+Morphのワークスペース上での作業を効率化するためにVS Codeのエコシステムを活用することができます。
+
+## お勧めのVS Code Extensions
+
+これらのExtensionはMorphでの作業を効率化するために推奨されます。サインアップ時に全てインストールがされていますが、もし削除してしまった場合はこちらを参照してください。
+
+### Parquet Explorer
+
+Morphでは、DataFrameのデータをParquetファイルとして出力します。このExtensionを使用すると、Parquetファイルを視覚的に確認することができます。
+
+
+
+### MDX
+
+データアプリケーションの構築ではMDXを使用します。このExtensionを使用すると、MDXファイルの実装をサポートします。
+
+
+
+### Python(ms-python)
+
+このExtensionを使用すると、Pythonファイルの実装をサポートします。
+
+
+
+### Edit CSV
+
+このExtensionを使用すると、CSVファイルのリッチな編集がワークスペース上から可能になります。
+
+
+
+## Github Copilotをインストールする手順
+
+Github Copilotをインストールするためには以下の手順を経由する必要があります。
+
+1. 後述のvsixファイルをWorkspace上のファイルシステムにアップロードする (アップロード場所は任意)
+2. ファイルを右クリックして、一番下のInstall Extension VSIXからインストール
+
+
+
+3. GitHubアカウントでログイン
+
+#### vsixファイル
+
+以下からダウンロードしてください。
+
+[Github Copilot vsixをダウンロード](/assets/GitHub.copilot-1.223.1062.vsix)
\ No newline at end of file
diff --git a/essentials/code.mdx b/essentials/code.mdx
deleted file mode 100644
index d2a462a..0000000
--- a/essentials/code.mdx
+++ /dev/null
@@ -1,37 +0,0 @@
----
-title: 'Code Blocks'
-description: 'Display inline code and code blocks'
-icon: 'code'
----
-
-## Basic
-
-### Inline Code
-
-To denote a `word` or `phrase` as code, enclose it in backticks (`).
-
-```
-To denote a `word` or `phrase` as code, enclose it in backticks (`).
-```
-
-### Code Block
-
-Use [fenced code blocks](https://www.markdownguide.org/extended-syntax/#fenced-code-blocks) by enclosing code in three backticks and follow the leading ticks with the programming language of your snippet to get syntax highlighting. Optionally, you can also write the name of your code after the programming language.
-
-```java HelloWorld.java
-class HelloWorld {
- public static void main(String[] args) {
- System.out.println("Hello, World!");
- }
-}
-```
-
-````md
-```java HelloWorld.java
-class HelloWorld {
- public static void main(String[] args) {
- System.out.println("Hello, World!");
- }
-}
-```
-````
diff --git a/essentials/images.mdx b/essentials/images.mdx
deleted file mode 100644
index 60ad42d..0000000
--- a/essentials/images.mdx
+++ /dev/null
@@ -1,59 +0,0 @@
----
-title: 'Images and Embeds'
-description: 'Add image, video, and other HTML elements'
-icon: 'image'
----
-
-
-
-## Image
-
-### Using Markdown
-
-The [markdown syntax](https://www.markdownguide.org/basic-syntax/#images) lets you add images using the following code
-
-```md
-
-```
-
-Note that the image file size must be less than 5MB. Otherwise, we recommend hosting on a service like [Cloudinary](https://cloudinary.com/) or [S3](https://aws.amazon.com/s3/). You can then use that URL and embed.
-
-### Using Embeds
-
-To get more customizability with images, you can also use [embeds](/writing-content/embed) to add images
-
-```html
-
-```
-
-## Embeds and HTML elements
-
-
-
-
-
-
-
-Mintlify supports [HTML tags in Markdown](https://www.markdownguide.org/basic-syntax/#html). This is helpful if you prefer HTML tags to Markdown syntax, and lets you create documentation with infinite flexibility.
-
-
-
-### iFrames
-
-Loads another HTML page within the document. Most commonly used for embedding videos.
-
-```html
-
-```
diff --git a/essentials/markdown.mdx b/essentials/markdown.mdx
deleted file mode 100644
index c8ad9c1..0000000
--- a/essentials/markdown.mdx
+++ /dev/null
@@ -1,88 +0,0 @@
----
-title: 'Markdown Syntax'
-description: 'Text, title, and styling in standard markdown'
-icon: 'text-size'
----
-
-## Titles
-
-Best used for section headers.
-
-```md
-## Titles
-```
-
-### Subtitles
-
-Best use to subsection headers.
-
-```md
-### Subtitles
-```
-
-
-
-Each **title** and **subtitle** creates an anchor and also shows up on the table of contents on the right.
-
-
-
-## Text Formatting
-
-We support most markdown formatting. Simply add `**`, `_`, or `~` around text to format it.
-
-| Style | How to write it | Result |
-| ------------- | ----------------- | --------------- |
-| Bold | `**bold**` | **bold** |
-| Italic | `_italic_` | _italic_ |
-| Strikethrough | `~strikethrough~` | ~strikethrough~ |
-
-You can combine these. For example, write `**_bold and italic_**` to get **_bold and italic_** text.
-
-You need to use HTML to write superscript and subscript text. That is, add `` or `` around your text.
-
-| Text Size | How to write it | Result |
-| ----------- | ------------------------ | ---------------------- |
-| Superscript | `superscript` | superscript |
-| Subscript | `subscript` | subscript |
-
-## Linking to Pages
-
-You can add a link by wrapping text in `[]()`. You would write `[link to google](https://google.com)` to [link to google](https://google.com).
-
-Links to pages in your docs need to be root-relative. Basically, you should include the entire folder path. For example, `[link to text](/writing-content/text)` links to the page "Text" in our components section.
-
-Relative links like `[link to text](../text)` will open slower because we cannot optimize them as easily.
-
-## Blockquotes
-
-### Singleline
-
-To create a blockquote, add a `>` in front of a paragraph.
-
-> Dorothy followed her through many of the beautiful rooms in her castle.
-
-```md
-> Dorothy followed her through many of the beautiful rooms in her castle.
-```
-
-### Multiline
-
-> Dorothy followed her through many of the beautiful rooms in her castle.
->
-> The Witch bade her clean the pots and kettles and sweep the floor and keep the fire fed with wood.
-
-```md
-> Dorothy followed her through many of the beautiful rooms in her castle.
->
-> The Witch bade her clean the pots and kettles and sweep the floor and keep the fire fed with wood.
-```
-
-### LaTeX
-
-Mintlify supports [LaTeX](https://www.latex-project.org) through the Latex component.
-
-8 x (vk x H1 - H2) = (0,1)
-
-```md
-8 x (vk x H1 - H2) = (0,1)
-```
diff --git a/essentials/navigation.mdx b/essentials/navigation.mdx
deleted file mode 100644
index ca44bb6..0000000
--- a/essentials/navigation.mdx
+++ /dev/null
@@ -1,66 +0,0 @@
----
-title: 'Navigation'
-description: 'The navigation field in mint.json defines the pages that go in the navigation menu'
-icon: 'map'
----
-
-The navigation menu is the list of links on every website.
-
-You will likely update `mint.json` every time you add a new page. Pages do not show up automatically.
-
-## Navigation syntax
-
-Our navigation syntax is recursive which means you can make nested navigation groups. You don't need to include `.mdx` in page names.
-
-
-
-```json Regular Navigation
-"navigation": [
- {
- "group": "Getting Started",
- "pages": ["quickstart"]
- }
-]
-```
-
-```json Nested Navigation
-"navigation": [
- {
- "group": "Getting Started",
- "pages": [
- "quickstart",
- {
- "group": "Nested Reference Pages",
- "pages": ["nested-reference-page"]
- }
- ]
- }
-]
-```
-
-
-
-## Folders
-
-Simply put your MDX files in folders and update the paths in `mint.json`.
-
-For example, to have a page at `https://yoursite.com/your-folder/your-page` you would make a folder called `your-folder` containing an MDX file called `your-page.mdx`.
-
-
-
-You cannot use `api` for the name of a folder unless you nest it inside another folder. Mintlify uses Next.js which reserves the top-level `api` folder for internal server calls. A folder name such as `api-reference` would be accepted.
-
-
-
-```json Navigation With Folder
-"navigation": [
- {
- "group": "Group Name",
- "pages": ["your-folder/your-page"]
- }
-]
-```
-
-## Hidden Pages
-
-MDX files not included in `mint.json` will not show up in the sidebar but are accessible through the search bar and by linking directly to them.
diff --git a/essentials/reusable-snippets.mdx b/essentials/reusable-snippets.mdx
deleted file mode 100644
index a0a5529..0000000
--- a/essentials/reusable-snippets.mdx
+++ /dev/null
@@ -1,110 +0,0 @@
----
-title: Reusable Snippets
-description: Reusable, custom snippets to keep content in sync
-icon: 'recycle'
----
-
-import SnippetIntro from '/snippets/snippet-intro.mdx';
-
-
-
-## Creating a custom snippet
-
-**Pre-condition**: You must create your snippet file in the `snippets` directory.
-
-
- Any page in the `snippets` directory will be treated as a snippet and will not
- be rendered into a standalone page. If you want to create a standalone page
- from the snippet, import the snippet into another file and call it as a
- component.
-
-
-### Default export
-
-1. Add content to your snippet file that you want to re-use across multiple
- locations. Optionally, you can add variables that can be filled in via props
- when you import the snippet.
-
-```mdx snippets/my-snippet.mdx
-Hello world! This is my content I want to reuse across pages. My keyword of the
-day is {word}.
-```
-
-
- The content that you want to reuse must be inside the `snippets` directory in
- order for the import to work.
-
-
-2. Import the snippet into your destination file.
-
-```mdx destination-file.mdx
----
-title: My title
-description: My Description
----
-
-import MySnippet from '/snippets/path/to/my-snippet.mdx';
-
-## Header
-
-Lorem impsum dolor sit amet.
-
-
-```
-
-### Reusable variables
-
-1. Export a variable from your snippet file:
-
-```mdx snippets/path/to/custom-variables.mdx
-export const myName = 'my name';
-
-export const myObject = { fruit: 'strawberries' };
-```
-
-2. Import the snippet from your destination file and use the variable:
-
-```mdx destination-file.mdx
----
-title: My title
-description: My Description
----
-
-import { myName, myObject } from '/snippets/path/to/custom-variables.mdx';
-
-Hello, my name is {myName} and I like {myObject.fruit}.
-```
-
-### Reusable components
-
-1. Inside your snippet file, create a component that takes in props by exporting
- your component in the form of an arrow function.
-
-```mdx snippets/custom-component.mdx
-export const MyComponent = ({ title }) => (
-
-
{title}
-
... snippet content ...
-
-);
-```
-
-
- MDX does not compile inside the body of an arrow function. Stick to HTML
- syntax when you can or use a default export if you need to use MDX.
-
-
-2. Import the snippet into your destination file and pass in the props
-
-```mdx destination-file.mdx
----
-title: My title
-description: My Description
----
-
-import { MyComponent } from '/snippets/custom-component.mdx';
-
-Lorem ipsum dolor sit amet.
-
-
-```
diff --git a/essentials/settings.mdx b/essentials/settings.mdx
deleted file mode 100644
index d9dd2d7..0000000
--- a/essentials/settings.mdx
+++ /dev/null
@@ -1,318 +0,0 @@
----
-title: 'Global Settings'
-description: 'Mintlify gives you complete control over the look and feel of your documentation using the mint.json file'
-icon: 'gear'
----
-
-Every Mintlify site needs a `mint.json` file with the core configuration settings. Learn more about the [properties](#properties) below.
-
-## Properties
-
-
-Name of your project. Used for the global title.
-
-Example: `mintlify`
-
-
-
-
- An array of groups with all the pages within that group
-
-
- The name of the group.
-
- Example: `Settings`
-
-
-
- The relative paths to the markdown files that will serve as pages.
-
- Example: `["customization", "page"]`
-
-
-
-
-
-
-
- Path to logo image or object with path to "light" and "dark" mode logo images
-
-
- Path to the logo in light mode
-
-
- Path to the logo in dark mode
-
-
- Where clicking on the logo links you to
-
-
-
-
-
- Path to the favicon image
-
-
-
- Hex color codes for your global theme
-
-
- The primary color. Used for most often for highlighted content, section
- headers, accents, in light mode
-
-
- The primary color for dark mode. Used for most often for highlighted
- content, section headers, accents, in dark mode
-
-
- The primary color for important buttons
-
-
- The color of the background in both light and dark mode
-
-
- The hex color code of the background in light mode
-
-
- The hex color code of the background in dark mode
-
-
-
-
-
-
-
- Array of `name`s and `url`s of links you want to include in the topbar
-
-
- The name of the button.
-
- Example: `Contact us`
-
-
- The url once you click on the button. Example: `https://mintlify.com/contact`
-
-
-
-
-
-
-
-
- Link shows a button. GitHub shows the repo information at the url provided including the number of GitHub stars.
-
-
- If `link`: What the button links to.
-
- If `github`: Link to the repository to load GitHub information from.
-
-
- Text inside the button. Only required if `type` is a `link`.
-
-
-
-
-
-
- Array of version names. Only use this if you want to show different versions
- of docs with a dropdown in the navigation bar.
-
-
-
- An array of the anchors, includes the `icon`, `color`, and `url`.
-
-
- The [Font Awesome](https://fontawesome.com/search?s=brands%2Cduotone) icon used to feature the anchor.
-
- Example: `comments`
-
-
- The name of the anchor label.
-
- Example: `Community`
-
-
- The start of the URL that marks what pages go in the anchor. Generally, this is the name of the folder you put your pages in.
-
-
- The hex color of the anchor icon background. Can also be a gradient if you pass an object with the properties `from` and `to` that are each a hex color.
-
-
- Used if you want to hide an anchor until the correct docs version is selected.
-
-
- Pass `true` if you want to hide the anchor until you directly link someone to docs inside it.
-
-
- One of: "brands", "duotone", "light", "sharp-solid", "solid", or "thin"
-
-
-
-
-
-
- Override the default configurations for the top-most anchor.
-
-
- The name of the top-most anchor
-
-
- Font Awesome icon.
-
-
- One of: "brands", "duotone", "light", "sharp-solid", "solid", or "thin"
-
-
-
-
-
- An array of navigational tabs.
-
-
- The name of the tab label.
-
-
- The start of the URL that marks what pages go in the tab. Generally, this
- is the name of the folder you put your pages in.
-
-
-
-
-
- Configuration for API settings. Learn more about API pages at [API Components](/api-playground/demo).
-
-
- The base url for all API endpoints. If `baseUrl` is an array, it will enable for multiple base url
- options that the user can toggle.
-
-
-
-
-
- The authentication strategy used for all API endpoints.
-
-
- The name of the authentication parameter used in the API playground.
-
- If method is `basic`, the format should be `[usernameName]:[passwordName]`
-
-
- The default value that's designed to be a prefix for the authentication input field.
-
- E.g. If an `inputPrefix` of `AuthKey` would inherit the default input result of the authentication field as `AuthKey`.
-
-
-
-
-
- Configurations for the API playground
-
-
-
- Whether the playground is showing, hidden, or only displaying the endpoint with no added user interactivity `simple`
-
- Learn more at the [playground guides](/api-playground/demo)
-
-
-
-
-
- Enabling this flag ensures that key ordering in OpenAPI pages matches the key ordering defined in the OpenAPI file.
-
- This behavior will soon be enabled by default, at which point this field will be deprecated.
-
-
-
-
-
-
- A string or an array of strings of URL(s) or relative path(s) pointing to your
- OpenAPI file.
-
- Examples:
-
- ```json Absolute
- "openapi": "https://example.com/openapi.json"
- ```
- ```json Relative
- "openapi": "/openapi.json"
- ```
- ```json Multiple
- "openapi": ["https://example.com/openapi1.json", "/openapi2.json", "/openapi3.json"]
- ```
-
-
-
-
-
- An object of social media accounts where the key:property pair represents the social media platform and the account url.
-
- Example:
- ```json
- {
- "x": "https://x.com/mintlify",
- "website": "https://mintlify.com"
- }
- ```
-
-
- One of the following values `website`, `facebook`, `x`, `discord`, `slack`, `github`, `linkedin`, `instagram`, `hacker-news`
-
- Example: `x`
-
-
- The URL to the social platform.
-
- Example: `https://x.com/mintlify`
-
-
-
-
-
- Configurations to enable feedback buttons
-
-
-
- Enables a button to allow users to suggest edits via pull requests
-
-
- Enables a button to allow users to raise an issue about the documentation
-
-
-
-
-
- Customize the dark mode toggle.
-
-
- Set if you always want to show light or dark mode for new users. When not
- set, we default to the same mode as the user's operating system.
-
-
- Set to true to hide the dark/light mode toggle. You can combine `isHidden` with `default` to force your docs to only use light or dark mode. For example:
-
-
- ```json Only Dark Mode
- "modeToggle": {
- "default": "dark",
- "isHidden": true
- }
- ```
-
- ```json Only Light Mode
- "modeToggle": {
- "default": "light",
- "isHidden": true
- }
- ```
-
-
-
-
-
-
-
-
- A background image to be displayed behind every page. See example with
- [Infisical](https://infisical.com/docs) and [FRPC](https://frpc.io).
-
diff --git a/examples/en/introduction.mdx b/examples/en/introduction.mdx
new file mode 100644
index 0000000..2a00ec1
--- /dev/null
+++ b/examples/en/introduction.mdx
@@ -0,0 +1,6 @@
+---
+title: Introduction
+description: 'Welcome to the home of your new documentation'
+---
+
+# Examples
\ No newline at end of file
diff --git a/examples/ja/introduction.mdx b/examples/ja/introduction.mdx
new file mode 100644
index 0000000..2a00ec1
--- /dev/null
+++ b/examples/ja/introduction.mdx
@@ -0,0 +1,6 @@
+---
+title: Introduction
+description: 'Welcome to the home of your new documentation'
+---
+
+# Examples
\ No newline at end of file
diff --git a/favicon.svg b/favicon.svg
index 6a32332..6904e54 100644
--- a/favicon.svg
+++ b/favicon.svg
@@ -1,49 +1,5 @@
-