.log`. Examples include `tk-desktop.log` or `tk-maya.log`.
-
-If you've set the [`{% include product %}_HOME` environment variable](http://developer.shotgridsoftware.com/tk-core/utils.html#localfilestoragemanager) to override the user's cache location, then the log files will be located in: `$SHOTGUN_HOME/logs`.
-
-{% include info title="Note" content="You can also reach this directory from ShotGrid Desktop. Selecting a project, click the down-arrow button to the right of the project name, and choose **Open Log Folder**." %}
diff --git a/docs/en/quick-answers/workflow.md b/docs/en/quick-answers/workflow.md
deleted file mode 100644
index ae4ae5382..000000000
--- a/docs/en/quick-answers/workflow.md
+++ /dev/null
@@ -1,14 +0,0 @@
----
-layout: default
-title: Workflow
-pagename: quick-answers-workflow
-lang: en
----
-
-Workflow
-=====
-
-A collection of related quick answers based around Toolkit workflows.
-
-- [What's the difference between a Version and a PublishedFile?](./workflow/version-publishedfile-difference.md)
-
diff --git a/docs/en/quick-answers/workflow/version-publishedfile-difference.md b/docs/en/quick-answers/workflow/version-publishedfile-difference.md
deleted file mode 100644
index c89074fa2..000000000
--- a/docs/en/quick-answers/workflow/version-publishedfile-difference.md
+++ /dev/null
@@ -1,17 +0,0 @@
----
-layout: default
-title: What's the difference between a Version and a PublishedFile?
-pagename: version-publishedfile-difference
-lang: en
----
-
-# What's the difference between a Version and a PublishedFile?
-
-A **"Publish"** represents a file (or an image sequence) or data on disk which can be used inside an application. It could be an exr sequence, an abc, a Maya file, etc. Publishes are represented by the `PublishedFile` entity in ShotGrid.
-
-A **"Version"** (the `Version` entity in ShotGrid) is the visual representation of a publish — and is used for review and taking notes. There is a field on the `Version` entity named Published Files which you can populate with any number of publish records to connect them together. This is how you can keep track of which review `Version` is associated with a group of publishes. We recommend that you populate this relationship when you publish. Versions are represented by the `Version` entity in ShotGrid.
-
-The ultimate idea is that when you publish, you may generate a collection of files — sometimes different file formats but effectively the same content (a Maya file, an obj, an alembic, etc.) — and these are all different representations of the same thing. They are then associated with a single review `Version` for previewing the publish data and taking notes.
-
-This idea becomes a little bit redundant when the published data is an image sequence. Effectively the image sequence is both the thing you want to review and the thing that will be sent down the pipe. In this case you may have to "double up" and create both a publish and a `Version`. This allows you to load the published data (e.g. via the Loader app) that represents the `Version`.
-
diff --git a/docs/en/reference/api/images/dv-api-permissions-ApiPermGroup-02.png b/docs/en/reference/api/images/dv-api-permissions-ApiPermGroup-02.png
deleted file mode 100644
index e0e58994a..000000000
Binary files a/docs/en/reference/api/images/dv-api-permissions-ApiPermGroup-02.png and /dev/null differ
diff --git a/docs/en/reference/api/images/dv-api-permissions-Screen-Shot-2020-07-27-at-3-47-55-PM-01.png b/docs/en/reference/api/images/dv-api-permissions-Screen-Shot-2020-07-27-at-3-47-55-PM-01.png
deleted file mode 100644
index 7f52b7e73..000000000
Binary files a/docs/en/reference/api/images/dv-api-permissions-Screen-Shot-2020-07-27-at-3-47-55-PM-01.png and /dev/null differ
diff --git a/docs/en/reference/api/images/dv-developers-api-01-scripts-01.png b/docs/en/reference/api/images/dv-developers-api-01-scripts-01.png
deleted file mode 100644
index 6b915c828..000000000
Binary files a/docs/en/reference/api/images/dv-developers-api-01-scripts-01.png and /dev/null differ
diff --git a/docs/en/reference/api/images/dv-manage-scripts-application-key-02.png b/docs/en/reference/api/images/dv-manage-scripts-application-key-02.png
deleted file mode 100644
index f3353d301..000000000
Binary files a/docs/en/reference/api/images/dv-manage-scripts-application-key-02.png and /dev/null differ
diff --git a/docs/en/reference/api/images/dv-manage-scripts-script-01.png b/docs/en/reference/api/images/dv-manage-scripts-script-01.png
deleted file mode 100644
index 69980b83c..000000000
Binary files a/docs/en/reference/api/images/dv-manage-scripts-script-01.png and /dev/null differ
diff --git a/docs/en/reference/api/python-api-best-practices.md b/docs/en/reference/api/python-api-best-practices.md
deleted file mode 100644
index e09ddb7ee..000000000
--- a/docs/en/reference/api/python-api-best-practices.md
+++ /dev/null
@@ -1,32 +0,0 @@
----
-layout: default
-title: Python API best practices
-pagename: python-api-best-practices
-lang: en
----
-
-# Python API best practices
-
-
-Below is a list of best practices when using the {% include product %} Python API.
-
-## Performance
-
-1. Don’t request any fields you don’t need for your script. Including additional fields can add unnecessary overhead to your request.
-2. Make your filters as specific as possible. Wherever possible, filtering in the API query rather than parsing it after you have the results back is better.
-3. Exact match filters will perform better than partial match filters. For example, using “is” will perform better than “contains”.
-
-## Control and debugging
-
-1. Use separate keys for scripts, so you have a unique key for every tool. This is invaluable for debugging.
-2. Make sure that every script has an owner or maintainer and the information is up to date in your Scripts page, under the Admin menu.
-3. Consider creating a [read-only permission group for API users](https://developer.shotgridsoftware.com/bbae2ca7/) . Many scripts only need read access and this can limit your exposure to accidental changes.
-4. Track which keys are in use so that old scripts can be removed. Some studios script auditing information in their API wrapper, to make this easier.
-5. Check entity names and fields. {% include product %} has two names for each field: a display name that’s used in the UI (and isn’t necessarily unique) and an internal field name that’s used by the API. Because the display name can be changed at any point, you can’t reliably predict the field name from the display name. You can see field names by going to the fields option in the Admin menu, or you can use the `schema_read(), schema_field_read(), schema_entity_read() methods` , as described in [http://developer.shotgridsoftware.com/python-api/reference.html?%20read#working-with-the-shotgun-schema](http://developer.shotgridsoftware.com/python-api/reference.html?%20read#working-with-the-shotgun-schema).
-
-## Design
-
-1. For larger studios especially, consider having an API isolation layer—a wrapper. This isolates your tools from changes in the {% include product %} API. It also means that you can control API access, manage debugging, track auditing, etc. without needing to modify the API itself.
-2. Use the latest version of the API. It will contain bug fixes and performance improvements.
-3. Be aware of where the script will be run from. A script running on a render farm, where it will be calling to {% include product %} for the same information 1000’s of times per minute, can impact site performance. In cases like these, consider implementing a read-only caching layer to alleviate unnecessarily repetitive calls.
-4. You can turn off event generation for scripts. This is most useful for scripts that are running very often whose events you won’t need to track later. For scripts that run extremely often, this is highly recommended as the event log can otherwise become very large.
\ No newline at end of file
diff --git a/docs/en/reference/api/python-api-create-manage.md b/docs/en/reference/api/python-api-create-manage.md
deleted file mode 100644
index dca05b0f2..000000000
--- a/docs/en/reference/api/python-api-create-manage.md
+++ /dev/null
@@ -1,27 +0,0 @@
----
-layout: default
-title: Create and manage API scripts
-pagename: python-api-create-manage
-lang: en
----
-
-# Create and manage API scripts
-
-
-Follow the steps below to create a new Script:
-
-1. Go to the Admin Menu and select “Scripts”.
- 
-2. Create a new Script using the “+ Script” button.
-3. Grab the value from the Application Key. You’ll need this to initiate a connection to {% include product %}.
- 
-
- > **Note:** API keys are treated like passwords, and once created cannot be viewed again via the {% include product %} web app or API. Make sure you copy the key before proceeding.
-
-4. Now you can use your Script key to connect to {% include product %}. See [“{% include product %} Methods” in our API documentation](http://developer.shotgridsoftware.com/python-api/reference.html#shotgun-methods) to learn more about how to connect to {% include product %} with your Script.
-
-> **Tip:** If for some reason you need to reset the Application Key of your Script, you’ll need to create a new {% include product %} Script entity to do so. First rename your existing Script to something like “[My Script]—OLD”, then delete it. Create a new Script. The reason you need to rename the old one is that {% include product %} requires unique names for each Script.
-
-## When to set up a new Script
-
-Script actions can be logged. The more fine-grained the use of individual Script keys, the easier it will be for you to track which Script is making changes for debugging. Having separate Scripts is also a good way to track which Scripts will be impacted by changes on your {% include product %} site and who maintains the Script.
\ No newline at end of file
diff --git a/docs/en/reference/api/python-api-overview.md b/docs/en/reference/api/python-api-overview.md
deleted file mode 100644
index 0fa8ef99a..000000000
--- a/docs/en/reference/api/python-api-overview.md
+++ /dev/null
@@ -1,75 +0,0 @@
----
-layout: default
-title: API Overview
-pagename: python-api-overview
-lang: en
----
-
-# API Overview
-
-**Note:** For more information about the {% include product %} API, see our [API documentation](http://developer.shotgridsoftware.com/python-api/) .
-
-The {% include product %} Python Application Programming Interface (API) enables users to easily integrate their tools with {% include product %}. Through it you can create automated processes, integrate with many third party software packages, and communicate with existing tools within your studio. Because the needs of every studio are very different, the {% include product %} API provides powerful, low-level functionality and leaves most of the business logic to you.
-
-The API is built using [Python](https://www.python.org/) , a common programming language used widely across the media and entertainment industry. Use of the [{% include product %} Python API](https://github.com/shotgunsoftware/python-api) is included for free with your {% include product %} site.
-
-The API follows the CRUD pattern, allowing your script to run Create, Read, Update, and Delete actions for a single entity type. Many operations include the ability to define filters, columns to return, and sort results.
-
-In order to communicate with the {% include product %} server via the API, your script can authenticate with the server either by providing a user’s credentials or by utilizing a script key. You can generate new script keys from the Scripts page, listed in the Admin menu:
-
-
-
-**Tip:** Register your scripts separately and have individual API keys for each. This will help you to monitor each of your scripts and the actions they are performing much more accurately in the [event logs](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Administrator_ar_data_management_ar_event_logs_html) .
-
-## Common first projects
-
-You can download the API at [https://github.com/shotgunsoftware/python-api](https://github.com/shotgunsoftware/python-api) . Some common first projects include:
-
-1. [Creating a Version and linking it to a Shot](http://developer.shotgridsoftware.com/python-api/cookbook/examples/basic_create_version_link_shot.html) . Allows you to automate the submission of new renders for review.
-2. [Uploading a thumbnail](http://developer.shotgridsoftware.com/python-api/cookbook/examples/basic_upload_thumbnail_version.html) . Everything on your site can have an up-to-date thumbnail without manually adding them.
-3. [Integrating {% include product %} with your code repository such as SVN](http://developer.shotgridsoftware.com/python-api/cookbook/examples/svn_integration.html) . Utilize {% include product %} to project manage any software development.
-
-## Some things you can’t do with the API
-
-* Access or alter permission rules, for security reasons
-* Read or alter page settings
-* Access filter or query settings for individual pages or widgets
-* Interact with the UI
-* Add, edit, or remove conditional formatting rules
-* Create or edit query fields
-
-## Action Menu Items (AMIs)
-
-If you write a script that you want to easily launch from within the {% include product %} interface, you can do so via [AMIs](https://developer.shotgridsoftware.com/67695b40/) . These are customizable options that appear in context menus you get when right-clicking on a row of data. When clicked, they will send a contextual data dump to a web server or a custom browser protocol handler, where you can then run custom business logic.
-
-You can set up different AMIs for different entities, and can restrict access to them by project or by permission group.
-
-## Event Trigger Daemon
-
-Every action performed in {% include product %} (either by a user or an API script) generates an Event. The [Event Daemon](https://github.com/shotgunsoftware/shotgunEvents) can monitor that event stream and then execute specific API scripts based on conditions you define. Some examples include:
-
-* Automatically changing downstream Task statuses based on the status of upstream Tasks.
-* Recalculating relevant cut duration fields when values change.
-* Performing file packaging and transfer operations when a Shot is set to a particular status.
-
-## Additional information
-
-For more information about the {% include product %} API, see these articles:
-
-* [Download the {% include product %} API from GitHub](https://github.com/shotgunsoftware/python-api/)
-* [{% include product %} API documentation](http://developer.shotgridsoftware.com/python-api/)
-* [{% include product %}-dev list (Public)](https://groups.google.com/a/shotgunsoftware.com/forum/?fromgroups#!forum/shotgun-dev)
-* [{% include product %} Event Daemon sample code](https://github.com/shotgunsoftware/shotgunEvents)
-* [Writing event driven triggers](https://developer.shotgridsoftware.com/0d8a11d9/)
-* [{% include product %} schema](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Administrator_ar_get_started_ar_shotgun_schema_html)
-* [API best practices](https://developer.shotgridsoftware.com/09b77cf4/)
-
-## Contribute and collaborate
-
-Have you made some amazing tools with {% include product %} you want to share with the world? Awesome! We have an active and vibrant [developer community](https://community.shotgridsoftware.com/) who love to share and collaborate with each other. To get involved:
-
-* Join the [{% include product %} Community](https://community.shotgridsoftware.com/) .
-* Post your code to [GitHub](https://github.com/) (make sure your code isn’t pipeline specific, is well documented, and has a README in either .txt or .mdk format).
-* Post a link and description to the dev list. The dev community and {% include product %} developers will check it out, provide feedback, and sing your praises.
-
-We are constantly amazed and inspired by many of the tools and integrations made by our clients. Show us what you can do!
\ No newline at end of file
diff --git a/docs/en/reference/api/python-api-permissions.md b/docs/en/reference/api/python-api-permissions.md
deleted file mode 100644
index ef1cf483f..000000000
--- a/docs/en/reference/api/python-api-permissions.md
+++ /dev/null
@@ -1,41 +0,0 @@
----
-layout: default
-title: API user permission groups
-pagename: python-api-permissions
-lang: en
----
-
-# API user permission groups
-
-
-You can create separate Permission Groups for API users so that your scripts and keys can have different permission levels just like your People.
-
-## Accessing the API user page
-
-Go to your Admin Menu and select Permissions - Scripts.
-
-
-
-Refer to the [](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Administrator_ar_site_configuration_ar_permissions_html) for usage.
-
-## How to use API user permission groups
-
-Once you have created API permissions groups beyond the initial API Admin, you can use them for your API scripts.
-
-1. From the Admin menu, select "Scripts."
-2. Display the Permission Group column and select the appropriate Permission Group.
- 
-
-## Examples
-
-So why would you use this? There are many potential uses, but here are a couple to get you thinking:
-
-**Example 1:** You want to give an API key to someone in your studio who should not have full Admin privileges.
-
-**Example 2:** You want to give a read-only API key to a partner studio to perform a one-way sync from your {{ akn_product_name }} database to their {{ akn_product_name }} Database, and only expose a limited entity set.
-
-**Example 3:** You want to restrict API scripts per project.
-
-1. Navigate to your **Permissions - Scripts** page via the Admin menu and create a new role. Make sure the "See Assigned Projects Only" advanced permission is enabled. You can also tweak any other permissions needed (e.g. if you only wanted them to have Read access on certain entities/fields).
-2. Navigate to the **Scripts** page via the Admin menu. Expose the "Projects" field. Here you can enter in Projects to restrict the script's scope to.
-3. Make sure to assign that script permission to the new one created in step 1, via the "Permission Group" field.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations.md b/docs/en/reference/pipeline-integrations.md
deleted file mode 100644
index 2925d5840..000000000
--- a/docs/en/reference/pipeline-integrations.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Pipeline Integration Components
-pagename: pipeline-integrations-reference
-lang: en
----
-
-# Pipeline Integration Components
-
-Here you'll find reference documentation for components of the Toolkit platform.
diff --git a/docs/en/reference/pipeline-integrations/images/apps/flame-export-flare_review.png b/docs/en/reference/pipeline-integrations/images/apps/flame-export-flare_review.png
deleted file mode 100644
index d8789830f..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/flame-export-flare_review.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/flame-export-menu.png b/docs/en/reference/pipeline-integrations/images/apps/flame-export-menu.png
deleted file mode 100644
index ca7d88866..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/flame-export-menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/flame-export-render_range.png b/docs/en/reference/pipeline-integrations/images/apps/flame-export-render_range.png
deleted file mode 100644
index 9c70b2958..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/flame-export-render_range.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/flame-export-shot_export.png b/docs/en/reference/pipeline-integrations/images/apps/flame-export-shot_export.png
deleted file mode 100644
index 15451eb68..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/flame-export-shot_export.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/flame-review-menu.png b/docs/en/reference/pipeline-integrations/images/apps/flame-review-menu.png
deleted file mode 100644
index b92701194..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/flame-review-menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/flame-review-select.png b/docs/en/reference/pipeline-integrations/images/apps/flame-review-select.png
deleted file mode 100644
index a1dbb0191..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/flame-review-select.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/flame-review-ui.png b/docs/en/reference/pipeline-integrations/images/apps/flame-review-ui.png
deleted file mode 100644
index f0193ed1a..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/flame-review-ui.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-collate.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-collate.png
deleted file mode 100644
index ed1e483ab..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-collate.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-collate_ex.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-collate_ex.png
deleted file mode 100644
index 63f16e145..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-collate_ex.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-cut_type.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-cut_type.png
deleted file mode 100644
index 8d3cb7b4f..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-cut_type.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-export_queue.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-export_queue.png
deleted file mode 100644
index 9abbc3881..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-export_queue.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-export_window.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-export_window.png
deleted file mode 100644
index 318a6cd59..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-export_window.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-finder.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-finder.png
deleted file mode 100644
index bf11c85b1..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-finder.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-nuke_project_file_settings.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-nuke_project_file_settings.png
deleted file mode 100644
index e439c7a51..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-nuke_project_file_settings.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-open_in_shotgun.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-open_in_shotgun.png
deleted file mode 100644
index 203f9b18a..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-open_in_shotgun.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-paths.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-paths.png
deleted file mode 100644
index d61be78a9..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-paths.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-processor.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-processor.png
deleted file mode 100644
index 4e12342a2..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-processor.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/hiero-shotgun_ui.png b/docs/en/reference/pipeline-integrations/images/apps/hiero-shotgun_ui.png
deleted file mode 100644
index e468bc217..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/hiero-shotgun_ui.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-computed_path.png b/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-computed_path.png
deleted file mode 100644
index a85e4e017..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-computed_path.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-create_node.png b/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-create_node.png
deleted file mode 100644
index f5def6a5a..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-create_node.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-output_profile.png b/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-output_profile.png
deleted file mode 100644
index 37a09983c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-output_profile.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-screenshot_a.png b/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-screenshot_a.png
deleted file mode 100644
index 91d3ba01b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/houdini-alembicnode-screenshot_a.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-computed_path.png b/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-computed_path.png
deleted file mode 100644
index 05c6398e9..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-computed_path.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-create_node.png b/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-create_node.png
deleted file mode 100644
index 35632b864..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-create_node.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-output_profile.png b/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-output_profile.png
deleted file mode 100644
index e814ec416..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/houdini-mantranode-output_profile.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-about-about1.png b/docs/en/reference/pipeline-integrations/images/apps/multi-about-about1.png
deleted file mode 100644
index 1aa45ba11..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-about-about1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-about-about2.png b/docs/en/reference/pipeline-integrations/images/apps/multi-about-about2.png
deleted file mode 100644
index ed35ef07d..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-about-about2.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-about-about3.png b/docs/en/reference/pipeline-integrations/images/apps/multi-about-about3.png
deleted file mode 100644
index b1b2a6021..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-about-about3.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-about-menu.png b/docs/en/reference/pipeline-integrations/images/apps/multi-about-menu.png
deleted file mode 100644
index a6d8e2678..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-about-menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-breakdown-breakdown.png b/docs/en/reference/pipeline-integrations/images/apps/multi-breakdown-breakdown.png
deleted file mode 100644
index 3359f997f..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-breakdown-breakdown.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-code_tab.png b/docs/en/reference/pipeline-integrations/images/apps/multi-demo-code_tab.png
deleted file mode 100644
index c6d9092d3..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-code_tab.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-delegate_demo.png b/docs/en/reference/pipeline-integrations/images/apps/multi-demo-delegate_demo.png
deleted file mode 100644
index 372911c00..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-delegate_demo.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-demo_app.png b/docs/en/reference/pipeline-integrations/images/apps/multi-demo-demo_app.png
deleted file mode 100644
index a1dc359b8..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-demo_app.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-help_demo.png b/docs/en/reference/pipeline-integrations/images/apps/multi-demo-help_demo.png
deleted file mode 100644
index e9ed0d859..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-demo-help_demo.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-launchapp-tank_actions_menu.png b/docs/en/reference/pipeline-integrations/images/apps/multi-launchapp-tank_actions_menu.png
deleted file mode 100644
index 00a6835d7..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-launchapp-tank_actions_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-buttons.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-buttons.png
deleted file mode 100644
index 2bd507494..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-buttons.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-console_flame.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-console_flame.png
deleted file mode 100644
index aa85e3c28..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-console_flame.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-docked.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-docked.png
deleted file mode 100644
index 0a3388fda..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-docked.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-external_sources.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-external_sources.png
deleted file mode 100644
index 9cb68f6f8..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-external_sources.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-input.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-input.png
deleted file mode 100644
index b1158fac5..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-input.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-output.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-output.png
deleted file mode 100644
index 15d7915a1..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-output.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-python_console.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-python_console.png
deleted file mode 100644
index 3bc7fd92e..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-python_console.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-tabs.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-tabs.png
deleted file mode 100644
index b26858fb7..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsole-tabs.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsoleglobals.png b/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsoleglobals.png
deleted file mode 100644
index 0e4573387..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-pythonconsoleglobals.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-reviewsubmission-quicktime_burnin.png b/docs/en/reference/pipeline-integrations/images/apps/multi-reviewsubmission-quicktime_burnin.png
deleted file mode 100644
index 4fc670c15..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-reviewsubmission-quicktime_burnin.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-reviewsubmission-quicktime_slate.png b/docs/en/reference/pipeline-integrations/images/apps/multi-reviewsubmission-quicktime_slate.png
deleted file mode 100644
index c2fbf8dab..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-reviewsubmission-quicktime_slate.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-multiple_instances.png b/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-multiple_instances.png
deleted file mode 100644
index 03b34104b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-multiple_instances.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-nuke.png b/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-nuke.png
deleted file mode 100644
index 04074cc3b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-nuke.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-shotgun.png b/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-shotgun.png
deleted file mode 100644
index e90d813d8..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-setframerange-shotgun.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-shotgunpanel-config.png b/docs/en/reference/pipeline-integrations/images/apps/multi-shotgunpanel-config.png
deleted file mode 100644
index 9b68e723b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-shotgunpanel-config.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-change_context.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-change_context.png
deleted file mode 100644
index 5b911971b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-change_context.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-entity_tree_view.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-entity_tree_view.png
deleted file mode 100644
index 41ed9c605..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-entity_tree_view.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-expanding_save.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-expanding_save.png
deleted file mode 100644
index 472e1e67b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-expanding_save.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-file_save_file_type.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-file_save_file_type.png
deleted file mode 100644
index d1174da4e..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-file_save_file_type.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-file_selection.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-file_selection.png
deleted file mode 100644
index 0055f737c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-file_selection.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-previous_versions.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-previous_versions.png
deleted file mode 100644
index 67bae3004..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-previous_versions.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-sandboxes.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-sandboxes.png
deleted file mode 100644
index 91133b8b5..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-sandboxes.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-search.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-search.png
deleted file mode 100644
index c2fa2072f..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-search.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-step_filter.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-step_filter.png
deleted file mode 100644
index ade8501c2..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-step_filter.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-tasks.png b/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-tasks.png
deleted file mode 100644
index 8ce560526..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/multi-workfiles2-tasks.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-burnins.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-burnins.png
deleted file mode 100644
index 8fd8f0e08..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-burnins.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-nuke_ui.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-nuke_ui.png
deleted file mode 100644
index 104c14d94..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-nuke_ui.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-slate.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-slate.png
deleted file mode 100644
index cb643e59b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-slate.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-submit.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-submit.png
deleted file mode 100644
index 47e9dd91c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-quickreview-submit.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_add_new.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_add_new.png
deleted file mode 100644
index b6dae9e26..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_add_new.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_convert_menu_options.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_convert_menu_options.png
deleted file mode 100644
index 79539ae8c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_convert_menu_options.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_creation.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_creation.png
deleted file mode 100644
index 214837b4d..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_creation.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_reset_path.png b/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_reset_path.png
deleted file mode 100644
index c6e55b150..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/nuke-writenode-write_node_reset_path.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/sg_publisher_1.png b/docs/en/reference/pipeline-integrations/images/apps/sg_publisher_1.png
deleted file mode 100644
index 3b5afe00d..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/sg_publisher_1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/shotgun-folders-create_folders_1.png b/docs/en/reference/pipeline-integrations/images/apps/shotgun-folders-create_folders_1.png
deleted file mode 100644
index ed4f5e4ea..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/shotgun-folders-create_folders_1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/shotgun-folders-create_folders_2.png b/docs/en/reference/pipeline-integrations/images/apps/shotgun-folders-create_folders_2.png
deleted file mode 100644
index 558b0eb77..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/shotgun-folders-create_folders_2.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/shotgun-launchfoldershow_in_fs.png b/docs/en/reference/pipeline-integrations/images/apps/shotgun-launchfoldershow_in_fs.png
deleted file mode 100644
index b80b0bf5c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/shotgun-launchfoldershow_in_fs.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/apps/shotgun-launchpublish-open_assoc.png b/docs/en/reference/pipeline-integrations/images/apps/shotgun-launchpublish-open_assoc.png
deleted file mode 100644
index 32804154a..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/apps/shotgun-launchpublish-open_assoc.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/3ds_max_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/3ds_max_icon_256.png
deleted file mode 100644
index f118d3689..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/3ds_max_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/3dsmax_engine.png b/docs/en/reference/pipeline-integrations/images/engines/3dsmax_engine.png
deleted file mode 100644
index 1b730154b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/3dsmax_engine.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/3dsmaxplus_engine.png b/docs/en/reference/pipeline-integrations/images/engines/3dsmaxplus_engine.png
deleted file mode 100644
index 1b730154b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/3dsmaxplus_engine.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/AE_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/AE_icon_256.png
deleted file mode 100644
index 283e5f2ef..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/AE_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/add_shelf.png b/docs/en/reference/pipeline-integrations/images/engines/add_shelf.png
deleted file mode 100644
index f759de6d6..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/add_shelf.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/aftereffects_extension.png b/docs/en/reference/pipeline-integrations/images/engines/aftereffects_extension.png
deleted file mode 100644
index e21656265..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/aftereffects_extension.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/alias_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/alias_icon_256.png
deleted file mode 100644
index 627dad65b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/alias_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/create-dcc-01.png b/docs/en/reference/pipeline-integrations/images/engines/create-dcc-01.png
deleted file mode 100644
index e7127fa75..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/create-dcc-01.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/create-dcc-02.png b/docs/en/reference/pipeline-integrations/images/engines/create-dcc-02.png
deleted file mode 100644
index b344e1980..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/create-dcc-02.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/create_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/create_icon_256.png
deleted file mode 100644
index 4aa7e6897..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/create_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/desktop_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/desktop_icon_256.png
deleted file mode 100644
index 6d0cc047f..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/desktop_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/extension_commands.png b/docs/en/reference/pipeline-integrations/images/engines/extension_commands.png
deleted file mode 100644
index 2af1af61e..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/extension_commands.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/extension_components.png b/docs/en/reference/pipeline-integrations/images/engines/extension_components.png
deleted file mode 100644
index c3fa583b4..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/extension_components.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/extension_console.png b/docs/en/reference/pipeline-integrations/images/engines/extension_console.png
deleted file mode 100644
index ba4b4d4a1..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/extension_console.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/extension_context_menu.png b/docs/en/reference/pipeline-integrations/images/engines/extension_context_menu.png
deleted file mode 100644
index acd7fe8dd..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/extension_context_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/extension_header.png b/docs/en/reference/pipeline-integrations/images/engines/extension_header.png
deleted file mode 100644
index 0c12b1097..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/extension_header.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/extension_menu.png b/docs/en/reference/pipeline-integrations/images/engines/extension_menu.png
deleted file mode 100644
index b076e8ad3..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/extension_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/extension_shelf.png b/docs/en/reference/pipeline-integrations/images/engines/extension_shelf.png
deleted file mode 100644
index fd5d39255..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/extension_shelf.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/flame_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/flame_icon_256.png
deleted file mode 100644
index ddbcf597d..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/flame_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/flame_project.png b/docs/en/reference/pipeline-integrations/images/engines/flame_project.png
deleted file mode 100644
index b9ccfaf80..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/flame_project.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/houdini_engine.png b/docs/en/reference/pipeline-integrations/images/engines/houdini_engine.png
deleted file mode 100644
index 8d3e51b69..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/houdini_engine.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/houdini_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/houdini_icon_256.png
deleted file mode 100644
index 11cfa46dc..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/houdini_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/houdini_menu.png b/docs/en/reference/pipeline-integrations/images/engines/houdini_menu.png
deleted file mode 100644
index 178cfe9cd..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/houdini_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/houdini_shelf.png b/docs/en/reference/pipeline-integrations/images/engines/houdini_shelf.png
deleted file mode 100644
index 66fc34963..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/houdini_shelf.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/mari_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/mari_icon_256.png
deleted file mode 100644
index 8718051f2..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/mari_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/maya_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/maya_icon_256.png
deleted file mode 100644
index 86be3664d..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/maya_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/maya_menu.png b/docs/en/reference/pipeline-integrations/images/engines/maya_menu.png
deleted file mode 100644
index d3bf18dc1..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/maya_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/mobu.png b/docs/en/reference/pipeline-integrations/images/engines/mobu.png
deleted file mode 100644
index bbdd364ab..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/mobu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/mobu_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/mobu_icon_256.png
deleted file mode 100644
index c20fb91a8..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/mobu_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke-favourites.png b/docs/en/reference/pipeline-integrations/images/engines/nuke-favourites.png
deleted file mode 100644
index 2e0efcf68..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke-favourites.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke-gizmo.png b/docs/en/reference/pipeline-integrations/images/engines/nuke-gizmo.png
deleted file mode 100644
index 25dcda35e..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke-gizmo.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-bin_menu.png b/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-bin_menu.png
deleted file mode 100644
index 3d5f16498..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-bin_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-engine_debug.png b/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-engine_debug.png
deleted file mode 100644
index aa7dea45c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-engine_debug.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-menus.png b/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-menus.png
deleted file mode 100644
index 28b74d2fc..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke-hiero-menus.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke-menu.png b/docs/en/reference/pipeline-integrations/images/engines/nuke-menu.png
deleted file mode 100644
index 2f157f594..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke-menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke-nodes_menu.png b/docs/en/reference/pipeline-integrations/images/engines/nuke-nodes_menu.png
deleted file mode 100644
index 595bac2b1..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke-nodes_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/nuke_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/nuke_icon_256.png
deleted file mode 100644
index c0813fdf0..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/nuke_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/otls_path.png b/docs/en/reference/pipeline-integrations/images/engines/otls_path.png
deleted file mode 100644
index 3ab2fb93e..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/otls_path.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshop_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/photoshop_icon_256.png
deleted file mode 100644
index 37146fc57..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshop_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_commands.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_commands.png
deleted file mode 100644
index 5571e225c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_commands.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_components.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_components.png
deleted file mode 100644
index 57da52f74..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_components.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_console.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_console.png
deleted file mode 100644
index 0d2c32f8a..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_console.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_context_menu.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_context_menu.png
deleted file mode 100644
index 465a995eb..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_context_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_header.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_header.png
deleted file mode 100644
index 6aca7d66f..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_header.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_shelf.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_shelf.png
deleted file mode 100644
index 445c3871e..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extension_shelf.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extensions_menu.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extensions_menu.png
deleted file mode 100644
index 29a9d8e17..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-extensions_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-photoshopcc_extension.png b/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-photoshopcc_extension.png
deleted file mode 100644
index 6c5826a46..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/photoshopcc-photoshopcc_extension.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/processes.png b/docs/en/reference/pipeline-integrations/images/engines/processes.png
deleted file mode 100644
index f1377ddc5..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/processes.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/sg_3dsmax_plus_1.png b/docs/en/reference/pipeline-integrations/images/engines/sg_3dsmax_plus_1.png
deleted file mode 100644
index c4cd16a61..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/sg_3dsmax_plus_1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/sg_mobu_1.png b/docs/en/reference/pipeline-integrations/images/engines/sg_mobu_1.png
deleted file mode 100644
index 55ec54104..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/sg_mobu_1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/sg_shell_1.png b/docs/en/reference/pipeline-integrations/images/engines/sg_shell_1.png
deleted file mode 100644
index 678e3b7c3..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/sg_shell_1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/sg_shotgrid_engine_1.png b/docs/en/reference/pipeline-integrations/images/engines/sg_shotgrid_engine_1.png
deleted file mode 100644
index 5fefa1ddf..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/sg_shotgrid_engine_1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/sg_softimage_1.png b/docs/en/reference/pipeline-integrations/images/engines/sg_softimage_1.png
deleted file mode 100644
index 3064fca61..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/sg_softimage_1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/shell_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/shell_icon_256.png
deleted file mode 100644
index 03cdc603b..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/shell_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/shotgrid_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/shotgrid_icon_256.png
deleted file mode 100644
index 6d0cc047f..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/shotgrid_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/shotgun-action1.png b/docs/en/reference/pipeline-integrations/images/engines/shotgun-action1.png
deleted file mode 100644
index 7aaa032ee..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/shotgun-action1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/shotgun-action2.png b/docs/en/reference/pipeline-integrations/images/engines/shotgun-action2.png
deleted file mode 100644
index 5a1fe011c..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/shotgun-action2.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/softimage_menu.png b/docs/en/reference/pipeline-integrations/images/engines/softimage_menu.png
deleted file mode 100644
index 9b16e56d1..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/softimage_menu.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/engines/vred_icon_256.png b/docs/en/reference/pipeline-integrations/images/engines/vred_icon_256.png
deleted file mode 100644
index dd5c5954e..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/engines/vred_icon_256.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/env-config-ref/1.png b/docs/en/reference/pipeline-integrations/images/env-config-ref/1.png
deleted file mode 100644
index 98a5e1533..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/env-config-ref/1.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/images/env-config-ref/2.png b/docs/en/reference/pipeline-integrations/images/env-config-ref/2.png
deleted file mode 100644
index 236ac183d..000000000
Binary files a/docs/en/reference/pipeline-integrations/images/env-config-ref/2.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apis.md b/docs/en/reference/pipeline-integrations/toolkit-apis.md
deleted file mode 100644
index 9ed5a2123..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apis.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: APIs
-pagename: toolkit-apis
-lang: en
----
-
-# Toolkit APIs
-
-Here you'll find reference documentation for APIs provided by the Toolkit platform.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps.md b/docs/en/reference/pipeline-integrations/toolkit-apps.md
deleted file mode 100644
index 03a16011d..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Apps
-pagename: toolkit-apps
-lang: en
----
-
-# Toolkit Apps
-
-Here you'll find reference documentation for apps available for the Toolkit platform.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-flame-export.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-flame-export.md
deleted file mode 100644
index 173f997d5..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-flame-export.md
+++ /dev/null
@@ -1,144 +0,0 @@
----
-layout: default
-title: Flame Export
-pagename: tk-flame-export
-lang: en
----
-
-# Flame Export
-
-The {% include product %} Flame Export App helps kickstart your project!
-
-Once you have created an initial conform in Flame, the Shot Exporter can help you quickly
-generate content in {% include product %}, render out plates to disk and send content to review.
-
-Once you are up and running, the exporter app will also track all the renders happening in Flare or in Flame batch mode, making it easy to send content to review as part of your workflow.
-
-## Pushing a conform to {% include product %}
-
-Once you have your conform set up in Flame for a sequence, and have **allocated shot names** to all the segments in your timeline, select the sequence, right click and choose the {% include product %} Shot Export option.
-
-
-
-This will bring up a {% include product %} UI where you can enter some initial comments for your publish. These comments will be sent to review and also used when adding description to publishes and other content.
-
-In addition to the description, you can also select which output data format you want to use for your exported plates. These presets are part of the toolkit app configuration and can be configured to suit the needs of your studio.
-
-
-
-Once you click the submit button, a number of things will happen straight away:
-
-- Shots and Tasks will be created in {% include product %}. The list of tasks to associate with each new Shot that gets created is configurable via a Task template setting to make it quick and painless to create consistent structures. The shots will be parented under a sequence by default, but this is also configurable and if you are working with Scenes or Episodes, it is possible to reconfigure the exporter to work with these instead.
-
-- Once {% include product %} contains the right data, folders will be created on disk using the standard folder creation mechanism. This ensures that the project can be kick-started with a set of consistent folders for all shots that are being created.
-
-Once the two steps above have been carried out, you have the basic structure to proceed with further steps. These will happen in the background:
-
-- Plates will be exported on disk for each shot according to the presets defined in your configuation. File locations are defined using the Toolkit Template system, meaning that the location of these plates will be well defined and understood by other tools downstream in the pipeline.
-
-- Batch files and clip xml files will be exported. These are used by Flame to enable an iterative workflow where you can quickly render out new versions that are later pulled in to the main conform in Flame.
-
-- Quicktimes are generated and uploaded to {% include product %} for review.
-
-
-## Sending batch renders to Review
-
-Once you have published a Flame batch file for a Shot, you can launch Flare directly from that Shot in order to open up the batch file with render and output settings pre-populated. In order to render out a new version, simply click the Render Range Button.
-
-
-
-Toolkit will display a dialog at this point where you can choose to send the render to {% include product %} review or not.
-
-
-
-Files will be published and tracked by {% include product %} and optionally also sent to review.
-
-## Want to learn more?
-
-If you want to learn more, and see this workflow in action, head over to
-the Flame engine documentation where we also have some video content that demonstrates the various workflows in action.
-
-LINKBOX_ENGINE:{% include product %}software/tk-flame:The Flame Engine
-
-As always, if you have question regarding integration or customization, don't hesitate to visit our [support site](https://knowledge.autodesk.com/contact-support).
-
-# Advanced Topics
-
-Below you'll find more advanced details relating to configuration and customization
-
-## Using export presets
-
-The exporter uses a concept of *Export Presets* in its configuration. When you launch the Export UI inside of Flame you see a dropdown with the available export presets. Each preset is a configuration option which allows you to configure how files are written to disk and uploaded to {% include product %}. High level settings such as file locations on disk are controlled directly in the environment configuration, making it easy to adjust the default configuration options to work with your pipeline.
-
-More advanced settings and control over the actual export xml content that is being passed to flame in order to control Flame, is handled by a hook where the behaviour is defined for each preset. In the hook, you have complete control over how media is being generated by the exporter.
-
-## Bypassing {% include product %} server side transcoding
-By default, Quicktimes are uploaded to {% include product %} review by setting the `Version.sg_uploaded_movie` field. This in turn will trigger {% include product %} server side transcoding; the uploaded quicktime will be further converted to `mp4` and `webm` representations tailored for playback in browsers and mobile. Sometimes, it can be beneficial to bypass this server side transcoding. This is possible by setting the `bypass_shotgun_transcoding` configuration setting. When this is set to true, the integration will upload directly to the `Version.sg_uploaded_movie_mp4` field in {% include product %}, thereby bypassing the server side transcoding. In this case, no `webm` version is generated, so review playback will not be possible in Firefox.
-
-For more information, see https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Supervisor_Artist_sa_review_approval_sa_transcoding_html
-
-## Customizing ffmpeg
-
-When the exporter generates quicktimes, it uses a version of ffmpeg which comes distributed with Flame. By modifying the settings hook in the exporter, you can specify an external version of ffmpeg to use instead of the built-in one. The version of ffmpeg distributed with Flame is tracking the very latest advancements in ffmpeg transcoding and performance, so sometimes using the latest version may result in performance improvements.
-
-Please note that the way h264 parameters are passed to ffmpeg has changed between the version that is used by default and the latest versions. By switching to the latest generation of ffmpeg, it is possible to implement exactly the recommended transcoding guidelines that results in optimal upload and performance on the {% include product %} side. You can find these guidelines here:
-
-https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Supervisor_Artist_sa_review_approval_sa_transcoding_html
-
-We only recommend changing the ffmpeg version if you are an advanced user. In that case, follow these steps:
-
-### Copying the settings hook
-
-All settings that need to be modified can be found in the settings hook that comes shipped with the Flame export app. In order to modify this hook, you first need to copy this hook file from its default location inside the app location into your configuration. Inside your project configuration, you'll typically find the hook file in a location similar to `install/apps/app_store/tk-flame-export/va.b.c/hooks/settings.py`. Copy this file into the `hooks` location inside of your configuration, e.g. `config/hooks`. We recommend renaming it to something a little more verbose than just `settings.py` in order to make it clear what it is:
-
-```
-install/apps/app_store/tk-flame-export/va.b.c/hooks/settings.py -> config/hooks/flame_export_settings.py
-```
-
-Now edit your Flame environment configuration file. This is typically `config/env/includes/flame.yml`. Under the `tk-flame-export` heading, you'll find the path to the hook being defined as `settings_hook: '{self}/settings.py'`. This essentially means that the configuration will look for the hook file inside the app location (e.g. `{self}`). Changing this to `settings_hook: '{config}/flame_export_settings.py'` will tell Toolkit to look for the hook file inside the configuration instad. In summary:
-
-```
-settings_hook: '{self}/settings.py' -> '{config}/flame_export_settings.py'
-```
-
-### Modifying the hook
-
-Now we are ready to start modifying our `config/hooks/flame_export_settings.py` hook! Open it up in a text editor. You'll notice several methods relating to ffmpeg and ffmpeg settings. The first one to modify is the following:
-
-```
-def get_external_ffmpeg_location(self):
- """
- Control which version of ffmpeg you want to use when doing transcoding.
- By default, this hook returns None, indicating that the app should use
- the built-in version of ffmpeg that comes with Flame.
-
- If you want to use a different version of ffmpeg, simply return the path
- to the ffmpeg binary here.
-
- :returns: path to ffmpeg as str, or None if the default should be used.
- """
- return None
-```
-
-By returning `None` by default, the exporter will use Flame's built-in ffmpeg. Change this to return a full path to your ffmpeg. Keep in mind that if you are running a backburner cluster, ffmpeg may be called from any machines in the cluster, so make sure the executable is installed everywhere.
-
-Now that once the ffmpeg location is updated, you most likely either need or want to tweak the parameters passed to ffmpeg. This needs to be changed in two different methods:
-
-- `get_ffmpeg_quicktime_encode_parameters` will return the parameters used when generating a quicktime to be uploaded to {% include product %}.
-
-- `get_local_quicktime_ffmpeg_encode_parameters` will return the parameters used when a quicktime is written to disk.
-
-For the {% include product %} upload, we recommend using the default {% include product %} encoding settings as a starting point:
-
-```
-def get_ffmpeg_quicktime_encode_parameters(self):
- return "-vcodec libx264 -pix_fmt yuv420p -vf 'scale=trunc((a*oh)/2)*2:720' -g 30 -b:v 2000k -vprofile high -bf 0"
-```
-
-For the local {% include product %} transcode, we recommend basing your settings on the {% include product %} transcode settings but removing the resolution constraints and increasing the bit rate:
-
-```
-def get_local_quicktime_ffmpeg_encode_parameters(self):
- return "-vcodec libx264 -pix_fmt yuv420p -g 30 -b:v 6000k -vprofile high -bf 0"
-```
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-flame-review.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-flame-review.md
deleted file mode 100644
index 7e7ddbd8b..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-flame-review.md
+++ /dev/null
@@ -1,46 +0,0 @@
----
-layout: default
-title: Flame Review
-pagename: tk-flame-review
-lang: en
----
-
-# Flame Review
-
-The {% include product %} Flame Review App makes it easy to push one or more sequences from Flame into {% include product %} review.
-
-Simply right click a sequence or a selection of sequences that you want to review:
-
-
-
-Select the {% include product %} Review Option:
-
-
-
-A Toolkit UI will appear where you can add some review notes:
-
-
-
-When you click ok, a background job will be generated and everything will happen behind the scenes.
-The following steps will be carried out:
-
-- The Sequence will be exported to disk as a quicktime. This export is handled as a Flame Quicktime export and you have complete control of the various settings via a configuration hook.
-
-- Once the sequence is complete, Toolkit will check if there is a matching Sequence in {% include product %}. If not, a Sequence will be created automatically.
-
-- A review version will be generated and associated with the sequence.
-
-- Lastly, the quicktime will be uploaded to the review version.
-
-The process supports audio tracks, transitions etc and should be a "what you see is what you get". Once in {% include product %}, you can review the media in many different ways, including the client review site and the {% include product %} iPhone app.
-
-## Customization and Settings
-
-The Flame Review app can be customized in a couple of different ways:
-
-- You can control which **Entity Type** that should be used in {% include product %} to represent a Sequnce in Flame. For example, if you are working on episodic content, it may make more sense to link your review versions to episodes in {% include product %} rather than sequences.
-
-- You can customize which tasks the app should automatically add to new items created in {% include product %}. This is done via a task template setting and allows you to standardize the structure that's created.
-
-- Via a hook, you get complete control over the xml preset that the app uses to generate a quicktime out of Flame.
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-hiero-export.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-hiero-export.md
deleted file mode 100644
index 6a4ee6c6b..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-hiero-export.md
+++ /dev/null
@@ -1,208 +0,0 @@
----
-layout: default
-title: Hiero/Nuke Studio Export
-pagename: tk-hiero-export
-lang: en
----
-
-# Hiero/Nuke Studio Export
-
-### Introduction
-
-This app adds {% include product %} awareness to Hiero's export dialog for sequences.
-
-#### Overview Video & Demo
-
-If you're new to {% include product %} Toolkit or the Hiero integration, check out the following video which gives a fast-paced overview of what you can do in your pipeline with the {% include product %} Toolkit Hiero integration.
-
-If you're already familiar with Toolkit and Hiero, then feel free to continue on to the docs below.
-
-
-
-
-
-### {% include product %} Shot Processor
-
-When this app activates itself it registers a bunch of changes with the Hiero export dialog:
-
-
-
-The first thing to notice is the new processor that is registered:
-
-
-
-When you click on this processor, there are some new things to notice.
-
-At the top of the dialog, there is extra UI that helps control how shots get created/updated in {% include product %} as a result of exporting the sequence:
-
-
-
-### Tags
-By adjusting the dropdowns you can map various Hiero tags into {% include product %} shot statuses and shot task templates. Thus via Hiero's tagging workflow you can set a {% include product %} shot to being in progress or setup the tasks for the Shot for a green screen, cg extra, or whatever makes sense for your configuration. This UI is populated via a hook and is easy to configure for extra functionality.
-
-### Collating
-There are also options to control collating track items together that mirror Hiero's built in logic. If you have multiple items that make up a shot (either overlapping, on different tracks or with the same shot name on multiple tracks) then you should turn these options on. This will cause the {% include product %} Toolkit Shot updater to treat the matching collated items as a single Shot.
-
-
-
-For example, assume we have two track items representing shots 010 and 020. 010 comes first and 020 overlaps with the end of 010 on a different track. Since 010 comes first, it's the hero and with collating enabled, {% include product %} treats the two items as a single shot, 010. This means Shot 010 will be created or updated in {% include product %}. The cut in will match the beginning of track item 010 and the cut out will match the end of track item 020. A Screening Room-ready Version will be created for each item, but both will be linked to Shot 010. A plate will be created for each item as a Published File but both will be linked to Shot 010. A single Nuke script will be published linked to Shot 010 containing 2 read nodes, one for each item. Note that in this situation, there is no creation or update to Shot 020 in {% include product %}, since it has been collated into Shot 010.
-
-
-
-### Paths
-Below the {% include product %} UI is the standard paths dialog. There are three items that are added to Shots via Hiero by default... a default Nuke script, a default Nuke write location, and a default location for a plate transcode. The locations of these items are determined by the app configuration and can make full use of the templating system:
-
-
-
-This app adds a `{tk_version}` token to Hiero which will be replaced by the version string, correctly formatted for {% include product %} Toolkit.
-
-### Custom Template Fields
-Any tokens you define in the `custom_template_fields` setting that are resolved by the `resolve_custom_strings` hook will automatically be added to Hiero's list of valid replacement tokens and will be considered valid replacements in your Toolkit template paths.
-
-For example, in your Toolkit `templates.yml` file, say you define a key with the following:
-
-```
- resolution:
- type: str
- filter_by: alphanumeric
-```
-
-In your `project.yml` settings for `tk-hiero-export` you have:
-
-```
- ...
- ...
- tk-hiero:
- apps:
- tk-hiero-export:
- custom_template_fields:
- - {description: Shot Resolution, keyword: resolution}
- ...
- ...
-```
-
-And then you modify the `resolve_custom_strings` hook with something like the following:
-
-```
-# Copyright (c) 2014 {% include product %} Software Inc.
-#
-# CONFIDENTIAL AND PROPRIETARY
-#
-# This work is provided "AS IS" and subject to the {% include product %} Pipeline Toolkit
-# Source Code License included in this distribution package. See LICENSE.
-# By accessing, using, copying or modifying this work you indicate your
-# agreement to the {% include product %} Pipeline Toolkit Source Code License. All rights
-# not expressly granted therein are reserved by {% include product %} Software Inc.
-
-from tank import Hook
-
-
-class HieroResolveCustomStrings(Hook):
- """Translates a keyword string into its resolved value for a given task."""
-
- RESOLUTION_TOKEN_NAME = "{resolution}"
-
-
- def execute(self, task, keyword, **kwargs):
- """
- """
-
- self.parent.log_debug("attempting to resolve custom keyword: %s" % keyword)
- if keyword == self.RESOLUTION_TOKEN_NAME:
- translated_value = self._clip_resolution_string(task)
- else:
- raise RuntimeError("No translation handler found for custom_template_field: %s" % keyword)
-
- self.parent.log_debug("Custom resolver: %s -> %s" % (keyword, translated_value))
- return translated_value
-
-
- # Handle the {resolution_fs} token
- def _clip_resolution_string(self, task):
- """ returns sequence resolution or task format override"""
- width = ""
- height = ""
-
- sequence_format = task._sequence.format()
-
- width = sequence_format.width()
- height = sequence_format.height()
-
- if "reformat" in task._preset.properties():
- task_reformat_settings = task._preset.properties()["reformat"]
- if task_reformat_settings['to_type'] != "None":
- width = task_reformat_settings['width']
- height = task_reformat_settings['height']
-
- return "%sx%s" % (width, height)
-```
-
-You can now not only use the `resolution` token in Hiero but it will validate against any template paths you have defined in Toolkit so you can export to a location like:
-
-```
- hiero_plate_path: "sequences/{Sequence}/{Shot}/hiero_plates/{resolution}/v{version}/{project}_{Shot}.mov"
-```
-
-
-### {% include product %} Tasks
-There are two new task types registered.
-
-##### {% include product %} Transcode Images
-This is a subclass of the standard Hiero transcoding task, which will register the results of the transcode as a Publish in {% include product %}. Optionally a Version will also be created in {% include product %}. If a Version is created, then a Quicktime will also be created and uploaded as Screening Room media.
-
-##### {% include product %} Nuke Project File
-This is a subclass of the standard Hiero Nuke script exporter, which registers the resulting Nuke script as a PublishedFile in {% include product %} linked to the Shot. The settings allow you to specify which Toolkit-enabled WriteNodes to include in the file on export.
-
-
-
-The app settings `plate_published_file_type` and `nuke_script_published_file_type` allow you to control what file type the PublishedFiles are registered as. In addition, `nuke_script_toolkit_write_nodes` allows you to control which WriteNode settings should be available in the export dialog.
-
-### Export process
-
-When the export is run, there will be some extra tasks that show up in the export queue:
-
-
-
-Each shot will run a {% include product %}ShotUpdater tasks that is responsible for creating the Shot in {% include product %} and creating the full Shot structure specified in the schema configuration:
-
-
-
-### Sequence and Shot updates in {% include product %}
-The name of the Hiero sequence will be used for the sequence name, and the
-shots will have their cut info filled in (Cut Order, Head In, Cut In, Cut Out,
-Tail Out, Cut Duration, and Working Duration). In addition if poster frames
-were selected for the sequence or the items that make up the shot, they will be
-uploaded as the thumbnails for the shots.
-
-If your workflow uses an entity other than **Sequence** as the shot parent
-(like **Episode**), then you can override the `get_shot_parent` method in the
-`hook_get_shot` hook. The default implementation creates (if necessary) and
-returns a **Sequence**.
-
-### Cut Schema Support
-If your {% include product %} site supports the Cuts schema (v7.0.0 or later), then this app
-will automatically generate a **Cut** with corresponding **CutItems** in
-{% include product %}. The **Cut** entity corresponds to the Hiero sequence and the
-**CutItems** correspond to the items in the sequence. The **Cut** will be
-linked to the parent entity (**Sequence** by default) as returned by the
-`get_shot_parent` method in the `hook_get_shot` hook. The **CutItems** will be
-associated with a **Shot** entity and linked to the reviewable **Version**
-created during the export. After exporting, the **Cut** will be playable in the
-**Media** tab in {% include product %} and in **RV**.
-
-All of the meta data associated with the **Cut** and **CutItem** entities is
-inferred from Hiero except the *Cut Type* field which can be specified in the
-export UI.
-
-
-
-The value here will show up in the **Type** field of the **Cut**.
-
-It should be noted that the Cut schema is not supported when either of the
-Collate options are selected, and creation of **Cut** and **CutItem** entries
-will be skipped.
-
-In addition, the Cut schema does not handle retimed clips. A debug warning will be logged when exporting retimed clips.
-
-### Alternate Shot Hierarchies
-For studios that don't work in the standard Sequence > Shot hierarchy, but perhaps use Episodes and/or Scenes, there is a hook `hiero_get_shot` that allows you to configure the app to work with whatever Shot hierarchy is in use at your studio.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-hiero-openinshotgun.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-hiero-openinshotgun.md
deleted file mode 100644
index 5f996200a..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-hiero-openinshotgun.md
+++ /dev/null
@@ -1,26 +0,0 @@
----
-layout: default
-title: Hiero/Nuke Studio Open in ShotGrid
-pagename: tk-hiero-openinshotgun
-lang: en
----
-
-# Hiero/Nuke Studio Open in {% include product %}
-
-This app adds a context menu to the Hiero spreadsheet and timeline that allows you to
-open a given track item in {% include product %} if there is a Shot for that item.
-
-
-
-You typically configure this app by adding it to the time line and spreadsheet menus in
-Hiero by adding the following to the {% include product %} Engine for Nuke configuration:
-
-```yaml
- timeline_context_menu:
- - {app_instance: tk-hiero-openinshotgun, keep_in_menu: false, name: "Open in {% include product %}", requires_selection: true}
- spreadsheet_context_menu:
- - {app_instance: tk-hiero-openinshotgun, keep_in_menu: false, name: "Open in {% include product %}", requires_selection: true}
-```
-
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-houdini-alembicnode.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-houdini-alembicnode.md
deleted file mode 100644
index 0bd39a42a..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-houdini-alembicnode.md
+++ /dev/null
@@ -1,53 +0,0 @@
----
-layout: default
-title: Houdini Alembic Node
-pagename: tk-houdini-alembicnode
-lang: en
----
-
-# Houdini Alembic Node
-
-The Houdini Alembic Node App provides a custom {% include product %} Alembic Output node which makes it easy to standardise the location where alembic files are output. It can be configured for each environment.
-
-## General Use
-
-In order to use the {% include product %} Alembic Output, save your script as a Toolkit work file first and then create a new node via the TAB menu in Houdini. This will create a node which looks similar to a normal Alembic output node:
-
-
-
-The node can be configured with multiple output profiles, each using a different template path for where the alembic cache should be written to disk.
-
-
-
-Rather than entering a path by hand, you just specify which output profile to use and the node will compute the rest of the path automatically. You can see the computed path in the UI.
-
-
-
-The output alembic files will be versioned and the version number will always follow the current Houdini scene file version which will be incremented automatically when you publish using Multi Publish.
-
-## Configuration
-
-The Toolkit alembic node provides the ability to specify multiple output profiles for an environment configuration. Here's an example of configuring the node with multiple profiles:
-
-
- tk-houdini:
- apps:
- tk-houdini-alembicnode:
- location:
- name: tk-houdini-alembicnode
- type: app_store
- version: v0.2.2
- work_file_template: houdini_shot_work
- default_node_name: tk_alembic_out
- output_profiles:
- - name: For Publishing
- settings: {}
- color: [1.0, 0.5, 0.0]
- output_cache_template: houdini_shot_work_alembic_cache
- - name: Local Testing
- settings: {}
- color: [0.0, 0.5, 1.0]
- output_cache_template: houdini_shot_local_alembic_cache
-
-
-You can use the output profiles to alter the look of the node via the `color` field, and you can adjust individual parms on the underlying Alembic node by supplying key/value pairs matching those parms in the `settings` field. Finally, the `output_cache_template` field drives the output path for the alembic cache written to disk.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-houdini-mantranode.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-houdini-mantranode.md
deleted file mode 100644
index 72984f85e..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-houdini-mantranode.md
+++ /dev/null
@@ -1,59 +0,0 @@
----
-layout: default
-title: Houdini Mantra Node
-pagename: tk-houdini-mantranode
-lang: en
----
-
-# Houdini Mantra Node
-
-The Houdini Mantra Node App provides a custom {% include product %} Mantra Output node which makes it easy to standardise the location where render files are output. It can be configured for each environment.
-
-## General Use
-
-In order to use the {% include product %} Mantra Node, save your script as a Toolkit work file first and then create a new node via the TAB menu in Houdini. This will create a node which looks similar to a normal Mantra output node:
-
-
-
-The node can be configured with multiple output profiles, each using a different set of template paths for where the render output (images, ifd, dcm, aov, etc) should be written to disk.
-
-
-
-Rather than entering a path by hand, you just specify which configuration to use and the node will compute the rest of the path automatically. You can see the computed path in the UI.
-
-
-
-The rendered files will be versioned and the version number will always follow the current Houdini scene file version which will be incremented automatically when you publish using Multi Publish.
-
-## Configuration
-
-The Toolkit mantra node provides the ability to specify multiple output profiles for an environment configuration. Here's an example of configuring the node with multiple profiles:
-
-
- tk-houdini:
- apps:
- tk-houdini-mantranode:
- location:
- name: tk-houdini-mantranode
- type: dev
- version: v0.2.2
- default_node_name: tk_mantra_out
- work_file_template: houdini_shot_work
- output_profiles:
- - name: Primary Render
- settings: {}
- color: [1.0, 0.5, 0.0]
- output_render_template: houdini_shot_render
- output_ifd_template: houdini_shot_ifd
- output_dcm_template: houdini_shot_dcm
- output_extra_plane_template: houdini_shot_extra_plane
- - name: Local Render
- settings: {}
- color: [0.0, 0.5, 1.0]
- output_render_template: houdini_shot_local_render
- output_ifd_template: houdini_shot_local_ifd
- output_dcm_template: houdini_shot_local_dcm
- output_extra_plane_template: houdini_shot_local_extra_plane
-
-
-You can use the output profiles to alter the look of the node via the `color` field, and you can adjust individual parms on the underlying Alembic node by supplying key/value pairs matching those parms in the `settings` field. Finally, the `output_*_template` fields drive the output paths for the files written to disk by the mantra renderer.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-mari-projectmanager.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-mari-projectmanager.md
deleted file mode 100644
index 81c2e8fa6..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-mari-projectmanager.md
+++ /dev/null
@@ -1,11 +0,0 @@
----
-layout: default
-title: Mari Project Manager
-pagename: tk-mari-projectmanager
-lang: en
----
-
-# Mari Project Manager
-
-The Mari Project Manager streamlines the process of creating new projects in Mari, allowing artists to quickly select published geometry to load using the {% include product %} Loader. Projects created with this app are {% include product %} aware, helping artists publish textures to other parts of the pipeline without having to be concerned about export options and file locations.
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-about.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-about.md
deleted file mode 100644
index 916c5b92c..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-about.md
+++ /dev/null
@@ -1,39 +0,0 @@
----
-layout: default
-title: About
-pagename: tk-multi-about
-lang: en
----
-
-# About
-
-This app gives a graphical breakdown of the current work area and all the apps running in the current environment. You can find it on the Context Menu:
-
-
-
-## Reload all apps
-There is a handy button this app that reloads the entire environment. This is useful if you are doing development and have made some code changes you want to try out! No need to restart Maya or Nuke, just hit the reload button!
-
-
-In addition to the reload feature, this apps shows a breakdown of your current work area and all the apps that are currently loaded.
-
-Three separate views exist:
-
-## Current Work Area
-
-
-
-This shows the current Shot or Asset, the current Task etc. If you double click any of the items in the list, the system will open the {% include product %} Detail page for that item.
-
-## Running Apps
-
-
-
-A view of all the currently running apps, along with their version and description. Double clicking an app will launch the documentation page for that app.
-
-
-## Current Environment
-
-
-
-A view of the currently loaded environment file and engine. This can be useful for debugging purposes 🎀
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-breakdown.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-breakdown.md
deleted file mode 100644
index 093ad4a8c..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-breakdown.md
+++ /dev/null
@@ -1,186 +0,0 @@
----
-layout: default
-title: Breakdown
-pagename: tk-multi-breakdown
-lang: en
----
-
-# Breakdown
-
-The Scene Breakdown app shows you a list of referenced content and tells you which items are out of date. You access it from the {% include product %} Menu.
-
-
-
-You can select one more more items and hit update selected. This will switch the items to use the latest version of the content.
-
-## Scanning the Scene
-
-When the breakdown app scans the scene for references, it will call a special scanning hook. The scanning hook will return a list of nodes with file corresponding paths. For each reference it finds, it returns the file path, and tank will look at the file path and first check if it recognizes it as a publish, and if it does, see if there is a more recent version available.
-
-If the user clicks the update button that is shown for outdated versions, the app will call another hook to do the actual update work. This means that by customizing these hooks it is relatively simple to add new custom nodes to the breakdown.
-
-## Accessing {% include product %} Data
-
-If you need to access {% include product %} data for the publish you are about to update to in the hook, this is straight forward; a single call to `find_publish` will retrieve metadata for all the items passed in from the app, like this:
-
-```python
-class BreakdownHook(Hook):
-
- def update(self, items):
- """
- Perform replacements given a number of scene items passed from the app.
-
- Once a selection has been performed in the main UI and the user clicks
- the update button, this method is called.
-
- The items parameter is a list of dictionaries on the same form as was
- generated by the scan_scene hook above. The path key now holds
- the that each node should be updated *to* rather than the current path.
- """
-
- engine = self.parent.engine
-
- # resolve {% include product %} data for all paths passed via the items dictionary
- sg_data = tank.util.find_publish(engine.sgtk,
- [i["path"] for i in items],
- fields=["id", "code", "version_number"])
-
- for i in items:
- node_name = i["node"]
- node_type = i["type"]
- new_path = i["path"]
- # now that each item is processed, it is easy to access the
- # {% include product %} data via a dictionary lookup:
- sg_data = sg_data.get(i["path"])
-
- # once we have all our desired info and metadata, we can go ahead
- # and apply the update business logic.
- # [-business logic here-]
-
-```
-
-## API Access
-
-You can access the breakdown app programatically using its API. The following methods exist:
-
-### Showing the breakdown UI
-
-```
-app_object.show_breakdown_dialog()
-```
-
-If you want to show the breakdown UI, execute the `show_breakdown_dialog()` method. Assuming the app is included under a `tk-multi-breakdown` section in your currently running environment, this could for example be done like this:
-
-```
->>> import sgtk
->>> e = sgtk.platform.current_engine()
->>> e.apps["tk-multi-breakdown"].show_breakdown_dialog()
-```
-
-### Running the scene analysis
-
-```
-items = app_object.analyze_scene()
-```
-
-You can programmatically run the scene analysis logic by executing the `analyze_scene()` method. This executes exactly the same logic that the breakdown UI uses when it builds the listing of scene items.
-
-The method returns a list of breakdown items. Each item is represented by a dictionary with a number of keys to describe the item. Only files whose path corresponds to a template in the Toolkit templates file will be detected. Files do not need to exist as publishes in {% include product %}, however if they do, this method will return basic {% include product %} publish metadata for them.
-
-The two keys `node_name` and `node_type` are used to return a DCC-centric "address" or representation which makes it possible to identify the path within the DCC. In for example Maya and Nuke, this will return the node name and type. The logic for this is implemented in the hooks and will vary between DCCs. This method will attempt to connect to {% include product %}, but the number of calls made are constant and independent of the scene complexity.
-
-Here is an example of what a dictionary in the return data typically looks like:
-
-```
-{'fields': {'Sequence': 'aaa',
- 'Shot': 'aaa_00010',
- 'Step': 'Comp',
- 'eye': '%V',
- 'height': 1556,
- 'name': 'test',
- 'output': 'output',
- 'version': 1,
- 'width': 2048},
- 'template': ,
-
- 'node_name': 'Read2',
- 'node_type': 'Read',
-
- 'sg_data': {'code': 'aaa_00010_test_output_v001.%04d.dpx',
- 'entity': {'id': 1660, 'name': 'aaa_00010', 'type': 'Shot'},
- 'id': 1424,
- 'name': 'test',
- 'published_file_type': {'id': 3,
- 'name': 'Rendered Image',
- 'type': 'PublishedFileType'},
- 'task': {'id': 4714, 'name': 'Comp', 'type': 'Task'},
- 'type': 'PublishedFile',
- 'project': {'id': 234, 'name': 'Climp', 'type': 'Project'},
- 'version_number': 1},
- }
-```
-
-**Handy Tip!**: As you can see above, each item returns a `template` object and a `fields` dictionary to represent the path. If you want to see the actual raw path for the item, you can simply run `template_obj.apply_fields(fields_dict)`. In the context of one of the item dictionaries returned by this method, the code would be
-
-```
-breakdown_items = analyze_scene()
-for item in breakdown_items:
- path = item["template"].apply_fields(item["fields"])
-```
-
-
-### Computing the highest version for an item
-
-```
-highest_version = app_object.compute_highest_version(template, fields)
-```
-
-In order to figure out the highest version for an item, use the `compute_highest_version(template, fields)` method. The `template` and `fields` parameters represent a path that should be analyzed are typically grabbed from the output of the `analyze_scene()` method. With the breakdown app, the template key containing the version number is always required to be named `{version}`.
-
-This will perform a scan on disk to determine the highest version. The method returns the highest version number found on disk. See the usage example below for more details.
-
-
-### Updating a scene item
-
-```
-app_object.update_item(node_type, node_name, template, fields)
-```
-
-In order to update an item, you can use the `update_item(node_type, node_name, template, fields)` method. The `template` and `fields` parameters represent a path that should be updated to. The `node_name` and `node_type` parameters are used to identify which node in the scene should be modified. Typically, these values are grabbed from the output of the `analyze_scene()` method.
-
-This is similar to running the update in the breakdown UI. The actual update call will be dispatched to a hook which handles the DCC specific logic. See the usage example below for more details.
-
-
-
-
-### Breakdown API example
-
-Below is an example showing how to retrieve the scene breakdown and update all items that are not using the latest version.
-
-```
-# find the breakdown app instance
-import sgtk
-engine = sgtk.platform.current_engine()
-breakdown_app = engine.apps["tk-multi-breakdown"]
-
-# get list of breakdown items
-items = breakdown_app.analyze_scene()
-
-# now loop over all items
-for item in items:
-
- # get the latest version on disk
- latest_version = breakdown_app.compute_highest_version(item["template"], item["fields"])
-
- # if our current version is out of date, update it!
- current_version = item["fields"]["version"]
- if latest_version > current_version:
-
- # make a fields dictionary representing the latest version
- latest_fields = copy.copy(item["fields"])
- latest_fields["version"] = latest_version
-
- # request that the breakdown updates to the latest version
- breakdown_app.update_item(item["node_type"], item["node_name"], item["template"], latest_fields)
-
-```
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-demo.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-demo.md
deleted file mode 100644
index d6935ac11..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-demo.md
+++ /dev/null
@@ -1,36 +0,0 @@
----
-layout: default
-title: Demo
-pagename: tk-multi-demo
-lang: en
----
-
-# Demo
-
-The Demo App provides live demonstrations of {% include product %}'s native developer platform components including the {% include product %} Utilities framework, the Qt Widgets frameworks and Toolkit core.
-
-
-
-Each demo displayed in the app includes a working, interactive UI that shows how to use one or more components of the native platform. In addition, the code that is running is readily available to copy and paste into your own app.
-
-
-
-The app is simple to use. Just select a demo from the list on the left and then interact with the components on the right. Some demos are as simple as displaying a single widget from the Qt Widgets framework. Other demos provide examples of how {% include product %} platform components are commonly wired up for use in production apps.
-
-
-
-
-
-New demos will be added as new components are added to the platform and as time permits. If there is a common pattern of component usage or a demo that you'd like to see, please let us know by [submitting a ticket](https://knowledge.autodesk.com/contact-support).
-
-## Installation
-
-To install the demo app, run the following command:
-
-```
-tank install_app project tk-shell tk-multi-demo
-```
-
-Once installed, you can run the following command to launch the app:
-
-`./tank demos`
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-launchapp.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-launchapp.md
deleted file mode 100644
index 802453966..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-launchapp.md
+++ /dev/null
@@ -1,176 +0,0 @@
----
-layout: default
-title: Launch App
-pagename: tk-multi-launchapp
-lang: en
----
-
-# Launch App
-
-This app provides a shortcut to make it easy to jump from {% include product %} to any supported application. It registers a {% include product %} Action entry called for various entities in {% include product %} according to your configuration choices.
-
-## How It Works
-
-Depending on your configuration options a menu entry will appear in {% include product %} when right-clicking entities or using the {% include product %} actions menu or gear menu.
-
-For example, this screenshot comes from a site who's configuration uses this app three times to implement menus for Maya, Nuke and Photoshop.
-
-
-
-Currently supported applications and engines are:
-
-* 3DSMax
-* Hiero
-* Maya
-* MotionBuilder
-* Nuke
-* Photoshop
-* Mari
-* Houdini
-* Softimage
-* Flame
-
-### Use Command Line Arguments at Launch
-
-Many applications have command line options that can be called to choose a different edition of the application (ex. Nuke vs. NukeX) or to specify other various usage aspects. The launcher app has an 'args' setting for each OS that can be configured for this purpose. For example if you put '--nukex' there, it will add that to the command line launch and NukeX will run instead of regular Nuke:
-
----FOLD---
-Launch NukeX Example
-
-```yaml
-launch_nuke:
- engine: tk-nuke
- extra: {}
- hook_app_launch: default
- hook_before_app_launch: default
- linux_args: '--nukex'
- linux_path: '@nuke_linux'
- location: {name: tk-multi-launchapp, type: app_store, version: v0.2.15}
- mac_args: '--nukex'
- mac_path: '@nuke_mac'
- menu_name: Launch Nuke
- windows_args: '--nukex'
- windows_path: '@nuke_windows'
-```
----FOLD---
-
-### Set Environment Variables and Automate Behavior at Launch
-
-Applications often require certain certain environment variables, plugin paths, etc. to be set in order to properly function in a studio pipeline. The launch app helps cover this case via the 'before_app_launch' hook, which allows you to define a snippet of code to run each time an application starts up. By default, the 'before_app_launch' hook is a simple pass-through that does nothing, but it can be overridden by following the instructions in this doc.
-
-For example, if you use Zync Render, the Zync Maya plugin directory needs to be part of both `$PYTHONPATH` and `$XBMLANGPATH`. To have the launch app set these environment variables, update the `before_app_launch` hook with a few lines of code, as follows:
-
----FOLD---
-Set Environment Variables Example
-
-```python
-def execute(self, **kwargs):
- """
- The execute functon of the hook will be called to start the required application
- """
-
- # Example to show how to set env vars on Maya launch
-
- # Append the desired path to the existing $PYTHONPATH to ensure
- # everything upstream still works
- os.environ["PYTHONPATH"] = os.environ["PYTHONPATH"] + os.pathsep + "~/Library/zync/zync-maya"
-
- # Set $XBMLANGPATH to the desired path, may need to append it as
- # with $PYTHONPATH if already defined in your pipeline
- os.environ["XBMLANGPATH"] = "~/Library/zync/zync-maya"
-```
----FOLD---
-
-You can also use the 'before_app_launch' to automate other behavior, including {% include product %} updates. For example, you can configure the launch app to update the Task status (in this case, to "in progress") each time it's run (as long as the launch is from a Task, of course), as follows:
-
----FOLD---
-Automate Task Status Update Example
-
-```python
-def execute(self, **kwargs):
- """
- The execute functon of the hook will be called to start the required application
- """
-
- # If there is a Task in the context, set its status to 'ip'
-
- if self.parent.context.task:
- task_id = self.parent.context.task['id']
- data = {
- 'sg_status_list':'ip'
- }
- self.parent.shotgun.update("Task", task_id, data)
-```
----FOLD---
-
-As you can imagine, there are many possibilities here, and the launch app aims to provide the flexibility your pipeline needs.
-
-### Launching Applications that do not have an Engine Yet
-
-You can also use the launch app to start up applications that do not have a Toolkit engine yet. In this case, folders will be created on disk for the shot, task or asset you are launching from and the application will be launched, but no code will run after application startup and no {% include product %} menu will appear inside the application. This means that you can launch applications that are not yet supported by Toolkit from within {% include product %}.
-
-In order to do this, configure the app with paths to the application you wish to launch, but leave the engine option as an empty string.
-
-## Technical Details
-
-### 3DSMax
-
-This app automatically adds a MaxScript, `init_tank.ms`, to the 3DSMax command line that 3DSMax will run as part of its boot process.
-
-When 3DSMax is booting, the following will happen:
-
-1. 3DSMax will run `init_tank.ms` upon starting
-1. `init_tank.ms` makes sure a Python interpreter is available and runs `tank_startup.py`
-1. Using the {% include product %} Toolkit Context API, the entity id passed from {% include product %} is converted into a Toolkit Context.
-1. Start the appropriate Engine (via `tank.system.start_engine()`) and pass in the Context. The engine will take care of the rest.
-
-### Maya
-
-This app registers a `userSetup.py` auto start script with Maya which Maya will call as part of its boot process.
-
-When Maya is booting, the following will happen:
-
-1. Maya starts execution of the `userSetup.py` startup script
-1. Using the {% include product %} Toolkit Context API, the entity id passed from {% include product %} is converted into a Toolkit Context.
-1. Start the appropriate Engine (via `tank.system.start_engine()`) and pass in the Context. The engine will take care of the rest.
-
-### MotionBuilder
-
-This app registers a `init_tank.py` auto start script with MotionBuilder which MotionBuilder will call as part of its boot process.
-
-When MotionBuilder is booting, the following will happen:
-
-1. MotionBuilder starts execution of the `init_tank.py` startup script
-1. Using the {% include product %} Toolkit Context API, the entity id passed from {% include product %} is converted into a Toolkit Context.
-1. Start the appropriate Engine (via `tank.system.start_engine()`) and pass in the Context. The engine will take care of the rest.
-
-### Nuke
-
-This app registers a `menu.py` auto start script with Nuke which Nuke will call as part of its boot process.
-
-When Nuke is booting, the following will happen:
-
-1. Nuke starts execution of the `menu.py` startup script
-1. Using the {% include product %} Toolkit Context API, the entity id passed from {% include product %} is converted into a Toolkit Context.
-1. Start the appropriate Engine (via `tank.system.start_engine()`) and pass in the Context. The engine will take care of the rest.
-
-### Photoshop
-
-This app will use the Adobe Extension Manager to install or make sure the Tank plugin is installed.
-
-When Photoshop is booting, the following will happen:
-
-1. Photoshop will start the execution of the Tank Plugin
-1. Using the {% include product %} Toolkit Context API, the entity id passed from {% include product %} is converted into a Toolkit Context.
-1. Start the appropriate Engine (via `tank.system.start_engine()`) and pass in the Context. The engine will take care of the rest.
-
-#### Extra configs
-
-If you intend to use this app to launch Photoshop you will need to supply four config values in the _extra_ section. Here are the configs and sane default values which you would need to adjust for your system and installation locations:
-
-```yaml
-mac_python_path: "/usr/bin/python"
-windows_python_path: "C:\\Python27\\python.exe"
-mac_extension_manager_path: "/Applications/Adobe Extension Manager CS6/Adobe Extension Manager CS6.app"
-windows_extension_manager_path: "C:\\Program Files (x86)\\Adobe\\Adobe Extension Manager CS6\\XManCommand.exe"
-```
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-loader2.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-loader2.md
deleted file mode 100644
index 1b4c77cfe..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-loader2.md
+++ /dev/null
@@ -1,219 +0,0 @@
----
-layout: default
-title: Loader
-pagename: tk-multi-loader2
-lang: en
----
-
-# Loader
-
-This document describes functionality only available if you have taken control over a Toolkit configuration. Please refer to the [{% include product %} Integrations User Guide](https://developer.shotgridsoftware.com/d587be80/) for details.
-
-## Configuration
-
-The loader is highly configurable and you can set it up in many different ways. There are two main configuration areas:
-
-- Setting up what tabs and what content to display in the left hand side tree view.
-- Controlling which actions to display for different publishes and controlling what the actions actually do.
-
-The following sections will give a high level overview how you can configure the loader.
-For technical minutiae relating to the configuration, please see the separate section further down in the documentation.
-
-### The tree view
-
-The tree view is highly configurable and you can control the content of the various tabs using standard {% include product %} filter syntax. Each tab consists of a single {% include product %} API query which is grouped into a hierarchy. You can add arbitrary filters to control which items are being shown, and you can use the special keywords `{context.entity}`, `{context.project}`, `{context.project.id}`, `{context.step}`, `{context.task}` and `{context.user}` to scope a query based on the current context. Each of these keywords will be replaced with the relevant context information, either `None`, if that part of the context is not populated or a standard {% include product %} link dictionary containing the keys id, type and name.
-
-By default, the loader will show assets and shots belonging to the current project. By reconfiguring, this could easily be extended to for example show items from other projects (or a specific asset library project for example). You could also for example use filters to only show items with certain approval status or group items by status or by other {% include product %} fields. Below are some sample configuration settings illustrating how you could set up your tree view tabs:
-
-```yaml
-# An asset library tab which shows assets from a specific
-# {% include product %} project
-caption: Asset Library
-entity_type: Asset
-hierarchy: [sg_asset_type, code]
-filters:
-- [project, is, {type: Project, id: 123}]
-
-# Approved shots from the current project
-caption: Shots
-hierarchy: [project, sg_sequence, code]
-entity_type: Shot
-filters:
-- [project, is, '{context.project}']
-- [sg_status_list, is, fin]
-
-# All assets for which the current user has tasks assigned
-caption: Assets
-entity_type: Task
-hierarchy: [entity.Asset.sg_asset_type, entity, content]
-filters:
-- [entity, is_not, null]
-- [entity, type_is, Asset]
-- [task_assignees, is, '{context.user}']
-- [project, is, '{context.project}']
-```
-
-### Filtering publishes
-
-It is possible to apply a {% include product %} filter to the publish query that the loader carries out when it loads publish data from {% include product %}. This is controlled via the `publish_filters` parameter and can be used for example to hide publishes that have not been approved or where their associated review version has not been approved.
-
-### Help, no actions are showing up!
-
-The loader comes with a number of different *actions* for each engine. For example, in the case of Nuke, there are two actions: "import script" and "create read node". Actions are defined in hooks, meaning that you can modify their behaviour or add additional actions if you wanted to. Then, in the configuration for the loader, you can bind these actions to certain *publish types* you have. Binding an action to a publish type basically means that the action will appear on the actions menu for all items of that type inside the loader.
-
-As an example, by default, the mappings for Nuke are set up like this:
-
-```
-action_mappings:
- Nuke Script: [script_import]
- Rendered Image: [read_node]
-```
-
-If you are finding that no action menus are showing up, it may be because you have chosen different names for the publish types that you are using. In that case, go into the config and add those types in order to have them show up inside the loader.
-
-### Managing actions
-
-For each application that the loader supports, there is an actions hook which implements the actions that are supported for that application. For example, with something like Maya, the default hook will implement the `reference`, `import` and `texture_node` actions, each carrying out specific Maya commands to bring content into the current Maya scene. As with all hooks, it is perfectly possible to override and change these, and it is also possible to create a hook that derives from the built in hook, making it easy to add additional actions to a built-in hook without having to duplicate lots of code.
-
-Once you have defined a list of actions in your actions hook, you can then bind these actions to Publish File types. For example, if you have a Publish File type in your pipeline named "Maya Scene" you can bind this in the configuration to the `reference` and `import` actions that are defined in the hook. By doing this, Toolkit will add a reference and an import action to each Maya Scene publish that is being shown. Separating the Publish Types from the actual hook like this makes it easier to reconfigure the loader for use with a different publish type setup than the one that comes with the default configuration.
-
-The loader uses Toolkit's second generation hooks interface, allowing for greater flexibility. This hook format uses an improved syntax. You can see this in the default configuration settings that are installed for the loader, looking something like this:
-
-```
-actions_hook: '{self}/tk-maya_actions.py'
-```
-
-The `{self}` keyword tells Toolkit to look in the app `hooks` folder for the hook. If you are overriding this hook with your implementation, change the value to `{config}/loader/my_hook.py`. This will tell Toolkit to use a hook called `hooks/loader/my_hook.py` in your configuration folder.
-
-Another second generation hooks feature that the loader is using is that hooks no longer need to have an `execute()` method. Instead, a hook is more like a normal class and can contain a collection of methods that all makes sense to group together. In the case of the loader, your actions hook will need to implement the following two methods:
-
-```
-def generate_actions(self, sg_publish_data, actions, ui_area)
-def execute_multiple_actions(self, actions)
-```
-
-For more information, please see the hook files that come with the app. The hooks also take advantage of inheritance, meaning that you don't need to override everything in the hook, but can more easily extend or augment the default hook in various ways, making hooks easier to manage.
-
-Note that in versions previous to `v1.12.0`, the application invoked the `execute_action` hook to execute an action. Newer versions invoke the `execute_multiple_actions` hook. In order to provide backward compatibility with existing hooks, the `execute_multiple_actions` hook actually invokes `execute_action` for each actions provided. If the application is reporting that the `execute_multiple_actions` hook is not defined after upgrading to `v1.12.0` or later, make sure that the `actions_hook` setting in your environment correctly inherits from the builtin hook `{self}/{engine_name}_actions.py`. To learn more about how you can derive custom hooks from the builtin ones, see our [Toolkit reference documentation](http://developer.shotgridsoftware.com/tk-core/core.html#hook).
-
-LINKBOX_DOC:5#The%20hook%20data%20type:Learn more about the second gen hook format here.
-
-By using inheritance in your hook, it would be possible to add additional actions to the default hooks like
-this:
-
-```python
-import sgtk
-import os
-
-# toolkit will automatically resolve the base class for you
-# this means that you will derive from the default hook that comes with the app
-HookBaseClass = sgtk.get_hook_baseclass()
-
-class MyActions(HookBaseClass):
-
- def generate_actions(self, sg_publish_data, actions, ui_area):
- """
- Returns a list of action instances for a particular publish.
- This method is called each time a user clicks a publish somewhere in the UI.
- The data returned from this hook will be used to populate the actions menu for a publish.
-
- The mapping between Publish types and actions are kept in a different place
- (in the configuration) so at the point when this hook is called, the loader app
- has already established *which* actions are appropriate for this object.
-
- The hook should return at least one action for each item passed in via the
- actions parameter.
-
- This method needs to return detailed data for those actions, in the form of a list
- of dictionaries, each with name, params, caption and description keys.
-
- Because you are operating on a particular publish, you may tailor the output
- (caption, tooltip etc) to contain custom information suitable for this publish.
-
- The ui_area parameter is a string and indicates where the publish is to be shown.
- - If it will be shown in the main browsing area, "main" is passed.
- - If it will be shown in the details area, "details" is passed.
- - If it will be shown in the history area, "history" is passed.
-
- Please note that it is perfectly possible to create more than one action "instance" for
- an action! You can for example do scene introspection - if the action passed in
- is "character_attachment" you may for example scan the scene, figure out all the nodes
- where this object can be attached and return a list of action instances:
- "attach to left hand", "attach to right hand" etc. In this case, when more than
- one object is returned for an action, use the params key to pass additional
- data into the run_action hook.
-
- :param sg_publish_data: {% include product %} data dictionary with all the standard publish fields.
- :param actions: List of action strings which have been defined in the app configuration.
- :param ui_area: String denoting the UI Area (see above).
- :returns List of dictionaries, each with keys name, params, caption and description
- """
-
- # get the actions from the base class first
- action_instances = super(MyActions, self).generate_actions(sg_publish_data, actions, ui_area)
-
- if "my_new_action" in actions:
- action_instances.append( {"name": "my_new_action",
- "params": None,
- "caption": "My New Action",
- "description": "My New Action."} )
-
- return action_instances
-
-
- def execute_action(self, name, params, sg_publish_data):
- """
- Execute a given action. The data sent to this be method will
- represent one of the actions enumerated by the generate_actions method.
-
- :param name: Action name string representing one of the items returned by generate_actions.
- :param params: Params data, as specified by generate_actions.
- :param sg_publish_data: {% include product %} data dictionary with all the standard publish fields.
- :returns: No return value expected.
- """
-
- # resolve local path to publish via central method
- path = self.get_publish_path(sg_publish_data)
-
- if name == "my_new_action":
- # do some stuff here!
-
- else:
- # call base class implementation
- super(MyActions, self).execute_action(name, params, sg_publish_data)
-```
-
-We could then bind this new action to a set of publish types in the configuration:
-
-```yaml
-action_mappings:
- Maya Scene: [import, reference, my_new_action]
- Maya Rig: [reference, my_new_action]
- Rendered Image: [texture_node]
-```
-
-By deriving from the hook as shown above, the custom hook code only need to contain the actual added business logic which makes it easier to maintain and update.
-
-## Reference
-
-The following methods are available on the app instance.
-
-### open_publish()
-Presents an 'Open File' style version of the Loader that allows the user to select a publish. The selected publish is then returned. The normal actions configured for the app are not permitted when run in this mode.
-
-app.open_publish( `str` **title**, `str` **action**, `list` **publish_types** )
-
-**Parameters and Return Value**
-* `str` **title** - The title to be displayed in the open publish dialog.
-* `str` **action** - The name of the action to be used for the 'open' button.
-* `list` **publish_types** - A list of publish types to use to filter the available list of publishes. If this is empty/None then all publishes will be shown.
-* **Returns:** A list of {% include product %} entity dictionaries that were selected by the user.
-
-**Example**
-
-```python
->>> engine = sgtk.platform.current_engine()
->>> loader_app = engine.apps.get["tk-multi-loader2"]
->>> selected = loader_app.open_publish("Select Geometry Cache", "Select", ["Alembic Cache"])
->>> print selected
-```
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-publish2.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-publish2.md
deleted file mode 100644
index b49eadc10..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-publish2.md
+++ /dev/null
@@ -1,19 +0,0 @@
----
-layout: default
-title: Publish
-pagename: tk-multi-publish2
-lang: en
----
-
-# Publish
-
-
-
-## Overview
-
-The Publish app allows artists to publish their work so that it can be used by artists downstream. It supports traditional publishing workflows within the artist’s content creation software as well as stand-alone publishing of any file on disk. When working in content creation software and using the basic {% include product %} integration, the app will automatically discover and display items for the artist to publish. For more sophisticated production needs, studios can write custom publish plugins to drive artist workflows.
-
-## Documentation
-
-Full documentation for the Publisher can be found [here](https://developer.shotgridsoftware.com/d587be80/?title=Integrations+User+Guide#the-publisher)!
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-pythonconsole.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-pythonconsole.md
deleted file mode 100644
index 2fd12eeae..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-pythonconsole.md
+++ /dev/null
@@ -1,87 +0,0 @@
----
-layout: default
-title: Python Console
-pagename: tk-multi-pythonconsole
-lang: en
----
-
-# Python Console
-
-This is a python console panel for use in DCCs with access to a python interpreter that have limited or no support for interacting with said interpreter.
-
-
-
-## Panel
-
-
-
-Once installed, the console is registered as a panel in the DCC and is available in the {% include product %} menu. In apps that support embedded Toolkit panels(maya, nuke, houdini), the console will display in a docked panel. When using with older versions of these DCCs or in a DCC that does not support panels, the console will simply be shown as a regular Toolkit dialog.
-
-## Tabs
-
-
-
-The python console displays one or more tabs, each containing an editor and an output window. New tabs can be created by clicking the `+` button in the bottom right hand corner. Tabs have an `x` button next to the tab name that allow you to delete the tab. Double clicking the tab itself will prompt you to enter a new name for the tab. Tabs can be rearranged via drag and drop. The state of the tabs is saved when the DCC is closed and restored on the next launch.
-
-### Editor
-
-
-
-The console has an input area for editing python. The editor includes line numbers, highlights the cursor's current line, and does some basic syntax highlighting. The console attempts to use the palette of the DCC to give it an integrated look and feel.
-
-Block indenting and unindenting is supported. Select one or more lines and press `tab` to indent by four spaces or `shift + tab` to unindent by four spaces. It tries to keep the indentation in blocks of four so it will indent/unindent to the nearest whole block of four spaces.
-
-Block commenting and uncommenting is also supported. Select one or more lines and press `cmd + /` on Mac, `ctrl + /` for Windows and Linux. If any of the selected lines don't have a `#` at the start it will add one to all selected lines. If all the lines do have a `#`, then it will remove them.
-
-### Output
-
-
-
-The output area displays the results of the executed python. Echoing the source python commands is turned on by default and is differentiated in the output by being prefixed with `>>>`. Each execution is also marked with a timestamp. There is a toggle for turning the echo off. Syntax and Runtime errors are shown in red with a full stack trace for debugging.
-
-## Buttons
-
-
-
-### Output
-
-* **Clear** - Clear the contents of the output browser.
-* **Echo** - Toggle echoing the executed commands in the output browser.
-
-### Editor
-
-* **Execute** - Execute the contents of the editor
-* **Save** - Save the current contents of the editor to a file.
-* **Open** - Open a file in the editor.
-* **Clear** - Clear the contents of the editor.
-* **Lines** - Toggle line numbers for the current tab
-
-## Globals
-
-
-
-Some {% include product %}/Toolkit globals are pre-defined in the console, similar to what is available in the [{% include product %} Engine for the shell](https://support.shotgunsoftware.com/entries/95441287).
-
- * Tk API handle is available via the `tk` variable
- * {% include product %} API handle is available via the `shotgun` variable
- * The current context is stored in the `context` variable
- * The shell engine can be accessed via the `engine` variable
-
-## External sources
-
-The app comes with a hook that can be implemented to load python source from an external location. The hook is called `external_sources_hook` and requires implementing a method called `get_external_source_actions`. The method should return a list of `QActions` that, when triggered, add a new tab (with content)to the console. An example implementation is provided that loads gists from github for a list of predefined users. The actions returned by the hook are shown in the popup menu displayed when the **Open** button is pressed and held.
-
-
-
-## Hotkeys
-
-* Execute selected with `Ctrl + Enter`
-* Create a new tab with `Ctrl + T`
-* Navigate tabs with `Ctrl + Shift + [` or `Ctrl + Shift + ]`
-* Resize input/output font via `Ctrl + Wheel`
-
-**NOTE:** These hotkeys may not be available in all DCCs.
-
-## Other notes
-
-* In some older versions of DCCs, leaving the python console open when closing the session may cause a crash. We believe this may be a bug in some older versions of PySide. More recent versions of DCCs, bundled with newer versions of PySide, do not appear to crash on exit. If you encounter this issue with a recent DCC release, please [submit a ticket](https://knowledge.autodesk.com/contact-support) so that we can investigate further.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-reviewsubmission.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-reviewsubmission.md
deleted file mode 100644
index 8fa61b156..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-reviewsubmission.md
+++ /dev/null
@@ -1,84 +0,0 @@
----
-layout: default
-title: Review Submission
-pagename: tk-multi-reviewsubmission
-lang: en
----
-
-# Review Submission
-
-## How do I use this App?
-
-### As an API
-
-This app have a mode that is meant to be called from inside other apps like the multi-publish app.
-
-This mode creates quicktimes from image sequences and submits them as Versions to {% include product %} in order to facilitate review. The generated quicktimes will have slates and burnins. Things such as font, logo position, movie compression options and burnin / slate information are currently hardcoded in the default hooks and as such you are encouraged to re-implement the hook function to adjust the behaviour.
-
-Here are a the current default formats for slate and burnin:
-
-
-
-
-
-Should you want to leverage this app from within your own apps or hooks here is a quick rundown of the simple way to go about it.
-
-- Get the `tk-multi-reviewsubmission` app from the current engine. This can be done
- from inside a hook using the call `self.parent.engine.apps.get('tk-multi-reviewsubmission')`.
-- If the app is available, call the `render_and_submit_version()` method.
-
-Here's an example of what this can look like inside your hook code:
-
-```python
-review_submission_app = self.parent.engine.apps.get("tk-multi-reviewsubmission")
-if review_submission_app:
- review_submission_app.render_and_submit_version(
- template,
- fields,
- first_frame,
- last_frame,
- sg_publishes,
- sg_task,
- comment,
- thumbnail_path,
- progress_cb,
- color_space
- )
-```
-
-The arguments that you need to pass to `render_and_submit_version` are as follows:
-
-* `template`: A template that defines where the files to publish are located
-* `fields`: Fields that will be used to fill out the template
-* `first_frame`: The first frame of the image sequence to process
-* `last_frame`: The last frame of the image sequence to process
-* `sg_publishes`: A list of {% include product %} Published File objects to link the version to.
-* `sg_task`: A {% include product %} Task link dictionary to link the version to.
-* `comment`: Text to add to the Version's description.
-* `thumbnail_path`: The path to a thumbnail to use for the version when the movie isn't being uploaded to {% include product %} (this is set in the config)
-* `progress_cb`: A callback to report progress with. This should be of the form: `callback(percent, message)`
-* `color_space`: The color space that the input frames are in. In Nuke, this would be one of the enumeration values on the colorspace knob for the Write node.
-
-### As a menu item
-
-This mode adds a menu item to the {% include product %} menu inside the DCC.
-
-This mode creates a quick snapshot of the current viewport and sends it to {% include product %} Create as a Version draft. Then, the user can extend the review submission inside of {% include product %} Create by adding annotations, text or comparison notes.
-
-In order to add this functionality to your context, you need to:
-* Set the `display_name` field to have it in the menu item.
-* Set the `render_media_hook` field to a hook that tells how to render media in your DCC (tk-photoshopcc and tk-maya have a default implementation)
-* Set the `submitter_hook` field to `{self}/submitter_create.py`
-
-Like this:
-
-```yaml
-tk-multi-reviewsubmission:
- display_name: Send for review
- render_media_hook: '{self}/render_media.py:{self}/{engine_name}/render_media.py'
- submitter_hook: '{self}/submitter_create.py'
- location:
- type: app_store
- name: tk-multi-reviewsubmission
- version: v1.0.1
-```
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-screeningroom.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-screeningroom.md
deleted file mode 100644
index 2f7563dd5..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-screeningroom.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Screening Room
-pagename: tk-multi-screeningroom
-lang: en
----
-
-# Screening Room
-
-This is a small app that hooks up your current Maya session with Screening Room. It will add an item to the {% include product %} menu saying **Jump to Screening Room**. Clicking this button will launch Screening Room and point it at the current {% include product %} Toolkit Context - for example a Shot, Asset or a Task. You can then use Screening Room to browse all submitted content.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-setframerange.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-setframerange.md
deleted file mode 100644
index f390a7b0b..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-setframerange.md
+++ /dev/null
@@ -1,48 +0,0 @@
----
-layout: default
-title: Set Frame Range
-pagename: tk-multi-setframerange
-lang: en
----
-
-# Set Frame Range
-
-This app helps managing the frame range in the currently open scene. You can access it from the {% include product %} menu by clicking the **Sync Frame Range with {% include product %}** menu option.
-
-When you click it, the {% include product %} Toolkit will look at the {% include product %} entity associated with the current work area (typically a Shot) and look for in and out fields which contain the in and out frame information. Typically, this is something used in conjunction with Shots and in that case the app uses the standard shot in and out fields defined in {% include product %}'s default config. However, it is perfectly possible to configure the app to pull the frame ranges from other fields too.
-
-
-
-Once you run the App, it will update the current scene with those ins and outs and finally display a summary message:
-
-
-
-## Multiple {% include product %} field synchronisation options
-
-You can define multiple instances of this app in the {% include product %} Menu by setting the `menu_name` property. This allows the possibility to define a multiple menu actions for synchronization of different {% include product %} fields.
-
-To do this, set a different app instance name, `menu_name` and in and out frame fields for each instance:
-
-```yaml
-tk-multi-setframerange_cuts:
- menu_name: Sync frame range using cut fields
- sg_in_frame_field: sg_cut_in
- sg_out_frame_field: sg_cut_out
- location: "@apps.tk-multi-setframerange.location"
-tk-multi-setframerange_handles:
- menu_name: Sync frame range using handle fields
- sg_in_frame_field: sg_handle_in
- sg_out_frame_field: sg_handle_out
- location: "@apps.tk-multi-setframerange.location"
-```
-These should then appear as separate options in the {% include product %} menu:
-
-
-
-Note: this is new to version `v0.4.0` of the app.
-
-## Operations hook
-
-The software specific logic for getting the current scene frame range or setting the frame range is handled in the frame operations hook. If you are wanting to add support for a new engine or want to change how the behaviour is implemented, you can take over the frame operations hook by setting the `hook_frame_operation` app property and implementing your own get and set logic.
-
-Note: this is new to version `v0.4.0` of the app.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-shotgunpanel.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-shotgunpanel.md
deleted file mode 100644
index 3da25a64d..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-shotgunpanel.md
+++ /dev/null
@@ -1,194 +0,0 @@
----
-layout: default
-title: ShotGrid Panel
-pagename: tk-multi-shotgunpanel
-lang: en
----
-
-# {% include product %} Panel
-
-This document describes functionality only available if you have taken control over a Toolkit configuration. Please refer to the [{% include product %} Integrations User Guide](https://developer.shotgridsoftware.com/d587be80/#the-panel) for details.
-
-## Configuring the {% include product %} Panel
-
-There are two main areas that you can configure extensively in the {% include product %} Panel: The appearance of text in the UI and the actions you want to associate with data. The sections below outline how to control the configuration for the two systems.
-
-### Configuring what is being displayed
-
-The values in the detail area and the listings are both configurable through the `{% include product %}_fields` hook. You can subclass this hook and change the implementation in order to display the exact values you want:
-
-
-
-**Templating System**
-
-The hook supports a simple templating language, allowing for great flexibility. It also supports the HTML subset supported by Qt, so you can control color, font size, weight, etc. of your displayed values. The template language works in the following way:
-
-- {% include product %} values are enclosed in `{brackets}`, for example `Description: {description}`. When this template is rendered, the `{description}` part will be replaced with the description field value.
-
-- If you want an optional pre- or post-fix for a value which is only shown if the value is not empty, you can use the syntax `{[Prefix]sg_field[suffix]}`. The template `{[Start: ]start_date} {[End: ]end_date}` will render `Start: 12 July 2009 End: 14 July 2012` if both values are populated but `Start: 12 July 2009` if end date isn't set.
-
-- You can define fallbacks in the case some values are not set. For {% include product %} Versions, the `artist` fields takes precedence over the `created_by` field in order to support a workflow where a producer submits versions on behalf of an artist. In this case, the Version will be created by the producer but the `artist` field will be set to the artist. This, however, is not always the case - in some cases, artist is left blank in pipelines where artists submit their own work. When displaying versions, it is therefore useful to be able to check the `artist` field first, and in case this isn't set, fall back on the `created_by` field. This is done using the `{field1|field2}` syntax, for example: `Created By: {artist|created_by}`. You can combine this with optional fields too, e.g. `{[Created By: ]artist|created_by}`
-
-
-This hook contains the following methods:
-
-**Controlling items appearing in lists**
-
-The `get_list_item_definition()` method returns a dictionary that controls the appearance of items in the various listings, given a {% include product %} entity type. It returns a dictionary with the keys `top_left`, `top_right` and `body`, for example:
-
-```python
-{
- "top_left": "{code}",
- "top_right": "{updated_at}",
- "body": "By: {created_by}
Description: {description}"
-}
-```
-
-**Controlling the top detail area**
-
-The `get_main_view_definition()` method returns a dictionary with the keys `title` and `body` given a {% include product %} entity type. These values controls the appearance of an object in the detail area, for example:
-
-```python
-{
- "title": "{type} {code}",
- "body": "By: {created_by}
Description: {description}"
-}
-```
-
-**Controlling the fields shown in the Info tab**
-
-The `get_all_fields()` methods returns a list of fields to display for a given entity when this is rendered in the Info tab.
-
-### Configuring Actions
-
-Actions are little snippets of code that operate on a piece of {% include product %} data. Examples include:
-
-- An action that launches RV for a given {% include product %} Version
-- An action that allows a user to assign herself to a given Task
-- An action that loads a {% include product %} publish into Maya as a Maya reference.
-
-The actual payload of an action is defined in an *action hook*. Once you have defined the action logic, you can then map that action to {% include product %} objects in the app configuration. These action mappings may for example look like this:
-
-```yaml
-action_mappings:
- PublishedFile:
- - actions: [reference, import]
- filters: {published_file_type: Maya Scene}
- - actions: [texture_node]
- filters: {published_file_type: Rendered Image}
- Task:
- - actions: [assign_task]
- filters: {}
- Version:
- - actions: [play_in_rv]
- filters: {}
-```
-
-In the above example, we use the actions `reference`, `import`, `texture_node`, `assign_task` and `play_in_rv`. We then map the actions to various {% include product %} objects and conditions. For example, we are requesting the `import` action to appear for all publishes of type Maya Scene.
-
-When an object is loaded into the Panel, the action configuration above is read in and analyzed. A list of suitable actions for the current object is determined and the `generate_actions()` hook method will be executed. {% include product %} data for the given entity will be passed to the hook at this point so that the hook code can determine if the action can be run for this particular {% include product %} object. This is a way to allow each hook to run a check prior to being displayed. For example, the `play_in_rv` hook may only be relevant in the case there is media available locally - the action mappings set up in the configuration tells the panel which actions to enable for a given {% include product %} entity but they may not all be displayed because the `generate_actions()` method may determine that they are not suitable for the given object.
-
-The actions returned from the `generate_actions()` method will be displayed on the actions menu and when a user clicks on it, the `execute_action()` hook method is called to run the action.
-
-For each application that the panel supports, there is an actions hook which implements suitable actions. For example, with something like Maya, the default hook will implement `reference`, `import` and `texture_node` actions, each carrying out specific Maya commands to bring publishes into the current Maya scene. As with all hooks, it is perfectly possible to override and change these, and it is also possible to create a hook that derives from the built in hook, making it easy to add additional actions to a built-in hook without having to duplicate lots of code.
-
-The panel uses Toolkit's second generation hooks interface, allowing for greater flexibility. This hook format uses an improved syntax. You can see this in the default configuration settings, looking something like this:
-
-```yaml
-actions_hook: '{self}/tk-maya_actions.py'
-```
-
-The `{self}` keyword tells Toolkit to look in the app's `hooks` folder for the hook. If you are overriding this hook with your implementation, change the value to `{config}/panel/maya_actions.py`. This will tell Toolkit to use a hook called `hooks/panel/maya_actions.py` in your configuration folder.
-
-For more information, please see the hook files that come with the app. The hooks also take advantage of inheritance, meaning that you don't need to override everything in the hook, but can more easily extend or augment the default hook in various ways, making hooks easier to manage.
-
-LINKBOX_DOC:5#The%20hook%20data%20type:Learn more about the second gen hook format here.
-
-By using inheritance in your hook, it would be possible to add additional actions to the default hooks like this:
-
-```python
-import sgtk
-import os
-
-# toolkit will automatically resolve the base class for you
-# this means that you will derive from the default hook that comes with the app
-HookBaseClass = sgtk.get_hook_baseclass()
-
-class MyActions(HookBaseClass):
-
- def generate_actions(self, sg_data, actions, ui_area):
- """
- Returns a list of action instances for a particular object.
- The data returned from this hook will be used to populate the
- actions menu.
-
- The mapping between {% include product %} objects and actions are kept in a different place
- (in the configuration) so at the point when this hook is called, the app
- has already established *which* actions are appropriate for this object.
-
- This method needs to return detailed data for those actions, in the form of a list
- of dictionaries, each with name, params, caption and description keys.
-
- Because you are operating on a particular object, you may tailor the output
- (caption, tooltip etc) to contain custom information suitable for this publish.
-
- The ui_area parameter is a string and indicates where the publish is to be shown.
-
- - If it will be shown in the main browsing area, "main" is passed.
- - If it will be shown in the details area, "details" is passed.
-
- :param sg_data: {% include product %} data dictionary with all the standard publish fields.
- :param actions: List of action strings which have been defined in the app configuration.
- :param ui_area: String denoting the UI Area (see above).
- :returns List of dictionaries, each with keys name, params, caption, group and description
- """
-
- # get the actions from the base class first
- action_instances = super(MyActions, self).generate_actions(sg_data, actions, ui_area)
-
- if "my_new_action" in actions:
- action_instances.append( {"name": "my_new_action",
- "params": None,
- "group": "Pipeline Utils",
- "caption": "My New Action",
- "description": "My New Action."} )
-
- return action_instances
-
-
- def execute_action(self, name, params, sg_data):
- """
- Execute a given action. The data sent to this be method will
- represent one of the actions enumerated by the generate_actions method.
-
- :param name: Action name string representing one of the items returned by generate_actions.
- :param params: Params data, as specified by generate_actions.
- :param sg_data: {% include product %} data dictionary with all the standard publish fields.
- :returns: No return value expected.
- """
-
- if name == "my_new_action":
- # do some stuff here!
-
- else:
- # call base class implementation
- super(MyActions, self).execute_action(name, params, sg_data)
-
-
-```
-
-We could then bind this new action to a set of publish types in the configuration:
-
-```yaml
-action_mappings:
- PublishedFile:
- - actions: [reference, import, my_new_action]
- filters: {published_file_type: Maya Scene}
- Version:
- - actions: [play_in_rv]
- filters: {}
-```
-
-By deriving from the hook as shown above, the custom hook code only need to contain the actual added
-business logic which makes it easier to maintain and update.
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-snapshot.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-snapshot.md
deleted file mode 100644
index 294e45e2d..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-snapshot.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Snapshot
-pagename: tk-multi-snapshot
-lang: en
----
-
-# Snapshot
-
-A {% include product %} Snapshot is a quick incremental backup that lets you version and manage increments of your work without sharing it with anyone else. Take a Snapshot, add a description and a thumbnail, and you create a point in time to which you can always go back to at a later point and restore. This is useful if you are making big changes and want to make sure you have a backup of previous versions of your scene.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-workfiles2.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-workfiles2.md
deleted file mode 100644
index 4bc72bf8d..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-multi-workfiles2.md
+++ /dev/null
@@ -1,149 +0,0 @@
----
-layout: default
-title: Workfiles
-pagename: tk-multi-workfiles2
-lang: en
----
-
-# Workfiles
-
-## File Open dialog
-
-### Navigating your work areas
-
-
-
-The main dialog is split in two halves. On the left hand side, there is a series of tabs. The first tab is called "My Tasks" and will display all the tasks that are assigned to the current user. It is very reminiscent of the "My Tasks" page on the {% include product %} website.
-
-Alternatively, the user can also browse for a {% include product %} entity using the entities tabs. By default, the workfiles application allows to browse for any tasks associated on shots or assets by looking at the respective tab.
-
-The set of tabs is entirely configurable through the `entities` settings in the environment files.
-
-You can disable/enable this dialog by setting the `show_file_open: true/false` in the app settings.
-
-### Finding files
-
-
-
-On the right hand-side you will see the working files and publishes associated with the selection from the left hand-side. Working files and publishes can be viewed together or separately using the tabs "All", "Working" and "Publishes".
-
-### Accessing previous versions
-
-
-
-There are two ways to access previous versions. First, the user can click on the "All versions" box at the top of the browser, which will uncollapse the versions and list them all individually in the browser. Another option is to right-click on a file, which will allow you to access the last 10 versions.
-
-### User sandboxes
-
-
-
-If your pipeline configuration uses user sandboxes, only the files for the current user will be seen by default. If the user wants to see the files from other user's sandboxes, a button at the top will allow to pick which sandboxes to show files from.
-
-### Narrowing results
-
-
-
-You can narrow results in the any of the views by typing text. The search will match any item's name.
-
-## File Save dialog
-
-By default, the "File Save" dialog allows the user to save a file in the current context. The user will be prompted for a scene name, version number and an optional file extension, if available and the "Save" button will be greyed out. Only once the application has confirmed the next available version number for a scene name will the Save button at the bottom right be enabled.
-
-You can disable/enable this dialog by setting the `show_file_save: true/false` in the app settings.
-
-### Saving in a different context
-
-
-
-In order to save a file in a different context, a user can click on the expand button at the top-left of the dialog which will expand the "File Save" dialog and allow to pick another context to save into.
-
-### Adding the file extension dropdown
-
-
-
-With the new file save dialog, it is possible to pick the extension of the file being saved. In order to enable this, you need to tweak your pipeline configuration's `templates.yml` file. First, a token needs to be defined in the token list inside `templates.yml`.
-
-```yaml
-maya_extension:
- type: str
- choices:
- ma: Maya Ascii (.ma)
- mb: Maya Binary (.mb)
- default: ma
- alias: extension
-```
-
-`maya_extension` is the token's name. `choices` is a dictionary of file types that will be displayed in the dropdown. The keys (`ma` and `mb`) are the possible values that this template token can have. The values (`Maya Ascii (.ma)` and `Maya Binary (.mb)`) are UI friendly descriptions that can be used by a Toolkit application. The `alias` is an hint that is required by the workfiles application. It tells the application that this token is an extension and should be displayed in the dropdown widget.
-
-Then, this token can be added to any Maya specific template.
-
-```yaml
-maya_shot_work:
- definition: '@shot_root/work/maya/{name}.v{version}.{maya_extension}'
- root_name: 'primary'
-```
-
-## Context Change dialog
-
-
-
-The context change dialog is similar to the open dialog except that it doesn't have a the right hand side for file browsing. You can select a task or entity and change your current engine context by pressing press the change context button.
-
-You can disable/enable this dialog by setting the `show_change_context: true/false` in the app settings.
-
-## Step filtering
-
-When retrieving Tasks, and if `step` is included in the hierarchy, the amount of data retrieved from {% include product %} can be reduced with Pipeline Step filtering: only Tasks linked to the selected list of Steps will be retrieved.
-
-The list of Steps displayed in a tab is controlled with the `step_filter_on` setting. If not set, all existing Pipeline Steps are displayed.
-
-The example below defines two tabs, respectively displaying Tasks for Assets and Shots:
-
-```yaml
- - caption: Assets Tasks
- entity_type: Task
- step_filter_on: Asset
- filters:
- - [entity, type_is, Asset]
- hierarchy: [entity.Asset.sg_asset_type, entity, step, content]
- - caption: Shots Tasks
- entity_type: Task
- step_filter_on: Shot
- filters:
- - [entity, type_is, Shot]
- hierarchy: [entity.Shot.sg_sequence, entity, step, content]
-```
-
-
-
-## Deferred queries
-
-For better performances, building the Entities tree can be broken into two step queries:
-- A first query is used to retrieve records from {% include product %} and populate the top of the tree.
-- A second query is used to retrieve children as the user expand the tree.
-
-With the following settings, Assets and Shots would be retrieved from {% include product %} when the app is started. And then Tasks linked to a particular Asset or Shot would only be retrieved when this Asset or Shot is selected or expanded in the tree view.
-
-```yaml
- entities:
- - caption: Assets
- entity_type: Asset
- hierarchy: [sg_asset_type, code]
- filters:
- sub_hierarchy:
- entity_type: Task
- filters:
- link_field: entity
- hierarchy: [step]
- - caption: Shots
- entity_type: Shot
- filters:
- hierarchy: [sg_sequence, code]
- sub_hierarchy:
- entity_type: Task
- filters:
- link_field: entity
- hierarchy: [step]
-```
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-nuke-quickreview.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-nuke-quickreview.md
deleted file mode 100644
index e0ac352cf..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-nuke-quickreview.md
+++ /dev/null
@@ -1,37 +0,0 @@
----
-layout: default
-title: Nuke Quickreview
-pagename: tk-nuke-quickreview
-lang: en
----
-
-# Nuke Quickreview
-
-The Quickreview app makes it easy to submit Nuke renders for review in {% include product %}. A **Version** in {% include product %} will be created with each quickreview submission. It appears as a node in Nuke, located on the {% include product %} Node menu. Simply create a new node, attach it to your Nuke network, double click it and click the Upload button.
-
-
-
-You get presented with the following UI, allowing you control how your Version is created in {% include product %}:
-
-
-
-The following items can be controlled:
-
-- The version name is pre-populated based on the currently loaded nuke script and can be adjusted if needed.
-- The entity link and task associated with the version is based on the current context and can be adjusted.
-- The frame range to be submitted can be adjusted.
-- The created Version can be added to a playlist. A dropdown with recent playlist are being displayed.
-
-Once you press the Upload button, a quicktime will be generated in nuke and then uploaded to {% include product %}. Once uploaded, the following screen will be shown, allowing you to either show the Version in the Built-in {% include product %} Panel in Nuke or in the web overlay player.
-
-## Burnins and slate
-
-By default, the app will generate a Quicktime with a slate and burn-ins:
-
-
-
-
-## Customization
-
-Most aspects of the review submission can be adjusted using hooks. Documentation can be found [here](http://developer.shotgridsoftware.com/tk-nuke-quickreview).
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-nuke-writenode.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-nuke-writenode.md
deleted file mode 100644
index f9899d45d..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-nuke-writenode.md
+++ /dev/null
@@ -1,603 +0,0 @@
----
-layout: default
-title: Nuke Write Node
-pagename: tk-nuke-writenode
-lang: en
----
-
-# Nuke Write Node
-
-The Nuke Write Node App provides a custom {% include product %} Write node which makes it easy to standardise the location where images are rendered to. It can be configured for each environment. In addition to the path, the configuration will also determine the render format to be used.
-
-## General Use
-
-In order to use the {% include product %} Write Node, save your script as a Toolkit work file first and then create a new node via the Nuke menu. This will create a node which looks similar to a normal write node:
-
-
-
-Rather than entering a path by hand, you just specify an output name and Toolkit will then compute the rest of the path automatically. You can see the computed path in the UI and open up the location on disk by clicking the *Show in File System* button. The location where the renders are written to depends on the Toolkit configuration.
-
-The renders will be versioned and the version number will always follow the current nuke script version which will be incremented automatically when you publish using Multi Publish.
-
-## Resetting the render path
-
-The Write Node will cache the current path so that it is still valid if the file is opened outside a Toolkit Work Area. Occasionally, this can mean that the path becomes out of sync and 'locked'. If the render path is locked then renders created with this Write Node cannot be published.
-
-To reset a render path, either version-up the scene using the Work-files app's 'Version Up Scene' command or select the Write node individually and in the properties, click **Reset Path**:
-
-
-
-## Adding Another Write Node Profile
-
-The {% include product %} Write Node wraps Nuke's built-in write node, so any format supported by Nuke can be used with the app and additional nodes can be added via configuration. The simplest way to start is to set up a simple Nuke write node with the parameters you want. For the example, let's imagine you are doing 16-bit tifs with LZW compression. If you look at your Nuke script in a text editor, the write node will look something like this:
-
-```
-Write {
- file /Users/ryanmayeda/Desktop/test.%04d.tif
- file_type tiff
- datatype "16 bit"
- compression LZW
- checkHashOnRead false
- name Write1
- xpos -145
- ypos -61
-}
-```
-
-The text will tell you what the parameter names and values you need are. In this case it's `datatype` and `compression`. Next, go into your environment configuration (for example: `/path/to/pipeline/config/env/shot_step.yml`) and find the area where the `tk-nuke-writenode` app is configured. Add another Write Node, with these two parameters in the `settings`:
-
-```yaml
-tk-nuke-writenode:
- location: {name: tk-nuke-writenode, type: app_store, version: v0.1.6}
- template_script_work: nuke_shot_work
- ...
- write_nodes:
- - file_type: exr
- ...
- - file_type: dpx
- ...
- - file_type: tiff
- name: Mono Tif
- publish_template: nuke_shot_render_pub_mono_tif
- render_template: nuke_shot_render_mono_tif
- proxy_publish_template: null
- proxy_render_template: null
- settings: {datatype: 16 bit, compression: LZW}
- tank_type: Rendered Image
- tile_color: []
- promote_write_knobs: []
-```
-
-The updated configuration will then result in the additional {% include product %} Write Node appearing in Nuke:
-
-
-
-__Note:__ Be sure to add any new templates (e.g. nuke_shot_render_mono_tif) to your `templates.yml` file which can be found in your project's configuration (`/config/core/templates.yml`).
-
-Another example, showing how to add a {% include product %} Write Node that outputs to JPEG with 0.5 compression and a 4:2:2 sub-sampling is shown below. This profile also makes use of the "promote_write_knobs" option to promote the jpeg quality knob to the gizmo's user interface. This allows the profile to set the default value for quality, but also provide the user the slider to alter that setting themselves:
-
-```yaml
-tk-nuke-writenode:
- write_nodes:
- - file_type: jpeg
- name: Compressed JPEG
- publish_template: nuke_shot_render_pub_jpeg
- render_template: nuke_shot_render_jpeg
- proxy_publish_template: null
- proxy_render_template: null
- settings: {_jpeg_quality: 0.5, _jpeg_sub_sampling: "4:2:2"}
- tank_type: Rendered Image
- tile_color: []
- promote_write_knobs: [_jpeg_quality]
-```
-
-### Promoting Write Knobs
-
-As shown in the profile example above, knobs from the encapsulated write node can be promoted to become visible in the {% include product %} Write Node's properties panel. The promoted write knobs are defined as part of a profile and are identified by knob name. Multiple knobs may be promoted.
-
-## Render Farm Integration
-
-It's common for studios to use a render farm that runs job management tools such as [Deadline](https://deadline.thinkboxsoftware.com/), which typically launch Nuke directly when rendering. Because these tools do not launch Nuke in a {% include product %}-aware way (e.g., via Desktop or the `tank` command), the {% include product %} write node does not have the information it needs to run. We offer a couple options to get around this limitation.
-
-### Convert {% include product %} write nodes to standard Nuke write nodes
-
-A simple solution is to convert the {% include product %} write nodes to regular Nuke write nodes before sending the script to be rendered. There are two options 1. you can enable and use the convert menu options, 2. you can use the API convert methods on the app.
-
-#### Enabling the convert menu options
-
-There is a configuration option called `show_convert_actions` that can be added to the app's settings in the environment yml files. When you add the setting `show_convert_actions: True`, the *Convert SG Write Nodes to Write Nodes...* and *Convert Write Nodes back to SG format...* menu options become available.
-
-
-
-However if you have any {% include product %} Write node profiles defined that promote write knobs, then these menu options will be hidden even if the `show_convert_actions` is set to `True`. This is because at present the convert back functionality does not support promoted knobs.
-
-#### Using the API to Convert
-
-There is a `convert_to_write_nodes()` method that performs this conversion available on the `tk-nuke-writenode` app.
-
-To convert all {% include product %} write nodes in a script to regular Nuke write nodes, run the following code inside Nuke:
-
-```python
-import sgtk
-eng = sgtk.platform.current_engine()
-app = eng.apps["tk-nuke-writenode"]
-if app:
- app.convert_to_write_nodes()
-```
-
-This will remove the {% include product %} write nodes from the scene, so our suggested workflow is that you make a copy of the script to be rendered, perform the conversions on the copy, and submit the copy to the farm. The scene no longer has any Toolkit references and thus Toolkit is not required when the nuke script opened on the render farm.
-
-**Note:** There is a corresponding `convert_from_write_nodes()` method available, but to ensure data integrity, we recommend that it only be used for debugging and not as part of your pipeline.
-
-### Bootstrap the {% include product %} Pipeline Toolkit engine using init.py
-
-Nuke will run any `init.py` scripts found in its plugin path. This option consists of adding code to `init.py` that will perform a minimal bootstrap of the `tk-nuke` engine, so that {% include product %} write nodes behave as expected on the render farm.
-
-There are a few steps to this workflow: First, a “pre-flight” submission script that runs in a {% include product %}-aware Nuke session gets data that will be used to set the environment for your farm job. Next, additional environment variables used to authenticate the {% include product %} session on the render farm are set by render farm administrators. Finally, an `init.py` with the {% include product %} bootstrap code is placed in a location where the Nuke session on the render farm will detect and run it, bootstrapping the `tk-nuke` engine within the session, and allowing the {% include product %} write nodes to function properly.
-
-#### 1. Pre-flight submission script
-
-This approach assumes that artists are submitting farm jobs within a {% include product %}-aware session of Nuke. At submission time, the following code should run. It pulls environment information like Toolkit context, Pipeline Configuration URI, Toolkit Core API location, etc. from the current Nuke session to populate a dictionary that will be passed to the render job, where it will be used to set environment variables.
-
-```python
-# Populating environment variables from running Nuke:
-# http://developer.shotgridsoftware.com/tk-core/platform.html#sgtk.platform.create_engine_launcher
-current_engine = sgtk.platform.current_engine()
-launcher = sgtk.platform.create_engine_launcher(
- current_engine.sgtk,
- current_engine.context,
- current_engine.name
-)
-
-# Get a dictionary with the following keys:
-# SHOTGUN_SITE: The {% include product %} site url
-# SHOTGUN_ENTITY_TYPE: The {% include product %} Entity type, e.g. Shot
-# SHOTGUN_ENTITY_ID: The {% include product %} Entity id, e.g. 1234
-environment = launcher.get_standard_plugin_environment()
-
-# Get the current pipeline config descriptor
-environment["SHOTGUN_CONFIG_URI"] = os.path.join(current_engine.sgtk.configuration_descriptor.get_uri(),"config")
-
-# Get the current tk-core installation path
-environment["SHOTGUN_SGTK_MODULE_PATH"] = sgtk.get_sgtk_module_path()
-```
-
-Once you’ve gathered this information, you can pass it to your render submission tool. This process will vary depending on the render farm management system you’re using. Consult your farm management system documentation for more information on how to write render submission scripts.
-
-#### 2. {% include product %} authentication
-
-The bootstrap API’s ToolkitManager requires a script user in order to initialize. In our example, we’re assuming that your site name, script user, and script key exist as environment variables on the farm machine. Typically this is managed by the render farm administrator. Here are the environment variable names our code is expecting, with sample values:
-
-```
-SHOTGUN_SITE = “https://mysitename.shotgunstudio.com”
-SHOTGUN_FARM_SCRIPT_USER = “sg_api_user”
-SHOTGUN_FARM_SCRIPT_KEY = “xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx”
-```
-
-For more information on authentication, see our [developer documentation](http://developer.shotgridsoftware.com/tk-core/authentication.html).
-
-**A note on securing your script user:** It’s good practice to lock down the script user you use on the farm so that it doesn’t have admin-level permissions. [You can learn more about API user permissions here.](https://developer.shotgridsoftware.com/bbae2ca7/)
-
-#### 3. The init.py script
-
-At this point, Toolkit environment data is being passed from the render submission tool, and authentication data is in environment variables on the render farm machine. The final piece to bootstrapping Toolkit within your render job is to place the following example `init.py` code in Nuke’s plugin path, so that Nuke will launch it at startup time. (See [the Foundry’s documentation on startup scripts](https://support.foundry.com/hc/en-us/articles/360003811839-Q100490) for more details.)
-
-```python
-# This script shows how a Toolkit as a plugin approach could be used to bootstrap
-# Toolkit in Nuke on the render farm.
-# http://developer.shotgridsoftware.com/tk-core/bootstrap.html#bootstrapping-toolkit
-
-import sys
-import os
-
-# If your render nodes can access the same tk-core install location as
-# artist workstations, retrieve its path from the environment and ensure
-# it is in the PYTHONPATH
-TK_CORE_PATH = os.environ["SHOTGUN_SGTK_MODULE_PATH"]
-if TK_CORE_PATH not in sys.path:
- sys.path.append(TK_CORE_PATH)
-
-# If your render nodes don’t have access to the Toolkit Core API in the same filesystem location as artist workstations, you have to make sure that it is available in the PYTHONPATH, so that render nodes can import it. An easy way
-# to install tk-core in a centralized location is with pip. You can read more
-# about it here:
-# http://developer.shotgridsoftware.com/tk-core/bootstrap.html#installing-the-sgtk-module-using-pip
-
-import sgtk
-
-# Authenticate using a pre-defined script user.
-sa = sgtk.authentication.ShotgunAuthenticator()
-
-# Here we retrieve credentials from environment variables, assuming a script user
-# will be used when rendering. This should be typically be handled by your render
-# farm administrators.
-SG_SITE_URL = os.environ["SHOTGUN_SITE"]
-SG_SCRIPT_USER = os.environ["SHOTGUN_FARM_SCRIPT_USER"]
-SG_SCRIPT_KEY = os.environ["SHOTGUN_FARM_SCRIPT_KEY"]
-user = sa.create_script_user(
- api_script=SG_SCRIPT_USER,
- api_key=SG_SCRIPT_KEY,
- host=SG_SITE_URL
-)
-
-# Start up a Toolkit Manager with our script user
-mgr = sgtk.bootstrap.ToolkitManager(sg_user=user)
-
-# Set the base pipeline configuration from the environment variable:
-mgr.base_configuration = os.environ["SHOTGUN_CONFIG_URI"]
-
-# Disable {% include product %} lookup to ensure that we are getting the Pipeline
-# Configuration defined in SHOTGUN_CONFIG_URI, and not a dev or override
-# Pipeline Configuration defined in {% include product %}.
-mgr.do_shotgun_config_lookup = False
-
-# Set a plugin id to indicate to the bootstrap that we are starting
-# up a standard Nuke integration
-mgr.plugin_id = "basic.nuke"
-
-# Retrieve the Toolkit context from environment variables:
-# SHOTGUN_SITE: The {% include product %} site url
-# SHOTGUN_ENTITY_TYPE: The {% include product %} Entity type, e.g. Shot
-# SHOTGUN_ENTITY_ID: The {% include product %} Entity id, e.g. 1234
-sg_entity = mgr.get_entity_from_environment()
-
-# Now start up the Nuke engine for a given {% include product %} Entity
-nuke_engine = mgr.bootstrap_engine("tk-nuke", entity=sg_entity)
-```
-
-You may need to extend this if your configuration is more complex than this example or if you are passing a Python script to the command line using the `-t` flag instead of a nuke (`.nk`) script.
-
-#### Deadline-specific steps
-
-Deadline can copy Nuke scripts to a temporary location when rendering. This will cause problems with Toolkit as the files will no longer be in a disk location that it recognizes. To disable this behavior and load the scripts from their original location:
-
-1. In Deadline, navigate to Tools > Configure Plugin (In the super user mode)
-2. Disable the 'Enable Path Mapping' option
-
-## Technical Details
-
-The following API methods are available on the App:
-
-### get_write_nodes()
-
-Return a list of all {% include product %} Write Nodes in the current scene.
-
-`list` app.get_write_nodes()
-
-**Parameters & Return Value**
-
-* **Returns:** `list` - a list of Toolkit Write nodes found in the scene
-
-**Example**
-
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
-```
-
-### get_node_name()
-
-Return the name of the specified Write Node.
-
-`string` get_node_name(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `string` - the name of the node.
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_name(nodes[0])
-```
-
-### get_node_profile_name()
-
-Get the name of the configuration profile used by the specified Write node.
-
-`string` get_node_profile_name(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `string` - the profile name for this Write Node as defined by the configuration
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_profile_name(nodes[0])
-```
-
-### get_node_render_path()
-
-Get the path that the specified Write node will render images to.
-
-`string` get_node_render_path(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `string` - the render path for this node
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_render_path(nodes[0])
-```
-
-### get_node_render_files()
-
-Get a list of all image files that have been rendered for the specified Write Node.
-
-`list` get_node_render_files(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `list` - a list of the image files rendered by this Write node.
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_render_files(nodes[0])
-```
-
-### get_node_render_template()
-
-Get the template that determines where rendered images will be written to for the specified Write Node as defined in the configuration.
-
-`template` get_node_render_template(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `template` - the render template this node is configured to use.
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_render_template(nodes[0])
-```
-
-### get_node_publish_template()
-
-Get the template that determines where rendered images will be published to for the specified Write Node as defined in the configuration.
-
-`template` get_node_publish_template(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `template` - the publish template this node is configured to use.
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_publish_template(nodes[0])
-```
-
-### get_node_proxy_render_path()
-
-Get the path that the specified Write node will render proxy images to.
-
-`string` get_node_proxy_render_path(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `string` - the proxy render path for this node
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_proxy_render_path(nodes[0])
-```
-
-### get_node_proxy_render_files()
-
-Get a list of all proxy image files that have been rendered for the specified Write Node.
-
-`list` get_node_proxy_render_files(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `list` - a list of the proxy image files rendered by this Write node.
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_proxy_render_files(nodes[0])
-```
-
-### get_node_proxy_render_template()
-
-Get the template that determines where proxy rendered images will be written to for the specified Write Node as defined in the configuration.
-
-If there is no proxy render template configured for the specified node then this will return the regular render template instead.
-
-`template` get_node_proxy_render_template(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `template` - the proxy render template this node is configured to use.
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_proxy_render_template(nodes[0])
-```
-
-### get_node_proxy_publish_template()
-
-Get the template that determines where proxy rendered images will be published to for the specified Write Node as defined in the configuration.
-
-If there is no proxy publish template configured for the specified node then this will return the regular publish template instead.
-
-`template` get_node_proxy_publish_template(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `template` - the proxy publish template this node is configured to use.
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_proxy_publish_template(nodes[0])
-```
-
-### get_node_published_file_type()
-
-Get the Published File Type to be used when Published files are created for images rendered by the specified Write node as defined in the configuration.
-
-`string` get_node_published_file_type(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `string` - the Published File Type this node is configured to use
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.get_node_published_file_type(nodes[0])
-```
-
-### generate_node_thumbnail()
-
-Generate a thumbnail for the specified Write Node. This will render a frame from the middle of the sequence with a maximum size of 800x800px to a temp file (.png). It is the responsibility of the caller to clean up this file when it is no longer needed.
-
-`string` generate_node_thumbnail(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `string` - the path to the rendered thumbnail image on disk
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.generate_node_thumbnail(nodes[0])
-```
-
-### reset_node_render_path()
-
-Reset the render path for the specified Write Node to match the current script.
-
-`None` reset_node_render_path(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `None` - no value is returned
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.reset_node_render_path(nodes[0])
-```
-
-### is_node_render_path_locked()
-
-Determine if the render path for the specified Write node is locked or not.
-
-`bool` is_node_render_path_locked(`node` node)
-
-**Parameters & Return Value**
-
-* `node` **node** - the Write Node to query
-* **Returns:** `bool` - True if the render path is locked, otherwise False
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> nodes = app.get_write_nodes()
->>> app.is_node_render_path_locked(nodes[0])
-```
-
-### convert_to_write_nodes()
-
-Convert all {% include product %} write nodes found in the current Script to regular Nuke Write nodes. Additional toolkit information will be stored on user knobs named 'tk_*'
-
-`None` convert_to_write_nodes()
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> app.convert_to_write_nodes()
-```
-
-### convert_from_write_nodes()
-
-Convert all regular Nuke Write nodes that have previously been converted from {% include product %} Write nodes, back into {% include product %} Write nodes.
-
-`None` convert_from_write_nodes()
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> app.convert_from_write_nodes()
-```
-
-### process_placeholder_nodes()
-
-Convert any placeholder nodes into full {% include product %} Write Nodes. This is primarily used to convert placeholder nodes created by the Hiero Toolkit script exporter when a script is first opened in Nuke.
-
-`None` process_placeholder_nodes()
-
-**Example**
-```python
->>> import sgtk
->>> eng = sgtk.platform.current_engine()
->>> app = eng.apps["tk-nuke-writenode"]
->>> app.process_placeholder_nodes()
-```
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-folders.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-folders.md
deleted file mode 100644
index aa2f8403b..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-folders.md
+++ /dev/null
@@ -1,21 +0,0 @@
----
-layout: default
-title: ShotGrid Folders
-pagename: tk-shotgun-folders
-lang: en
----
-
-# ShotGrid Folders
-
-{% include product %} Toolkit has a built in system that handles the creation of standardized directory structures based on a configuration. This makes it easy to quickly produce consistent file system layouts for multiple shots.
-
-This App hooks up the file system creation API methods in the Sgtk Core API with {% include product %}. This makes folder creation an easy task; just select a collection of Shots or assets and click the Create Folders action.
-
-## How it works
-Simply select one or more Tasks, Shots or other entities (depending on the configuration). Now select create folders from the action menu. Once the process has completed, you will get a report of how many folders were created.
-
-
-
-
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-launchfolder.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-launchfolder.md
deleted file mode 100644
index 643ec2e80..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-launchfolder.md
+++ /dev/null
@@ -1,19 +0,0 @@
----
-layout: default
-title: ShotGrid Launch Folder
-pagename: tk-shotgun-launchfolder
-lang: en
----
-
-# ShotGrid Launch Folder
-
-The Launch Folder App is a {% include product %} utility which allows you to jump from {% include product %} into the File System.
-
-## How it works
-The Launch Folder App allows you to jump from {% include product %} into the File System. You can register it for {% include product %} entity types such as Shots, Assets and Sequences. Once activated, it will appear on the Action menu:
-
-
-
-You can select a single or multiple entries in {% include product %} and when you click the menu action a standard file browser will be launched (Explorer on Windows, Finder on Mac etc.)
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-launchpublish.md b/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-launchpublish.md
deleted file mode 100644
index 58caa0957..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-apps/tk-shotgun-launchpublish.md
+++ /dev/null
@@ -1,14 +0,0 @@
----
-layout: default
-title: ShotGrid Launch Publish
-pagename: tk-shotgun-launchpublish
-lang: en
----
-
-# ShotGrid Launch Publish
-
-This app adds an "Open in Associated Application" action to the Published File entity in {% include product %}. This makes it easy to open up an already published file: Just navigate to that file, right click on it and select the action.
-
-
-
-The app makes it easy to configure different app launch sequences for different files -- all this is done inside a hook. It also dispatches image sequences to a viewer (such as RV). Files not recognized by the hook will be dispatched to the os-level app.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-configuration.md b/docs/en/reference/pipeline-integrations/toolkit-configuration.md
deleted file mode 100644
index 71fa94826..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-configuration.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Configuration
-pagename: toolkit-configuration
-lang: en
----
-
-# Toolkit Configuration
-
-Here you'll find reference documentation for configuring the Toolkit platform
diff --git a/docs/en/reference/pipeline-integrations/toolkit-configuration/toolkit-config-ref.md b/docs/en/reference/pipeline-integrations/toolkit-configuration/toolkit-config-ref.md
deleted file mode 100644
index 6bfbf9aa0..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-configuration/toolkit-config-ref.md
+++ /dev/null
@@ -1,351 +0,0 @@
----
-layout: default
-title: Environment Configuration
-pagename: toolkit-config-ref
-lang: en
----
-
-# Environment Configuration Reference
-
-## Introduction
-
-At the heart of a Toolkit pipeline is the environment configuration. Within a Toolkit pipeline configuration, the environment configuration files are where you define which Toolkit apps are available within different DCCs and customize the settings for each. This document is a complete reference to the structure and function of the environment configuration files. It covers the Toolkit concept of *environments* for configuring different workflows within a project, configuration structure, file referencing, and ways to discover what customizations are available.
-
-{% include info title="Note" content="While this document acts as a reference to the environment configuration files, you can see a step-by-step example of editing a configuration setting in the [Toolkit Basics Guide on Editing a pipeline configuration](https://developer.shotgridsoftware.com/37f575b8/)." %}
-
-
-
-## What is an environment?
-
-The {% include product %} Toolkit platform provides a fully customizable set of integrations for commonly used content creation software with which you can build your studio pipeline. Within a project’s configuration, you can specify which software packages have integrations, which specific Toolkit apps are available in each, and your options for each app—building out artists workflows to suit your studio’s needs.
-
-But often in studio pipelines, it’s common for different types of artists to have different workflows. As a simple example, for artists working on assets, you might want to make texture painting software such as Mari available, whereas for artists working on shots, you might want to make compositing software such as Nuke available.
-
-Beyond just software packages, you might have different settings for the same Toolkit app for different artists. For example, both shot artists and asset artists might use the [Workfiles app](https://developer.shotgridsoftware.com/9a736ee3/), but you might want to limit the file navigation to files associated with Shot entities for the former and Asset entities for the latter.
-
-To support these different workflows within a project, Toolkit divides its app and engine configurations across environments. An environment contains the integrations and their settings for a set of software packages, all with a certain context in common.
-
-In the above example, artists working on assets would be working in an asset step environment, whereas artists working on shots would be working in a shot step environment. Each environment is configured independent of any others, allowing you to have distinct workflows within a project.
-
-## A note on Toolkit’s Default Configuration
-
-Toolkit gives you a lot of freedom in the way you structure your environment configuration. This document is a reference for all of the options that are available to you, so that you’ll have the necessary knowledge to make choices that best suit the needs of your pipeline.
-
-This document will also occasionally cover some of the specific choices we’ve made in the pipeline configuration provided as a starting point, known as [the Default Configuration](https://github.com/shotgunsoftware/tk-config-default2). When you’re ready to customize your pipeline, the first step is to [create an editable pipeline configuration for your project](https://developer.shotgridsoftware.com/37f575b8/).
-
-While these choices are only conventions and not hardcoded into the Toolkit workflow, it’s helpful to refer to the Default Configuration as an example for learning what features are available once you start customizing your pipeline and best practices for structuring your own configurations. And, since it's the suggested starting point for new Toolkit users, it’s helpful to know some of its conventions. We will always distinguish between general features of the Toolkit environment configuration and specific choices in the Default Configuration in this document. For specific details on the Default Configuration’s environment structure, see [its README file](https://github.com/shotgunsoftware/tk-config-default2/blob/master/env/README.md).
-
-## File locations
-
-Within your Pipeline Configuration, the `config/` directory contains all the files and folders that are meant to be customized. In `config/`, you’ll find three sub-directories: `cache`, `core`, and `env`. The `env` directory holds the environment configuration files, so this document will refer to the files in `config/env`.
-
-
-
-In the Default Configuration, you’ll see the following files in `config/env/`:
-
-```
-asset.yml
-asset_step.yml
-project.yml
-sequence.yml
-shot.yml
-shot_step.yml
-```
-
-Each of these files corresponds to an environment; having separate files allows each environment to be configured separately.
-
-## How Toolkit determines the current environment
-
-Toolkit uses a core hook called [pick_environment](https://github.com/shotgunsoftware/tk-core/blob/master/hooks/pick_environment.py) to determine which environment file to use at a given time based on the current [context](https://developer.shotgridsoftware.com/tk-core/core.html#context). The `pick_environment` hook’s return values correspond to environment configuration files. For example, if `pick_environment` returns `shot_step`, Toolkit will use `config/env/shot_step.yml` to configure the Toolkit environment.
-
-## Custom environments
-
-The environment configuration files listed above are the ones provided with the Default Configuration. However, some studios may want to employ different or additional environments. For example, a studio might want different configuration settings for every stage in the pipeline—`asset_step_rig`, `asset_step_model`, `shot_step_anim`, `shot_step_light`, and so on. Fortunately, you can fully customize the available environments.
-
-To do so, add the desired environment config files to the `config/env` directory. Then, override the `pick_environment` core hook, adding to it the logic that defines when to use your new environments.
-
-## Basic structure
-
-Toolkit’s configuration files are written in [YAML](https://yaml.org/). The general configuration structure for any bundle (an app, engine, or framework) is as follows:
-
-```yaml
-bundle_name:
- setting1: value
- setting2: value
- complex_setting:
- sub_setting1: value
- Sub_setting2: value
- location:
- type: descriptor_type
- descriptor_setting1: value
- descriptor_setting2: value
-```
-
-To demonstrate this structure, here is a very simple example: an environment in which there is a single engine, with a single app defined within it. The following might be the contents of `project.yml` in this config:
-
-```yaml
-engines:
- tk-maya:
- apps:
- tk-multi-workfiles2:
- location:
- type: app_store
- name: tk-multi-workfiles2
- version: v0.11.8
- location:
- type: app_store
- name: tk-maya
- version: v0.9.4
-```
-
-### The engines block
-
-Every environment configuration file starts with an `engines` block. Nested within it are all of the engines defined for that environment.
-
-In our example, only a single engine is defined, `tk-maya`. It has two settings listed, `apps` and `location`.
-
-`location` is a special setting that every bundle requires. The `apps` setting is a list of all the apps defined for the engine, each with its own settings. In this case, only one app is defined for the engine, `tk-multi-workfiles2`.
-
-
-### The location descriptor
-
-Every Toolkit bundle has a `location` setting, which we refer to as the bundle’s *descriptor*. The descriptor tells Toolkit where to find the given bundle, and depending on its type, whether to access it directly or cache it locally. Some examples of locations that a Toolkit bundle can come from are the {% include product %} App Store, a git repository, a path on disk, or a zip file uploaded to your {% include product %} site. Each of these has a corresponding descriptor type, with settings specific to that type. Here again is the descriptor for the `tk-maya` engine from the example above:
-
-```yaml
- location:
- type: app_store
- name: tk-maya
- version: v0.9.4
-```
-
-This is a descriptor of type `app_store`, which tells Toolkit to get the given bundle from the {% include product %} App Store. Descriptors of type `app_store` have the settings `name` and `version`.
-
-In contrast, if you are actively developing a custom bundle—say you’re working on writing a Toolkit app for a specific workflow in your studio, you may want to get it directly from a path on disk. In this case you’d use a descriptor of type `dev`, which might look like this:
-
-```yaml
- location:
- type: dev
- path: /path/to/app
-```
-
-The `dev` descriptor has different settings from the `app_store` descriptor. While it can take other settings, it can be set up simply with a `path` setting pointing to where the app lives on disk.
-
-See [the Descriptor section of the Toolkit Core API docs](https://developer.shotgridsoftware.com/tk-core/descriptor.html) for details on all available descriptor types and their settings.
-
-### The apps block
-
-Apps are Toolkit’s user tools, and each can run independently of any others. You can choose which apps you want to use based on your pipeline needs, and the `apps` setting within an engine block is where you define which apps are available in a given engine.
-
-Here again is the `apps` setting from our example above:
-
-```yaml
-engines:
- tk-maya:
- apps:
- tk-multi-workfiles2:
- location:
- type: app_store
- name: tk-multi-workfiles2
- version: v0.11.8
-```
-
-You can see that we have a single app defined, the `tk-multi-workfiles2` app. It currently only has a single setting defined: its descriptor.
-
-If you wanted to make other apps available in the `tk-maya` engine in the `project` environment, you’d add them here. Let’s add the Panel, `tk-multi-shotgunpanel`, and the About app, `tk-multi-about`, to our engine. Our example `project.yml` file now looks like this:
-
-```yaml
-engines:
- tk-maya:
- apps:
- tk-multi-about:
- location:
- type: app_store
- name: tk-multi-about
- version: v0.2.8
- tk-multi-shotgunpanel:
- location:
- type: app_store
- name: tk-multi-shotgunpanel
- version: v1.6.3
- tk-multi-workfiles2:
- location:
- type: app_store
- name: tk-multi-workfiles2
- version: v0.11.8
- location:
- type: app_store
- name: tk-maya
- version: v0.9.4
-```
-
-There are a few important things to note at this time:
-
-* The Default Config lists bundles in alphabetical order, and this example follows that convention.
-* The file is beginning to get long, and we haven’t even added any configuration settings yet.
-* You might imagine that you’ll be using these same apps in other engines and other environments. For example, you’ll probably have all three of these apps—the Panel, the About app, and the Workfiles app—in different engines (say, Houdini, Nuke, or Photoshop), and in different environments (like `asset_step` or `shot_step`). Defining common app settings in many places in your config means that when it comes time to make a change, you’ll have to make the modification in many places.
-
-To mitigate the last two issues, Toolkit configurations support *includes*.
-
-### Includes
-
-*Includes* allow you to reference a section of one file in another file in your configuration. Using includes allows you set a configuration setting in one place, but use it in multiple environments.
-
-Includes consist of two parts:
-
-* The `includes` list: a YAML dictionary whose key is `includes`, and whose value is a list of all files we want to include from.
-* A reference within your configuration settings, prefixed by the `@` symbol, and named to point to the name of the section you want to reference from the included file.
-
-To flesh out our above example, you might have a single file where you hold the location descriptors for all of your engines. Let’s put that file in an `includes` subfolder, and call it `engine_locations.yml`.
-
-The contents of `engine_locations.yml` would look like this:
-
-`config/env/includes/engine_locations.yml`:
-
-```yaml
-engines.tk-maya.location:
- type: app_store
- name: tk-maya
- version: v0.9.4
-
-engines.tk-nuke.location:
- type: app_store
- name: tk-nuke
- version: v0.11.5
-
-...
-```
-
-This file can act as a single source for all engine locations, and all of your environment configurations can reference it. Using this include file, our example now looks like this:
-
-`config/env/project.yml`:
-
-```yaml
-includes:
-- includes/engine_locations.yml
-
-engines:
- tk-maya:
- apps:
- tk-multi-about:
- location:
- type: app_store
- name: tk-multi-about
- version: v0.2.8
- tk-multi-shotgunpanel:
- location:
- type: app_store
- name: tk-multi-shotgunpanel
- version: v1.6.3
- tk-multi-workfiles2:
- location:
- type: app_store
- name: tk-multi-workfiles2
- version: v0.11.8
- location: @engines.tk-maya.location
-```
-
-
-
-You can see here that the value of the `location` setting for the `tk-maya` engine is now a reference to a key from the included YAML file.
-
-{% include info title="Note" content="Having all engine locations in a `config/env/includes/engine_locations.yml` file, as we do in this example, follows the convention of the Default Configuration." %}
-
-You can add a second include file for app locations, and in fact, the Default Configuration does just that. Let’s expand our example:
-
-`config/env/includes/app_locations.yml:`
-
-```yaml
-apps.tk-multi-about.location:
- type: app_store
- name: tk-multi-about
- version: v0.2.8
-
-apps.tk-multi-shotgunpanel.location:
- type: app_store
- name: tk-multi-shotgunpanel
- version: v1.6.3
-
-apps.tk-multi-workfiles2.location:
- type: app_store
- name: tk-multi-workfiles2
- version: v0.11.8
-```
-
-
-`config/env/project.yml`:
-
-```yaml
-includes:
-- includes/app_locations.yml
-- includes/engine_locations.yml
-
-engines:
- tk-maya:
- apps:
- tk-multi-about:
- location: @apps.tk-multi-about.location
- tk-multi-shotgunpanel:
- location: @apps.tk-multi-about.shotgunpanel.location
- tk-multi-workfiles2:
- location: @apps.tk-multi-workfiles2.location
- location: @engines.tk-maya.location
-```
-
-We’re now getting the `tk-maya` engine’s descriptor from the included `engine_locations.yml` file, and the descriptor for each app defined for the `tk-maya` engine from the included `app_locations.yml` file.
-
-{% include info title="Note" content="The Default Configuration employs a second level of nesting that’s not demonstrated here. Every app or engine that has settings beyond just a descriptor has a settings file in `includes/settings` (e.g., `includes/settings/tk-maya.yml`, `includes/settings/tk-multi-workfiles2.yml`). The engine settings files include app settings from the app settings files, and the environment configuration files include from the engine settings files. For details on the Default Configuration’s structure, see [its README file](https://github.com/shotgunsoftware/tk-config-default2/blob/master/env/README.md). For a detailed walkthrough of modifying a configuration setting, see the [Toolkit Basics Guide on Editing a Configuration Setting](https://developer.shotgridsoftware.com/37f575b8/)." %}
-
-
-## Sparse configurations
-
-Every Toolkit bundle has a set of available configuration settings, with a default value for each. Toolkit allows *sparse* configurations: if a configuration setting is not explicitly specified in the environment config files (and/or the files they include), then the default value from the bundle will be used.
-
-In our example, we haven’t specified any settings for our apps aside from `location`. So, in our configuration’s current state, our three apps will use the default values for all of their settings. So, how do we know what configuration settings are available?
-
-{% include info title="Note" content="While it’s not a requirement that Toolkit configurations be sparse, the Default Configuration is a sparse configuration." %}
-
-## Discovering available configuration settings
-
-With sparse configurations, it’s not immediately evident what configuration settings are available for an app simply by looking at your configuration files. To find out what configuration settings an app has available, you have two choices:
-
-* **App documentation:** Each of our apps has its own documentation page, and each of these pages has a “Configuration Options” section. This section lists all of the available configuration settings for the app, with description and default values for each. You can [see the Workfiles documentation page](https://developer.shotgridsoftware.com/9a736ee3/) as an example. The [Apps and Engines page](https://developer.shotgridsoftware.com/162eaa4b/) lists the documentation pages for all apps and engines.
-* **The manifest:** Every Toolkit bundle includes a file called `info.yml` in its root directory. We refer to this file as the bundle’s *manifest*, and it defines all of the available configuration settings for the bundle, with a description and default value for each. You can find the manifest in your own cache of the bundle (e.g., `install/app_store/tk-multi-workfiles2/v0.11.8/info.yml` within your pipeline configuration), or in Github ([here it is for Workfiles as an example](https://github.com/shotgunsoftware/tk-multi-workfiles2/blob/master/info.yml)).
-
-## Modifying configuration settings
-
-To modify a configuration from the default value, simply add it to the proper block, in the proper environment in your Pipeline Configuration, and set its value.
-
-Going back to our example, let’s say that we want to configure `tk-multi-workfiles2` so that it launches automatically when Maya is launched in the project environment. We can see [in the app’s manifest](https://github.com/shotgunsoftware/tk-multi-workfiles2/blob/v0.11.10/info.yml#L19-L25) that there is a `launch_at_startup` setting that controls whether to launch the Workfiles UI at application startup time, and that its default value is `False`. So, we’ll just add the `launch_at_startup` option, and set it to `True`. Our `project.yml` file now looks like this:
-
-`config/env/project.yml`:
-
-```yaml
-includes:
-- includes/app_locations.yml
-- includes/engine_locations.yml
-
-engines:
- tk-maya:
- apps:
- tk-multi-about:
- location: @apps.tk-multi-about.location
- tk-multi-shotgunpanel:
- location: @apps.tk-multi-about.shotgunpanel.location
- tk-multi-workfiles2:
- launch_at_startup: True
- location: @apps.tk-multi-workfiles2.location
- location: @engines.tk-maya.location
-```
-
-Note that if the settings for `tk-multi-workfiles2` were coming from an included file, we’d make this change in that file.
-
-
-## Additional resources
-
-* [Toolkit Basics Guide: Editing a pipeline configuration](https://developer.shotgridsoftware.com/37f575b8/)
-* [Toolkit Basics Guide: Adding an app](https://developer.shotgridsoftware.com/4d147fb2)
-* [Animation pipeline tutorial](https://developer.shotgridsoftware.com/cb8926fc/)
-* [Descriptor reference documentation](https://developer.shotgridsoftware.com/tk-core/descriptor.html#descriptors)
-* [Webinar: Toolkit administration](https://youtu.be/7qZfy7KXXX0)
-* [File system configuration reference](https://developer.shotgridsoftware.com/82ff76f7/)
-* [Default Configuration environment structure README](https://github.com/shotgunsoftware/tk-config-default2/blob/master/env/README.md)
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines-supported-os-versions.md b/docs/en/reference/pipeline-integrations/toolkit-engines-supported-os-versions.md
deleted file mode 100644
index 021c2dcfe..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines-supported-os-versions.md
+++ /dev/null
@@ -1,16 +0,0 @@
----
-layout: default
-title: Supported OS Versions for Toolkit Engines
-pagename: toolkit-engines-supported-os
-lang: en
----
-
-# Supported OS Versions for Toolkit Engines
-
-Here is a list of Toolkit engine supported operating systems.
-
-----------
-
-| Windows | macOS | CentOS |
-|:-------:|:-----:|:------:|
-| 10 |10.14+
**Note:** M1 is not supported yet, [learn more here](https://community.shotgridsoftware.com/t/13606). | 7.4 |
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines-supported-versions.md b/docs/en/reference/pipeline-integrations/toolkit-engines-supported-versions.md
deleted file mode 100644
index 8ea62bb6c..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines-supported-versions.md
+++ /dev/null
@@ -1,26 +0,0 @@
----
-layout: default
-title: Engine Supported Versions
-pagename: toolkit-engines-supported-versions
-lang: en
----
-
-# Toolkit Engine Supported Versions
-
-Here is a list of the minimum supported application versions on engines available for the Toolkit platform.
-
-----------
-
-| Integration | Engine | Supported Versions |
-|:-----------:|:------:| ----------- |
-|
| **tk-3dsmax** | {% include tk-3dsmax %} |
-|
| **tk-aftereffects** | {% include tk-aftereffects %} |
-|
| **tk-alias** | {% include tk-alias %} |
-|
| **tk-flame** | {% include tk-flame %} |
-|
| **tk-houdini** | {% include tk-houdini %} |
-|
| **tk-mari** | {% include tk-mari %} |
-|
| **tk-maya** | {% include tk-maya %} |
-|
| **tk-motionbuilder** | {% include tk-motionbuilder %} |
-|
| **tk-nuke** | {% include tk-nuke %} |
-|
| **tk-photoshopcc** | {% include tk-photoshopcc %} |
-|
| **tk-vred** | {% include tk-vred %} |
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines.md b/docs/en/reference/pipeline-integrations/toolkit-engines.md
deleted file mode 100644
index 9c1d33cfb..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Engines
-pagename: toolkit-engines
-lang: en
----
-
-# Toolkit Engines
-
-Here you'll find reference documentation for engines available for the Toolkit platform.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-3dsmax-plus.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-3dsmax-plus.md
deleted file mode 100644
index c712a9b0e..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-3dsmax-plus.md
+++ /dev/null
@@ -1,59 +0,0 @@
----
-layout: default
-title: 3ds Max Plus
-pagename: tk-3dsmax-plus
-lang: en
----
-
-# 3dsMax Plus
-
-The {% include product %} engine for 3ds Max Plus provides a bridge between the 3ds Max application and the {% include product %} Pipeline Toolkit. The engine supports PySide and all Multi apps, meaning that you can run our standard apps inside of 3ds Max - the same apps that also work in Maya, Nuke etc. This engine uses the 3ds Max Plus python API.
-
-
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-3dsmax %}
-
-## Documenation
-
-This engine connects {% include product %} Pipeline Toolkit (Sgtk) and 3D studio Max via Max Plus' Python support.
-
-
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-f you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-3dsmaxplus
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the update command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio tank command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-3dsmaxplus.
-
-## Special Requirements
-
-You need {% include product %} Pipeline Toolkit Core API version v0.19.18 or higher to use this.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-3dsmax.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-3dsmax.md
deleted file mode 100644
index 4c9c060cd..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-3dsmax.md
+++ /dev/null
@@ -1,54 +0,0 @@
----
-layout: default
-title: 3ds Max
-pagename: tk-3dsmax
-lang: en
----
-
-# 3dsMax
-
-The {% include product %} engine for 3dsMax contains a standard platform for integrating {% include product %} Toolkit (Sgtk) Apps into 3dsMax. It is light weight, straight forward and adds a {% include product %} menu to the main menu.
-
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-3dsmax %}
-
-## Documenation
-
-The {% include product %} engine for 3dsMax contains a standard platform for integrating {% include product %} Pipeline Toolkit (Sgtk) Apps into 3dsMax. It is light weight, straight forward and adds a {% include product %} menu to the main menu.
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-3dsmax
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the update command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio tank command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-3dsmax.
-
-## Special Requirements
-
-You need {% include product %} Pipeline Toolkit Core API version v0.19.18 or higher to use this.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-aftereffects.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-aftereffects.md
deleted file mode 100644
index f1116d63a..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-aftereffects.md
+++ /dev/null
@@ -1,176 +0,0 @@
----
-layout: default
-title: After Effects
-pagename: tk-aftereffects
-lang: en
----
-
-# After Effects
-
-The {% include product %} engine for After Effects provides a platform for integrating {% include product %} into your After Effects workflow. It consists of a standard {% include product %} Toolkit engine and relies on the [tk-framework-adobe](https://github.com/shotgunsoftware/tk-framework-adobe) (CEP).
-
-Once enabled, a **{% include product %} Adobe Panel** panel becomes available in After Effects. It displays information about the current {% include product %} context as well as the commands that are registered for the apps installed in that context.
-
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-aftereffects %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-## Interface Overview
-
-The {% include product %} extension panel uses the same color palette and basic layout as native After Effects panels. It is comprised of five components:
-
-
-
-1. **Context Header** - Thumbnail and fields for the current context.
-2. **Favorites Shelf** - Designed to show the most commonly-used apps for the current context.
-3. **Command List** - All non-favorited commands for the current context.
-4. **Context Menu** - Additional context-related commands and debugging tools.
-5. **Logging Console** - A console overlay that displays logging output for debugging.
-
-## Installation
-
-Installation of the {% include product %} Engine for After Effects follows the same protocol as the other {% include product %} integrations. For information on installing engines and apps, see the [Administering Toolkit](https://developer.shotgridsoftware.com/425b1da4/) article. In addition, you can reference the [default toolkit config](https://github.com/shotgunsoftware/tk-config-default2) as an example of how to configure the integration.
-
-## Enabling the extension
-
-Once the extension is installed, it will need to be launched via the extensions menu in After Effects.
-
-
-
-This will only need to be done once and the {% include product %} extension panel can remain in the After Effects layout without having to be enabled on subsequent launches.
-
-Once enabled, and on future launches, the extension panel will display a loading screen while the {% include product %} integration is bootstrapping.
-
-This screen typically displays for a few seconds before the current context is determined and the commands are displayed.
-
-## Interface components
-
-The following sections outline the components of the {% include product %} After Effects integration.
-
-### Context header
-
-The context header is a customizable area which can display information about the current {% include product %} context.
-
-
-
-The context is determined by the currently-active document. Once the context is determined by the engine, the header will update to display the context's thumbnail field detail. The field information is controlled by a hook. For information on how to customize the field display, see the **Context Fields Display Hook** section below.
-
-It should also be noted that the context switching will only be recognized in if {% include product %} open was used.
-
-### Favorites shelf
-
-The favorites shelf is similar to the menu favorites available in other {% include product %} DCC integrations such as Maya and Houdini. This section of the interface makes the most commonly used Toolkit apps readily available and easy to find just under the context header.
-
-
-
-The shelf displays the favorited commands as buttons that, when moused over, transition from grayscale to color and display their name in the label at the top. Tooltips for the buttons will show by hovering the mouse above them.
-
-Clicking one of the buttons will trigger the callback for the registered command to execute.
-
-For details on how to specify command favorites, see the **Shelf Favorites** section below.
-
-### Command list
-
-The command list shows the other "regular" commands that are registered for the current context.
-
-
-
-Typically, apps installed within a pipeline configuration will register one or more commands that are displayed here. If the commands are not identified as favorites, and are not identified as context-menu commands, they will display here.
-
-The command list buttons behave in a manner similar to those in the favorites shelf. The only real difference is that they display as a list with the full name to the right of their icon.
-
-### Context menu
-
-Any commands registered as context menu commands will show in the {% include product %} extension panel's context menu.
-
-
-
-Like the other command areas, these commands will change along with the context. Commands such as **Jump to {% include product %}** and **Jump to Filesystem** will always be available here.
-
-### Logging console
-
-The logging console shows all of the logging output from both the CEP Javascript interpreter and Toolkit's Python process.
-
-
-
-If there are any issues with the extension that require support, the logging console output is extremely useful for helping the {% include product %} support team debug the problem.
-
-## Configuration and technical details
-
-The following sections outline some of the more technical aspects of the integration to help configure the integration to the specific needs of your studio pipeline.
-
-### PySide
-
-The {% include product %} engine for After Effects relies on PySide. Please see the official instructions for [Installing PySide](http://pyside.readthedocs.io/en/latest/installing/index.html).
-
-### CEP extension
-
-The extension itself is bundled with the engine and the engine handles installation automatically on the first launch of After Effects. The extension is installed on the artist's local machine in the standard, OS-specific CEP extension directories:
-
-```shell
-# Windows
-> C:\Users\[user name]\AppData\Roaming\Adobe\CEP\extensions\
-
-# OS X
-> ~/Library/Application Support/Adobe/CEP/extensions/
-```
-
-Each time After Effects is launched, the engine bootstrap code will check the version of the extension that is bundled with the engine against the version that is installed on the machine. This means that after an engine update, assuming a new version of the extension came with it, the installed extension will be automatically updated to the newly-bundled version.
-
-### Configuring favorites
-
-The **Favorites Shelf** can be configured to display any of the registered commands for your installed apps. To do this, simply add the `shelf_favorites` setting to the `tk-aftereffects` section of your environment configuration. Here's an example:
-
-```yaml
-shelf_favorites:
- - {app_instance: tk-multi-workfiles2, name: File Save...}
- - {app_instance: tk-multi-workfiles2, name: File Open...}
- - {app_instance: tk-multi-publish, name: Publish...}
- - {app_instance: tk-multi-snapshot, name: Snapshot...}
-```
-
-The value of the setting is a list of dictionaries identifying a registered command provided by one of the installed apps in the configuration. The `app_instance` key identifies a particular installed app and the `name` key matches the command's display name registered by that app. In the example above, you can see four favorited commands: the file open and save dialogs from the `tk-multi-workfiles2` app as well as the standard Toolkit publish and snapshot dialogs. These four commands will now show in the favorites shelf.
-
-### Environment variables
-
-To aid in debugging, there are a set of environment variables that change some of the engine's default values:
-
-- `SHOTGUN_ADOBE_HEARTBEAT_INTERVAL` - The Python heartbeat interval in seconds (default is 1 second).
-- `SHOTGUN_ADOBE_HEARTBEAT_TOLERANCE` - The number of heartbeat errors before quitting (default is 2). The legacy environment variable
-- `SGTK_PHOTOSHOP_HEARTBEAT_TOLERANCE` is also respected if set.
-- `SHOTGUN_ADOBE_NETWORK_DEBUG` - Include additional networking debug messages when logging output. The legacy environment variable
-- `SGTK_PHOTOSHOP_NETWORK_DEBUG` is also respected if set.
-- `SHOTGUN_ADOBE_PYTHON` - The path to the Python executable to use when launching the engine. If not set, the system Python is used. If Photoshop is launched from a Python process, like {% include product %} Desktop or via the tk-shell engine, the Python used by that process will be used by the Photoshop integration.
-
-Note: Additional environment variables exist in the Adobe Framework. For details, please see the [developer documentation](https://developer.shotgridsoftware.com/tk-framework-adobe/).
-
-
-### Context fields display hook
-
-The engine comes with a hook to control the fields displayed in the **Context Header** section of the panel. There are two methods in the hook that can be overridden to customize what is displayed.
-
-The first method is the `get_entity_fields()` method. This method accepts an entity type representing the current {% include product %} context. The expected return value is a list of fields for that entity that should be queried for display. The engine itself handles querying the data asynchronously.
-
-Once the data has been queried from {% include product %}, the second method in the hook is called. This method, `get_context_html()`, receives the context entity dictionary populated with the queried fields specified by the `get_entity_fields()` method. The expected return value is a string containing formatted HTML to display the queried entity fields.
-
-The [default hook implementation](https://github.com/shotgunsoftware/tk-aftereffects/blob/master/hooks/context_fields_display.py) is a good reference as to what is required by these methods.
-
-It should be noted that the engine will always display the entity thumbnail if one is available.
-
-### Import Footage Hook
-
-The engine comes with a hook to control the import behaviour of certain file types. One may want that a psd file will be imported as single layer instead of a composition. In this case the this hook may be used to overwrite this behaviour.
-
-The [default hook implementation](https://github.com/shotgunsoftware/tk-aftereffects/blob/master/hooks/import_footage.py)
-
-### After Effects API
-
-Please see the [developer documentation](https://developer.shotgridsoftware.com/tk-aftereffects) for details on the After Effects API.
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-alias.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-alias.md
deleted file mode 100644
index 04c469ee5..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-alias.md
+++ /dev/null
@@ -1,86 +0,0 @@
----
-layout: default
-title: Alias
-pagename: tk-alias
-lang: en
----
-
-# Alias
-
-The {% include product %} engine for Alias contains a standard platform for integrating {% include product %} Apps into Alias. It is lightweight and straight forward and adds a {% include product %} menu to the Alias menu.
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-alias %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-## Python Version Support
-
-The Alias toolkit engine uses the Python interpreter shipped with Shotgun Desktop, or a locally installed interpreter.
-
-|tk-alias Engine Version | Shotgun Desktop Application Version | Shotgun Desktop Engine Version | Python Interpreter Version |
-| ---------------------- | ----------------------------------- | ------------------------------ | -------------------------- |
-| v2.0.5 or older | v1.5.8 or older | v2.4.14 or older | v2.7.x |
-| v2.0.6 or newer | v1.6.0 or newer | v2.5.0 or newer | v2.7.x & v3.7.x |
-
-Tested locally installed Python Interpreters: v2.7.x or v3.7.4
-
-## Information for App Developers
-
-### PySide
-
-The {% include product %} engine for Alias uses a PySide installation shipped with the {% include product %} Desktop and will activate this whenever this is necessary.
-
-### Alias Project Management
-
-Whenever the {% include product %} engine for Alias starts, it will set the Alias Project to point at a location defined in the settings for this engine. This means that the Project may also change when a new file is opened. The details relating to how the Alias project is set based on a file can be configured in the configuration file, using the template system.
-
-***
-
-## Working with tk-alias
-
-This {% include product %} integration supports the Alias application family (Concept, Surface, and AutoStudio).
-
-When Alias opens, a {% include product %} menu (the Alias engine) is added to the menu bar.
-
-
-
-
-### File Open and Save
-
-Use the My Tasks and Assets tabs to see all your assigned tasks and browse for assets. To the right, use these tabs to view all files, working or published files associated with what is selected to the left.
-
-
-
-
-
-
-### Snapshot
-
-Opens the Snapshot dialog to create a quick backup of the current scene.
-
-
-
-
-### Publish
-
-Opens the Publish dialog for publishing the file to {% include product %}, which can then be used by artists downstream. For more information, see [Publishing in Alias](https://github.com/shotgunsoftware/tk-alias/wiki/Publishing).
-
-
-
-
-### Loader
-
-Opens the Content Loader app, allowing you to load data into Alias. For more information see [Loading in Alias](https://github.com/shotgunsoftware/tk-alias/wiki/Loading)
-
-
-
-### Scene Breakdown
-
-Opens the Breakdown dialog, which displays a list of referenced (WREF References) content, along with what in the scene is out-of-date. Select one or more items and click Update Selected to switch and use the latest version of the content. For more information see [Scene Breakdown in Alias](https://github.com/shotgunsoftware/tk-alias/wiki/Scene-Breakdown)
-
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-create.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-create.md
deleted file mode 100644
index 34070a8a2..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-create.md
+++ /dev/null
@@ -1,48 +0,0 @@
----
-layout: default
-title: Create
-pagename: tk-create
-lang: en
----
-
-# {% include product %} Create
-
-The Desktop2 Engine is the engine which runs inside of the [{% include product %} Create](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Supervisor_Artist_sa_create_sa_intro_create_html) Application. It handles DCC launching from {% include product %} Create, as well as from the {% include product %} web application via browser integration.
-
-The tk-desktop2 engine powers Toolkit's integration with {% include product %} Create. The {% include product %} Create provides support for features that users of Toolkit are familiar with, including [DCC launching](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Supervisor_Artist_sa_create_sa_create_artists_html#launching-your-creative-apps).
-
-
-
-
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-desktop2
-Updating to the latest version
-```
-
-If you already have this item installed in a project and you want to get the latest version, you can run the `update` command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio `tank` command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-desktop2.
-
-## Special Requirements
-
-You need {% include product %} Pipeline Toolkit Core API version v0.19.1 or higher to use this.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-desktop.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-desktop.md
deleted file mode 100644
index c6be0c194..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-desktop.md
+++ /dev/null
@@ -1,46 +0,0 @@
----
-layout: default
-title: Desktop
-pagename: tk-desktop
-lang: en
----
-
-# Desktop
-
-The tk-desktop engine is an application to let you easily run your Toolkit apps. It is a system tray based window that makes it easy to get started with Toolkit, setup Projects for Toolkit, and access your Projects' pipeline.
-
-## Site configuration and Project configuration
-
-
-
-When you launch the desktop application, it will startup the tk-desktop engine for your site configuration. This configuration is usually automatically managed, although it is possible to disable that behavior and take control over what is in that environment.
-
-One of the fundamental principles of Toolkit is that projects can be completely isolated from each other. This is usually done to make sure that changes made to one project cannot adversely effect another project (possibly nearing delivery). In order to offer this project isolation, the desktop engine makes sure that whenever you are looking at the commands for a particular project, you will run them in a separate python interpreter that has been initialized just for that project.
-
-When you click on a project, a python interpreter is launched in the background. This python interpreter is the one the project has been configured to use and on startup will initialize the tk-desktop for that project. That instance of the engine will communicate back to the GUI what commands it can launch.
-
-When you click on a command, that background python process is responsible for launching the command. This makes it possible (for example) to have one project running python 2.6 while testing python 2.7 on another project.
-
-## Registering custom panels
-
-Toolkit apps which have [panel based UI](http://developer.shotgridsoftware.com/tk-core/platform.html#sgtk.platform.Engine.show_panel) will be automatically docked in tabs inside of Desktop when they execute.
-
-If you have a panel based app such as the {% include product %} Panel, and want it to appear as a tab in {% include product %} Desktop, just configure it to run at startup. When Desktop starts up in its site context mode (where it displays all projects), it will launch all items registered to auto start. If any of these items are panels, these will get docked. Items will be processed in the order they are defined in the configuration and this will dictate the tab order.
-
-For example, if you wanted the {% include product %} Panel to show as a tab in {% include product %} Desktop, add the following configuration for your site level environment:
-
-```yaml
-tk-desktop:
- apps:
- tk-multi-shotgunpanel:
- actions_hook: ...
- action_mappings: ...
- location: ...
- location: ...
- run_at_startup:
- - {app_instance: '', name: Apps}
- - {app_instance: tk-multi-shotgunpanel, name: ''}
-```
-
-Please note that the special `Apps` entry controls where (in the tab order) the default `Apps` tab should appear.
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-flame.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-flame.md
deleted file mode 100644
index 030a63e37..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-flame.md
+++ /dev/null
@@ -1,62 +0,0 @@
----
-layout: default
-title: Flame
-pagename: tk-flame
-lang: en
----
-
-# Flame
-
-## Installation
-
-The {% include product %} engine for Flame relies on new integration hooks that were added in Flame 2015 Extension 2. This version of Flame *must* be used in order for the engine to function. For more info on Flame 2015 Extension 2 (including how to get it), reach out to [Flame Support](http://knowledge.autodesk.com/search-result/caas/sfdcarticles/sfdcarticles/Contacting-Autodesk-Flame-or-Smoke-Customer-Support.html).
-
-The simplest way to get started with the {% include product %} engine for Flame is to set up a new test project with our example pipeline configuration. You can do this by launching the {% include product %} Desktop, running the Project Setup for a new project and choosing the default Flame configuration (in the default configurations section).
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-flame %}
-
-## Flame Project Setup
-
-The {% include product %} engine for Flame also helps associate the {% include product %} project with a Flame project, and creates it if need be. This is key to the integration, as it ensures data from Flame gets associated with the right things in {% include product %}. As an added feature, the engine provides functionality for managing the naming conventions of Flame projects as well as the other various settings for the project.
-
-When Flame is launched via {% include product %} for the first time, a Flame project creation UI will appear that lets the artist edit the usual settings from the standard Flame project creation screen:
-
-
-
-But with the {% include product %} integration, the settings can be pre-populated with pipeline-friendly values, helping artists quickly get the right thing without having to think about it. The defaults can be customized via the `project_setup_hook`, which supports the following options:
-
-`use_project_settings_ui`
-If set to `True`, the project creation UI will appear. If `False`, the Flame project will automatically be created based on the rest of the defaults in the hook.
-
-`get_server_hostname`
-By default this is set to 'localhost', but it can be overridden if desired.
-
-`get_project_name`
-By default this is set to the same value as the {% include product %} project, but it can be overridden if desired.
-
-`get_volume`
-By default this is set to the first available storage, but it can be overridden if desired.
-
-`get_workspace`
-By default Flame will create a default workspace according to its standard workspace creation logic, but it can be overridden if desired.
-
-`get_user`
-This will try to associate the user logged into the Flame machine with a user in {% include product %}.
-
-`get_project_settings`
-This is where the main Flame settings are configured and the hook helps build the Flame project XML stream. The following parameters *must* be supplied:
-
-* FrameWidth (e.g. `1280`)
-* FrameHeight (e.g. `1080`)
-* FrameDepth (`16-bit fp`, `12-bit`, `12-bit u`, `10-bit`, `8-bit`)
-* FieldDominance (`PROGRESSIVE`, `FIELD_1`, `FIELD_2`)
-* AspectRatio (`4:3`, `16:9`, or floating point value as string)
-
-Proxy settings can also be supplied. For more info, see the [Autodesk Wiretap SDK docs](https://www.autodesk.com/developer-network/platform-technologies/wiretap)!
-
-To view the entire codebase for the project_setup hook, please see our [Github repo for the engine](https://github.com/shotgunsoftware/tk-flame/blob/master/hooks/project_startup.py).
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-houdini.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-houdini.md
deleted file mode 100644
index e518d4dcc..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-houdini.md
+++ /dev/null
@@ -1,138 +0,0 @@
----
-layout: default
-title: Houdini
-pagename: tk-houdini
-lang: en
----
-
-# Houdini
-
-The {% include product %} Engine for Houdini contains a standard platform for integrating {% include product %} Apps into Houdini.
-
-
-
-
-# Information for App Developers
-
-## Supported Platforms
-
-The {% include product %} Engine for Houdini is currently supported on Windows, Linux, and OSX
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-houdini %}
-
-## PySide
-
-For older versions of Houdini (13 and older) an external build of PySide is required. On Windows, we have bundled a compatible PySide build that will work with the python that Houdini runs. On Linux, Houdini uses the system python (per http://www.sidefx.com/docs/houdini12.0/hom/) which needs to have PySide or PyQt support.
-
-## Menu loading
-
-
-
-A dynamic menu system was introduced by Side Effects as of Houdini 15, so the engine now supports rebuilding of the {% include product %} menu on context switches.
-
-In Houdini 14 and older, the {% include product %} menu in Houdini is generated before Houdini starts and is static throughout the session. Due to this, the toolkit commands registered in the menu will not update on context changes.
-
-## {% include product %} shelf
-
-
-
-Release **v0.2.4** introduced a dynamic {% include product %} shelf to the engine. The shelf displays any registered app commands as tool buttons. The buttons will be displayed in roughly the same order as the menu commands.
-
-Use the `enable_sg_shelf` setting to turn on the shelf within an environment. If using a version of Houdini (14 or older) that does not support dynamic menus, you may also want to turn off the {% include product %} menu when using the shelf. This can be done by setting the `enable_sg_menu` setting to `false`.
-
-To enable context switching via the shelf, you'll also need to add entity types to the `sg_entity_types` setting of the `tk-multi-workfiles` app in your engine configuration.
-
-Here's a look at the settings related to the {% include product %} shelf:
-
-```yaml
-tk-houdini:
- apps:
- # ... other app definitions
- tk-multi-workfiles:
- # ... other app settings
- sg_entity_types: [Shot, Asset] # allow context switching to Shots or Assets
- # ... other app settings
- enable_sg_shelf: true
- enable_sg_menu: false
- # ... other engine settings
-```
-
-Once you've enabled the {% include product %} shelf, you need to manually add it to a shelf set inside houdini.
-
-
-
-Once added to a shelf set the {% include product %} shelf will remain there between houdini sessions and will update dynamically as your {% include product %} context changes.
-
-## Panels
-
-As of **v0.2.8** the engine adds support for embedded toolkit panels.
-
-The panel support currently requires Houdini version **15.0.272** or later for proper embedded panels. Registered panels will show up as panes in the pane menu for supported versions of Houdini.
-
-Older versions of Houdini will display the registered panels as dialogs. SESI may backport some bug fixes to newer builds of Houdini 14. If and when that happens, we will make embedded panels work for those versions as well.
-
-## Apps with OTLs
-
-The {% include product %} Engine for Houdini makes it easy to load application supplied OTLs. If you are writing an app which uses OTLs, you can just drop them into a folder called **otls** and the engine will automatically load them into your session:
-
-
-
-You can then easily access your nodes via the usual Houdini methods.
-
-**Warning!!** Please note that while the use of OTLs may be convenient, it is typically NOT the right solution if you want to create nodes that persist in a scene. The reason for this is because as soon as you have put an OTL in the scene, you have introduced a dependency between that scene and the OTL code. Not only will you need to load the {% include product %} Toolkit every time you load the scene, but you also need to carefully manage your code so that any updates to the code does not break old OTLs being used in scenes.
-
-## Startup Debugging via Terminal on OSX
-
-Turning on `debug_logging` for the `tk-houdini` engine on OS X will not send all debug messages to the Terminal. This is because, by default, the [`tk-multi-launchapp`](https://github.com/shotgunsoftware/tk-multi-launchapp) app uses the `open` command to launch executables. This does not spawn a new subprocess from the Terminal, but rather uses OS X's Launch Services to create a new process elsewhere. As a result, the log statements are not shown. Even having a python shell saved in the user's default desktop in houdini does not seem to show debugging statements during startup. After startup, and embedded Python shell will show debug logging statements, but there is a gap in available output during startup. If you need access to debug logging statements during engine startup, you can make 2 changes.
-
-First, change your `houdini_mac` path (temporarily) in your test configuration to point to the executable inside the Houdini app bundle. For example:
-
-```yaml
-#houdini_mac: /Applications/Houdini 15.0.272/Houdini Apprentice.app
-houdini_mac: /Applications/Houdini\ 15.0.272/Houdini\ Apprentice.app/Contents/MacOS/happrentice
-```
-
-Next, you can make a copy of the `tk-multi-launchapp` app's `app_launch` hook in your test configuration's `config/hooks` directory and point to it in your `config/env/includes/app_launchers.yml` file:
-
-```yaml
-launch_houdini:
- defer_keyword: ''
- engine: tk-houdini
- extra: {}
- hook_app_launch: app_launch # <----- use a custom app_launch hook
- hook_before_app_launch: default
- icon: '{target_engine}/icon_256.png'
- linux_args: ''
- linux_path: '@houdini_linux'
- location: {name: tk-multi-launchapp, type: app_store, version: v0.6.6}
- mac_args: ''
- mac_path: '@houdini_mac'
- menu_name: Launch Houdini
- versions: []
- windows_args: ''
- windows_path: '@houdini_windows'
-```
-
-Then all you have to do is modify the launch logic to launch the executable directly. As an example, you could keep the old behavior for directories (application bundles) and otherwise execute the command directly. Here's an example:
-
-```python
- elif system == "darwin":
- # on the mac, the executable paths are normally pointing
- # to the application bundle and not to the binary file
- # embedded in the bundle, meaning that we should use the
- # built-in mac open command to execute it
- if os.path.isdir(app_path):
- cmd = "open -n \"%s\"" % (app_path)
- if app_args:
- cmd += " --args \"%s\"" % app_args.replace("\"", "\\\"")
-
- # not a directory, execute directly
- else:
- cmd = "%s %s" % (app_path, app_args.replace("\"", "\\\""))
-```
-
-The next time you run `launch_houdini` via `tank` in the Terminal, you should get all the debug output. Once you're done testing, don't forget to revert your path and undo your app launch changes. Happy debugging!
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-mari.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-mari.md
deleted file mode 100644
index d243aa0f7..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-mari.md
+++ /dev/null
@@ -1,56 +0,0 @@
----
-layout: default
-title: Mari
-pagename: tk-mari
-lang: en
----
-
-# Mari
-
-The {% include product %} engine for Mari contains a standard platform for integrating {% include product %} Toolkit Apps into Mari. It is light weight and straight forward and adds a {% include product %} menu to the main menu.
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-mari %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-## Overview Video
-
-See the overview video [here](https://youtu.be/xIP7ChBWzrY).
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-mari
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the `update` command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio `tank` command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and {% include product %} in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-mari.
-
-
-
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-maya.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-maya.md
deleted file mode 100644
index 52528c0e6..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-maya.md
+++ /dev/null
@@ -1,61 +0,0 @@
----
-layout: default
-title: Maya
-pagename: tk-maya
-lang: en
----
-
-# Maya
-
-The {% include product %} engine for Maya contains a standard platform for integrating {% include product %} Apps into Maya. It is lightweight and straight forward and adds a {% include product %} menu to the Maya menu bar.
-
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-maya %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-## Pyside
-
-The {% include product %} engine for Maya contains a PySide installation, and will activate this whenever this is necessary.
-
-## Maya Project Management
-
-Whenever the {% include product %} engine for Maya starts, it will set the Maya Project to point at a location defined in the settings for this engine. This means that the Project may also change when a new file is opened. The details relating to how the maya project is set based on a file can be configured in the configuration file, using the template system.
-
-## Installation and Updates
-
-Adding this Engine to the {% include product %} Pipeline Toolkit
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-maya
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the `update` command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio tank command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-maya.
-
-
-
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-motionbuilder.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-motionbuilder.md
deleted file mode 100644
index 9300aa7a3..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-motionbuilder.md
+++ /dev/null
@@ -1,54 +0,0 @@
----
-layout: default
-title: Motion Builder
-pagename: tk-motionbuilder
-lang: en
----
-
-# Motion Builder
-
-
-
-The {% include product %} engine for Motion Builder contains a standard platform for integrating {% include product %} Toolkit Apps into Motion Builder. It is light weight and straight forward and adds a {% include product %} menu to the main menu.
-
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-motionbuilder %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-motionbuilder
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the `update` command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio tank command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-motionbuilder.
-
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-nuke.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-nuke.md
deleted file mode 100644
index cf0aed01b..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-nuke.md
+++ /dev/null
@@ -1,325 +0,0 @@
----
-layout: default
-title: Nuke
-pagename: tk-nuke
-lang: en
----
-
-# Nuke
-
-The {% include product %} engine for Nuke contains a standard platform for integrating {% include product %} Apps into Nuke, Nuke Studio, and Hiero. It is light weight and straight forward and adds a bunch of new things to Nuke.
-
-It creates a **{% include product %} Menu** in Nuke on which various items are displayed:
-
-
-
-It creates a **{% include product %} Node Menu** in Nuke on which various items are displayed:
-
-
-
-It adds {% include product %} shortcuts to the file dialogs which makes it easy to jump to various file system locations:
-
-
-
-You can add your own shortcuts based on template paths in your current environment with the `favourite_directories` setting. The setting expects a list of dictionaries, with each item in the list representing a new favourite directory. Here is an example of the format you would use: (the icon can also be left unspecified by providing "" as the value.)
-
-``` yaml
- favourite_directories:
- - display_name: "Shot Publish Path"
- template_directory: "shot_publish_area_nuke"
- icon: "icons/custom_publish_icon.png"
- - display_name: "Shot Work Path"
- template_directory: "shot_work_area_nuke"
- icon: "icons/custom_work_icon.png"
-```
-
-The "{% include product %} Current Project" favourite is added automatically for each root defined. You can customize the name with the `project_favourite_name` setting, or disable these favourites by setting the value to an empty string `''`
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-nuke %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-***
-
-_Note: There is currently a bug in Nuke 8.0 running specifically on CentOS 6.5 that causes Nuke to crash when running Toolkit. Other versions of CentOS are unaffected. The Foundry is aware of this issue (bug 43766). If you are running into this, please contact us so we can try and help you workaround it until it is resolved in a future update of Nuke._
-
-
-## Information for App Developers
-
-### Context Tracking
-
-The {% include product %} engine for Nuke will switch context automatically when files are loaded. Whenever a file is loaded, the engine will look at the file, try and resolve a context from it.
-
-### Apps with custom gizmos
-
-The {% include product %} engine for Nuke makes it easy to handle custom gizmos. If you are writing an app which uses custom gizmos, you can just drop them into a folder called **gizmos** and the engine will automatically add that location to the nuke path:
-
-
-
-You can then easily access your gizmo via the create node functionality:
-
-* `nuke.createNode("WriteTank")`
-
-{% include info title="Warning" content="Please note that while the use of gizmos may be convenient, it is typically NOT the right solution if you want to create nodes that persist in a scene. The reason for this is because as soon as you have put a gizmo in the scene, you have introduced a dependency between that scene and the gizmo code. Not only will you need to load the ShotGrid Toolkit every time you load the scene, but you also need to carefully manage your code so that any updates to the code does not break old gizmos being used in scenes." %}
-
-### Apps Creating Nodes
-
-Apps that create custom nuke nodes need to be carefully crafted. We recommend not using gizmos since these require a dependency between the scene and the gizmo code. Instead, save your custom nodes as a nuke file and import them into the scene:
-
-```python
- group_node_script = os.path.join(self.disk_location, "resources", "my_group_node.nk")
- group_node = nuke.nodePaste(group_node_script)
-```
-
-Any code calling the node from within the app can just use the instance returned.
-
-Any code needing to call the app from inside the group should do so carefully so that the code is backwards compatible. We recommend the following approach:
-
-At app startup, register app handle as part of the nuke namespace:
-
-```python
- def init_app(self):
-
- nuke.tk_nuke_nameofmyapp = self
-```
-
-If you for example have a button on your group node and want to call some {% include product %} app code, try to gracefully fail if the {% include product %} Toolkit cannot be found. The below code is code that is associated with a python button knob that belongs to the group node that the app can create:
-
-```python
-# have to gracefully support the case when
-# sgtk is not in the system at all!
-import nuke
-try:
- app = nuke.tk_nuke_nameofmyapp
- app.do_something_v1(nuke.thisNode())
-except:
- nuke.warning("Could not do XYZ! Most likely Sgtk is not currently active.")
-```
-
-If you make changes to the app behaviour, just keep versioning up the version number on the app callback and that way your app code can support both the new and the old behaviour.
-
-## Using the {% include product %} Engine for Nuke within Hiero
-
-The {% include product %} engine for Nuke is also used for {% include product %}-aware integrations running within Hiero.
-
-It allows you to place {% include product %} App actions in several places in the application, both in a specific {% include product %} menu on the main menu bar and in the various right click context menus that you find in the different Hiero panels.
-
-
-
-### How to Configure Hiero Menus
-
-Because Hiero has several different menus, there are more options to configure where menu items go than in Maya or Nuke, for example. The {% include product %} engine for Nuke's Hiero workflow configuration may look like this:
-
-```yaml
-
- tk-hiero:
- location: {name: tk-nuke, type: app_store, version: v0.6.9}
- debug_logging: false
-
- timeline_context_menu:
- - {app_instance: tk-hiero-openinshotgun, keep_in_menu: false, name: Open in Shotgun, requires_selection: true}
-
- spreadsheet_context_menu:
- - {app_instance: tk-hiero-openinshotgun, keep_in_menu: false, name: Open in Shotgun, requires_selection: true}
-
- bin_context_menu:
- - {app_instance: tk-multi-workfiles, keep_in_menu: false, name: "{% include product %} Save As...", requires_selection: true}
- - {app_instance: tk-multi-workfiles, keep_in_menu: false, name: "Version up Current Scene...", requires_selection: true}
- - {app_instance: tk-multi-snapshot, keep_in_menu: false, name: "Snapshot...", requires_selection: true}
- - {app_instance: tk-multi-snapshot, keep_in_menu: false, name: "Snapshot History...", requires_selection: true}
- - {app_instance: tk-multi-publish, keep_in_menu: false, name: "Publish Project...", requires_selection: true}
-
- menu_favourites:
- - {app_instance: tk-multi-workfiles, name: Shotgun File Manager...}
-```
-
-Most engines have a `menu_favourites` option, a list where you can specify "shortcuts" which are put on the main {% include product %} menu. In addition to this, the Hiero-specific configuration has three special sections:
-
-- `timeline_context_menu` represents the menu you get when you right click on a clip in the
- time line editor.
-- `spreadsheet_context_menu` represents the menu you get when you right click on a selection of
- items in the spreadsheet editor.
-- `bin_context_menu` represents the menu you get when you right click on a selection in of items
- in the bin editor, where you see all the different projects and media.
-
-In order to add items to these menus, just make sure that the `name` field you define in the config matches what the App is displaying on its menus.
-
-#### Apps which require the concept of a current scene
-
-Some Toolkit Apps requires a notion of a default scene or default project. For example, the snapshot app knows how to snapshot the current scene. However, unlike Maya or Nuke, Hiero does not have a concept of a current scene. Several projects can be opened in Hiero at the same time. Therefore, you often need to add special logic in your hooks to help an app (like the snapshot app) to find out which project is being clicked on. We show how this works in the following doc sections.
-
-### Information for App Developers
-
-Because Hiero does not have the notion of a current project, we have added more powerful tools so that Apps can easily find out what is being clicked on inside of Hiero. Therefore, two methods have been added to the {% include product %} engine for Hiero:
-
-
-#### get_menu_selection()
-
-Returns the list of Hiero objects selected in the most recent menu click.
-This list may contain items of various types. To see exactly what is being
-returned by which methods, turn on debug logging - this will print out details
-of what is going on.
-
-Examples of objects that are being returned are:
-
-- Selecting a project in the bin view: [hiero.core.Bin](https://learn.foundry.com/hiero/developers/2.0/hieropythondevguide/api/api_core.html#hiero.core.Bin)
-- Selecting an item in a bin view: [hiero.core.BinItem](https://learn.foundry.com/hiero/developers/2.0/hieropythondevguide/api/api_core.html#hiero.core.BinItem)
-- Selecting a track: [hiero.core.TrackItem](https://learn.foundry.com/hiero/developers/2.0/hieropythondevguide/api/api_core.html#hiero.core.TrackItem)
-
-`list` engine_object.get_menu_selection()
-
-**Parameters & Return Value**
-
-* **Returns:** List of Hiero Objects
-
-**Example**
-
-Get the objects selected in the most recent click,
-ensure that a single object was selected and that this
-object is a valid Hiero project. This can be useful for example if you want to trigger
-save, load or publish operations for a project in Hiero.
-
-```python
-# get the menu selection from the engine
-selection = engine_obj.get_menu_selection()
-
-if len(selection) != 1:
- raise TankError("Please select a single Project!")
-
-if not isinstance(selection[0] , hiero.core.Bin):
- raise TankError("Please select a Hiero Project!")
-
-project = selection[0].project()
-if project is None:
- # apparently bins can be without projects (child bins I think)
- raise TankError("Please select a Hiero Project!")
-```
-
-#### HieroEngine.get_menu_category()
-
-Returns the UI area where the last menu click took place. This command is less
-likely to be used - you may need it in cases where you have an app command that you want
-to behave differently depending on which menu it was called from.
-
-`area_enum` engine_object.get_menu_category()
-
-**Parameters & Return Value**
-
-Returns one of the following constants:
-
-- `HieroEngine.HIERO_BIN_AREA`
-- `HieroEngine.HIERO_SPREADSHEET_AREA`
-- `HieroEngine.HIERO_TIMELINE_AREA`
-- `None` for unknown or undefined
-
-#### How to configure your hooks to work with Hiero
-
-Multi Apps configured for Hiero will typically need to find out which project was being clicked on. For example, the `tk-multi-workfiles` App needs to do a "{% include product %} Save As" of a project. We therefore add the Tank Save As command to the bin menu in Hiero so that a user can right click a project in the bin view and select the *Save As* option.
-
-
-
-The engine configuration would look like this:
-
-```yaml
-bin_context_menu:
-- {app_instance: tk-multi-workfiles, keep_in_menu: false, name: "{% include product %} Save As...", requires_selection: true}
-```
-
-Now, in the app itself, each engine needs to configure a hook which handles scene events such as
-save and load. For an application like Maya or Nuke, this is normally just doing a save, a load etc.
-But for Hiero, we need to start by finding out which project was actually clicked. The hook code
-in our example above would look like this:
-
-```python
-class SceneOperation(Hook):
- """
- Hook called to perform an operation with the
- current scene
- """
-
- def execute(self, operation, file_path, context, **kwargs):
- """
- Main hook entry point
-
- :operation: String
- Scene operation to perform
-
- :file_path: String
- File path to use if the operation
- requires it (e.g. open)
-
- :context: Context
- The context the file operation is being
- performed in.
-
- :returns: Depends on operation:
- 'current_path' - Return the current scene
- file path as a String
- 'reset' - True if scene was reset to an empty
- state, otherwise False
- all others - None
- """
-
- if operation == "current_path":
- # return the current script path
- project = self._get_current_project()
- curr_path = project.path().replace("/", os.path.sep)
- return curr_path
-
- elif operation == "open":
- # open the specified script
- hiero.core.openProject(file_path.replace(os.path.sep, "/"))
-
- elif operation == "save":
- # save the current script:
- project = self._get_current_project()
- project.save()
-
- elif operation == "save_as":
- project = self._get_current_project()
- project.saveAs(file_path.replace(os.path.sep, "/"))
-
- elif operation == "reset":
- # do nothing and indicate scene was reset to empty
- return True
-
- elif operation == "prepare_new":
- # add a new project to hiero
- hiero.core.newProject()
-
-
- def _get_current_project(self):
- """
- Returns the current project based on where in the UI the user clicked
- """
-
- # get the menu selection from the engine
- selection = self.parent.engine.get_menu_selection()
-
- if len(selection) != 1:
- raise TankError("Please select a single Project!")
-
- if not isinstance(selection[0] , hiero.core.Bin):
- raise TankError("Please select a Hiero Project!")
-
- project = selection[0].project()
- if project is None:
- # apparently bins can be without projects (child bins I think)
- raise TankError("Please select a Hiero Project!")
-
- return project
-```
-
-#### Using debug logging to see menu events
-
-If you want to see which objects are returned by Hiero when a certain selection is clicked on,
-just turn on the engine debug mode. In the script editor you get a summary of the objects
-that are selected with each click:
-
-
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-photoshopcc.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-photoshopcc.md
deleted file mode 100644
index fa40cb0d5..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-photoshopcc.md
+++ /dev/null
@@ -1,228 +0,0 @@
----
-layout: default
-title: Photoshop
-pagename: tk-photoshopcc
-lang: en
----
-
-# Photoshop
-
-The {% include product %} engine for Photoshop CC provides a platform for integrating {% include product %} into your Photoshop CC workflow. It consists of a standard {% include product %} Pipeline Toolkit engine and relies on the [tk-framework-adobe](https://github.com/shotgunsoftware/tk-framework-adobe) (CEP).
-
-Once enabled, a **{% include product %}** panel becomes available in Photoshop CC. It displays information about the current {% include product %} context as well as the commands that are registered for the apps installed in that context.
-
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-photoshopcc %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-## Interface Overview
-
-The {% include product %} extension panel uses the same color palette and basic layout as native Photoshop CC panels. It is comprised of five components:
-
-
-
-1. **Context Header** - Thumbnail and fields for the current context.
-2. **Favorites Shelf** - Designed to show the most commonly-used apps for the current context.
-3. **Command List** - All non-favorited commands for the current context.
-4. **Context Menu** - Additional context-related commands and debugging tools.
-5. **Logging Console** - A console overlay that displays logging output for debugging.
-
-## Installation
-
-Installation of the {% include product %} Engine for Photoshop CC follows the same protocol as the other {% include product %} integrations. For information on installing engines and apps, see the [Administering Toolkit](https://developer.shotgridsoftware.com/425b1da4/) article. In addition, you can reference the [default toolkit config](https://github.com/shotgunsoftware/tk-config-default2) as an example of how to configure the integration.
-
-## Enabling the extension
-
-Once the extension is installed, it will need to be launched via the extensions menu in Photoshop CC.
-
-
-
-This will only need to be done once and the {% include product %} extension panel can remain in the Photoshop CC layout without having to be enabled on subsequent launches.
-
-Once enabled, and on future launches, the extension panel will display a loading screen while the {% include product %} integration is bootstrapping.
-
-This screen typically displays for a few seconds before the current context is determined and the commands are displayed.
-
-## Interface components
-
-The following sections outline the components of the {% include product %} Photoshop CC integration.
-
-### Context header
-
-The context header is a customizable area which can display information about the current {% include product %} context.
-
-
-
-The context is determined by the currently-active document. Once the context is determined by the engine, the header will update to display the context's thumbnail field detail. The field information is controlled by a hook. For information on how to customize the field display, see the **Context Fields Display Hook** section below.
-
-It should also be noted that since Photoshop CC is a multi-document interface, the context, and therefore the {% include product %} extension, will update as you change the active document. It is important that artists understand this behavior, especially when working in multiple {% include product %} contexts simultaneously.
-
-### Favorites shelf
-
-The favorites shelf is similar to the menu favorites available in other {% include product %} DCC integrations such as Maya and Houdini. This section of the interface makes the most commonly used Toolkit apps readily available and easy to find just under the context header.
-
-
-
-The shelf displays the favorited commands as buttons that, when moused over, transition from grayscale to color and display their name in the label at the top. Tooltips for the buttons will show by hovering the mouse above them.
-
-Clicking one of the buttons will trigger the callback for the registered command to execute.
-
-For details on how to specify command favorites, see the **Shelf Favorites** section below.
-
-### Command list
-
-The command list shows the other "regular" commands that are registered for the current context.
-
-
-
-Typically, apps installed within a pipeline configuration will register one or more commands that are displayed here. If the commands are not identified as favorites, and are not identified as context-menu commands, they will display here.
-
-The command list buttons behave in a manner similar to those in the favorites shelf. The only real difference is that they display as a list with the full name to the right of their icon.
-
-### Context menu
-
-Any commands registered as context menu commands will show in the {% include product %} extension panel's context menu.
-
-
-
-Like the other command areas, these commands will change along with the context. Commands such as **Jump to {% include product %}** and **Jump to Filesystem** will always be available here.
-
-### Logging console
-
-The logging console shows all of the logging output from both the CEP Javascript interpreter and Toolkit's Python process.
-
-
-
-If there are any issues with the extension that require support, the logging console output is extremely useful for helping the {% include product %} support team debug the problem.
-
-## Configuration and technical details
-
-The following sections outline some of the more technical aspects of the integration to help configure the integration to the specific needs of your studio pipeline.
-
-### PySide
-
-The {% include product %} engine for Photoshop CC relies on PySide. Please see the official instructions for [Installing Pyside](http://pyside.readthedocs.io/en/latest/installing/index.html).
-
-### CEP extension
-
-The extension itself is bundled with the engine and the engine handles installation automatically on the first launch of Photoshop CC. The extension is installed on the artist's local machine in the standard, OS-specific CEP extension directories:
-
-```shell
-# Windows
-> C:\Users\[user name]\AppData\Roaming\Adobe\CEP\extensions\
-
-# OS X
-> ~/Library/Application Support/Adobe/CEP/extensions/
-```
-
-Each time Photoshop CC is launched, the engine bootstrap code will check the version of the extension that is bundled with the engine against the version that is installed on the machine. This means that after an engine update, assuming a new version of the extension came with it, the installed extension will be automatically updated to the newly-bundled version.
-
-### Configuring favorites
-
-The **Favorites Shelf** can be configured to display any of the registered commands for your installed apps. To do this, simply add the `shelf_favorites` setting to the `tk-photoshopcc` section of your environment configuration. Here's an example:
-
-```yaml
-shelf_favorites:
- - {app_instance: tk-multi-workfiles2, name: File Save...}
- - {app_instance: tk-multi-workfiles2, name: File Open...}
- - {app_instance: tk-multi-publish, name: Publish...}
- - {app_instance: tk-multi-snapshot, name: Snapshot...}
-```
-
-The value of the setting is a list of dictionaries identifying a registered command provided by one of the installed apps in the configuration. The `app_instance` key identifies a particular installed app and the `name` key matches the command's display name registered by that app. In the example above, you can see four favorited commands: the file open and save dialogs from the `tk-multi-workfiles2` app as well as the standard Toolkit publish and snapshot dialogs. These four commands will now show in the favorites shelf.
-
-### Context fields display hook
-
-The engine comes with a hook to control the fields displayed in the **Context Header** section of the panel. There are two methods in the hook that can be overridden to customize what is displayed.
-
-The first method is the `get_entity_fields()` method. This method accepts an entity type representing the current {% include product %} context. The expected return value is a list of fields for that entity that should be queried for display. The engine itself handles querying the data asynchronously.
-
-Once the data has been queried from {% include product %}, the second method in the hook is called. This method, `get_context_html()`, receives the context entity dictionary populated with the queried fields specified by the `get_entity_fields()` method. The expected return value is a string containing formatted HTML to display the queried entity fields.
-
-The [default hook implementation](https://github.com/shotgunsoftware/tk-photoshopcc/blob/master/hooks/context_fields_display.py) is a good reference as to what is required by these methods.
-
-It should be noted that the engine will always display the entity thumbnail if one is available.
-
-### Photoshop API
-
-The engine exposes the Javascript API for Photoshop CC to Python. The full docs for this API can be found [here](http://wwwimages.adobe.com/content/dam/Adobe/en/devnet/photoshop/pdfs/photoshop-cc-javascript-ref-2015.pdf).
-
-The Photoshop API object is exposed as `engine.adobe`. The examples below show how it is possible to directly manipulate the Photoshop DOM from within Toolkit apps and hooks. The standard Toolkit apps also contain working examples of how to interact with Photoshop documents.
-
-#### Examples
-Load a file:
-
-```python
-f = adobe.File('/Path/To/File.jpeg')
-adobe.app.load(f)
-```
-
-Set the ruler units to PIXELS:
-
-```python
-pixels = adobe.Units.PIXELS
-adobe.app.preferences.rulerUnits = pixels
-```
-
-Export the current doc for the web with default options:
-
-```python
-temp_thumb_file = adobe.File(out_path)
-save_for_web = adobe.ExportType.SAVEFORWEB
-export_options = adobe.ExportOptionsSaveForWeb()
-adobe.app.activeDocument.exportDocument(temp_thumb_file, save_for_web, export_options)
-```
-
-Export each layer as a separate file:
-
-```python
-doc = adobe.app.activeDocument
-layers = doc.artLayers
-layers = [layers[i] for i in xrange(layers.length)]
-original_visibility = [layer.visible for layer in layers]
-
-save_for_web = adobe.ExportType.SAVEFORWEB
-export_options = adobe.ExportOptionsSaveForWeb()
-
-for layer in layers:
- layer.visible = False
-
-for layer in layers:
- layer.visible = True
- out_file = adobe.File("c:/layer.%s.jpg" % str(layer.name))
- doc.exportDocument(
- out_file,
- save_for_web,
- export_options,
- )
- layer.visible = False
-
-for (i, layer) in enumerate(layers):
- layer.visible = original_visibility[i]
-```
-
-### Environment variables
-
-To aid in debugging, there are a set of environment variables that change some of the engine's default values:
-
-`SHOTGUN_ADOBE_HEARTBEAT_INTERVAL` - The Python heartbeat interval in seconds (default is 1 second). The legacy environment variable `SGTK_PHOTOSHOP_HEARTBEAT_INTERVAL` is also respected if set.
-
-`SHOTGUN_ADOBE_HEARTBEAT_TOLERANCE` - The number of heartbeat errors before quitting (default is 2). The legacy environment variable `SGTK_PHOTOSHOP_HEARTBEAT_TOLERANCE` is also respected if set.
-
-`SHOTGUN_ADOBE_NETWORK_DEBUG` - Include additional networking debug messages when logging output. The legacy environment variable `SGTK_PHOTOSHOP_NETWORK_DEBUG` is also respected if set.
-
-`SHOTGUN_ADOBE_PYTHON` - The path to the Python executable to use when launching the engine. If not set, the system Python is used. If Photoshop is launched from a Python process, like {% include product %} Desktop or via the tk-shell engine, the Python used by that process will be used by the Photoshop integration.
-
-Note: Additional environment variables exist in the Adobe Framework. For details, please see the
-[developer documentation](https://developer.shotgridsoftware.com/tk-framework-adobe/).
-
-### App Developer notes
-
-* Because the python process is separate from the Photoshop CC process, there is some work done within the engine to try to make the app windows show above the Photoshop window in as clean a manner as possible. One gotcha with this setup is the default option to use native OS windows for `QFileDialog`. If you are developing an app for use with this engine, be sure
-to set the option to not use the native dialog. [See an example of this in the tk-multi-pythonconsole app](https://github.com/shotgunsoftware/tk-multi-pythonconsole/blob/master/python/app/console.py#L218).
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-shell.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-shell.md
deleted file mode 100644
index d0f5e3221..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-shell.md
+++ /dev/null
@@ -1,44 +0,0 @@
----
-layout: default
-title: Shell
-pagename: tk-shell
-lang: en
----
-
-# Shell
-
-The {% include product %} engine for the shell handles command line interaction and is tightly integrated with the `tank` command which is distributed as part of the Core API. When you execute the `tank` command in a terminal, Toolkit launches the engine to handle app execution.
-
-For more information about the tank command, please see our [Advanced Toolkit Administration documentation](https://developer.shotgridsoftware.com/425b1da4/?title=Advanced+Toolkit+Administration#using-the-tank-command).
-
-
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-
-```
-> tank Project XYZ install_engine asset tk-shell
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the `update` command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio `tank` command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-shell.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-shotgun.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-shotgun.md
deleted file mode 100644
index ea7431aa0..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-shotgun.md
+++ /dev/null
@@ -1,94 +0,0 @@
----
-layout: default
-title: ShotGrid
-pagename: tk-shotgun
-lang: en
----
-
-# {% include product %}
-
-
-
-The {% include product %} engine manages apps that can be launched from within {% include product %}. Sometimes we refer to these Toolkit Apps as *Actions*. They typically appear as items on menus inside of {% include product %}.
-
-## Using {% include product %} Pipeline Toolkit Actions
-
-Actions are visible on the {% include product %} Home page:
-
-
-
-They can also be found on the standard {% include product %} context menu, which can be shown by right clicking
-on an object or a selection:
-
-
-
-When you click on an action, processing will immediately start. Once the app has completed, a message is typically displayed with some status information, or an error message if things didn't work.
-
-## Developing Apps for {% include product %}
-
-Developing apps that run inside of {% include product %} is easy! If you are not familiar with how app development works in general, head over to the Platform documentation and read the introductory material over there. In this section we will just cover the {% include product %} specific aspects of the app development process!
-
-As of Core v0.13, you can use all the multi apps with the {% include product %} Engine. Technically speaking there is little difference between the {% include product %} engine and other engines. There are, however, some subtle differences:
-
-* You will need to manually install PySide or PyQt into your standard python environment if you want to
- execute QT based apps in the {% include product %} Engine.
-* It is possible in the {% include product %} engine to make an action visible to a user depending on which
- permissions group they belong to. This is useful if you want example want to add a command to
- the {% include product %} Action menu and you only want admins to see it.
-
-A hello-world style {% include product %} App, only visible to admins, would look something like this:
-
-```python
-from tank.platform import Application
-
-class LaunchPublish(Application):
-
- def init_app(self):
- """
- Register menu items with {% include product %}
- """
- params = {
- "title": "Hello, World!",
- "deny_permissions": ["Artist"],
- }
-
- self.engine.register_command("hello_world_cmd", self.do_stuff, params)
-
-
- def do_stuff(self, entity_type, entity_ids):
- # this message will be displayed to the user
- self.engine.log_info("Hello, World!")
-```
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-shotgun
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the `update` command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio tank command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-shotgun.
-
-## Special Requirements
-
-You need {% include product %} Pipeline Toolkit Core API version v0.19.5 or higher to use this.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-softimage.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-softimage.md
deleted file mode 100644
index b0b7049f4..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-softimage.md
+++ /dev/null
@@ -1,149 +0,0 @@
----
-layout: default
-title: Softimage
-pagename: tk-softimage
-lang: en
----
-
-# Softimage
-
-> **Warning:** The Softimage engine has been end of lifed as of February 13th, 2021. [Learn more here](https://community.shotgridsoftware.com/t/end-of-life-for-softimage-support-on-february-13th-2021/10694).
-
-
-
-The {% include product %} engine for Softimage establishes a bridge between the {% include product %} Pipeline Toolkit apps and Softimage. It contains PySide/Qt distributions, making it possible to write apps using Python and PySide that run right inside the engine. This document refers to more advanced configuration setups.
-
-The {% include product %} engine for Softimage contains a standard platform for integrating {% include product %} Apps into Softimage. The engine supports the usual suite of apps providing automatic file management, a well defined work-area/publish workflow, snapshot, etc.
-
-When the engine is loaded, a {% include product %} Menu is provided in the main Softimage menubar:
-
-
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions: 2012, 2013. Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-Available Toolkit commands are displayed here.
-
-Please note that the {% include product %} engine for Softimage is in beta and there are a few known issues - please see below for a full list.
-
-## Information for App Developers
-
-### Supported platforms
-
-The {% include product %} engine for Softimage currently supports Softimage 2012 & 2013 on Windows and 2013 on Linux.
-
-Softimage 2014 is not currently supported on Linux and whilst it can be run on Windows, there are some instability issues so it's use is definitely not recommended!
-
-### PySide
-
-#### Windows
-
-Under Windows, Softimage can be configured to use either the built-in Python distribution or an external distribution - see http://download.autodesk.com/global/docs/softimage2013/en_us/userguide/index.html?url=files/userprefs528.htm,topicNumber=d30e797817 for further details.
-
-The engine is bundled with versions of PySide & Qt for the installed versions of Python for Softimage, versions 2012 (Python 2.6 x64), 2013 (Python 2.6 x64) & 2014 (Python 2.7 x64). However, if you are using an external distribution of Python then you should be sure to provide a binary compatible version of PySide & Qt as well.
-
-A good resource for Windows PySide distributions can be found here: http://www.lfd.uci.edu/~gohlke/pythonlibs/
-
-#### Linux
-
-Under Linux, Softimage has to use the built-in version of Python. For Softimage 2013, a pre-built distribution of PySide & Qt is required and provided by [tk-framework-softimageqt](https://github.com/shotgunsoftware/tk-framework-softimageqt). This distribution has been built using GCC 4.1.2 for Python 2.5.2, the same versions used by Softimage 2013.
-
-Because of the many different Linux distributions, there isn't a guarantee that this will work with every one so it may be necessary to rebuild these yourself to get things working. Full details of how the version was built can be found in the README included with the framework, here:
-
-https://github.com/shotgunsoftware/tk-framework-softimageqt/tree/master/resources/pyside121_py25_qt485_linux
-
-### Known Issues (Windows)
-
-#### Softimage 2014 Instability
-
-Although the engine will run under Softimage 2014 on Windows there are known issues and it hasn't been fully tested. Opening the Publish dialog will cause Softimage to crash!
-
-#### SSL Bug in Softimage 2014
-
-The `_ssl.pyd` file distributed with Softimage 2014 contains a known bug which may cause slowdowns at startup. We recommend backing up and then overwriting this file with the `_ssl.pyd` file you can find in Maya 2014 in order to resolve these issues. If you need more help or advice with this, don't hesitate to contact the toolkit support.
-
-#### Window Parenting
-
-Qt windows created without a parent and without using the engine's `show_modal` or `show_dialog` methods will not be parented correctly to the main Softimage application.
-
-### Known Issues (Linux)
-
-#### Missing ssl & sqlite3 Libraries
-
-In addition to requiring a very specific version of PySide (detailed above), Softimage is also missing ssl and sqlite3 libraries required by the {% include product %} Python API and Toolkit.
-
-We have included these as part of the `tk-multi-launchapp` app which also adds them to the LD_LIBRARY_PATH & PYTHONPATH prior to launching Softimage. Again though, if you have problems with these then detailed instructions for how to build them for your system can be found in the README included with the app, here:
-
-https://github.com/shotgunsoftware/tk-multi-launchapp/blob/master/app_specific/softimage/linux/lib/README
-
-#### Segmentation Faults In libX11.
-
-Softimage on Linux contains an optional hack to address speed issues on certain linux distributions. This is detailed here:
-
-http://xsisupport.com/2011/01/19/the-case-of-the-slow-2011-startup-on-fedora-14/
-
-This tells Softimage to use a different version of the libX11 library found in:
-
-/usr/Softimage/Softimage_2013/Application/mainwin/mw/lib-amd64_linux_optimized/X11
-
-If you are using this hack then you will probably get segmentation faults during calls by Qt to the libX11 library (SIGSEGV in the call stack) resulting in frequent crashing. This is because the hack version of the libX11 library is quite old and not compatible with the version Qt was built against!
-
-To resolve this, a new version of Qt will need to be built against a version of libX11 compatible with the Softimage hack version...
-
-#### Segmentation Faults In libssl
-
-If you are using a recent version of openssl, not built using the correct version of GCC (4.1.2) you may see Segmentation faults (SIGSEGV) when the {% include product %} API is used.
-
-This isn't specific to Qt/PySide but worth mentioning here as it's the second most common problem!
-
-Please see:
-
-https://github.com/shotgunsoftware/tk-multi-launchapp/blob/master/app_specific/softimage/linux/lib/README
-
-for instructions on how to build a compatible version of openssl for Softimage 2013.
-
-#### Window Parenting
-
-Currently, Toolkit windows are not parented to the main Softimage application window on Linux. As a work-around they are created to be topmost but this can sometimes mean that other windows (particularly confirmation dialogs) can be hidden behind them.
-
-If Softimage seems to have hung, try moving any open Toolkit windows to see if there is a dialog hiding behind it!
-
-#### Softimage/Toolkit Freezes After Moving Window
-
-You will find that when you move a modeless dialog (e.g. the {% include product %} File Manager), the contents of both Softimage and the dialog will appear to freeze/hang. This is an issue to do with the way the Qt message queue is currently implemented but unfortunately we are yet to find an alternative solution!
-
-As a simple workaround, when this happens if you just click in the main Softimage Viewport, you will find that everything starts working correctly again!
-
-## Installation and Updates
-
-### Adding this Engine to the {% include product %} Pipeline Toolkit
-
-If you want to add this engine to Project XYZ, and an environment named asset, execute the following command:
-
-```
-> tank Project XYZ install_engine asset tk-softimage
-```
-
-### Updating to the latest version
-
-If you already have this item installed in a project and you want to get the latest version, you can run the `update` command. You can either navigate to the tank command that comes with that specific project, and run it there:
-
-```
-> cd /my_tank_configs/project_xyz
-> ./tank updates
-```
-
-Alternatively, you can run your studio `tank` command and specify the project name to tell it which project to run the update check for:
-
-```
-> tank Project XYZ updates
-```
-
-## Collaboration and Evolution
-
-If you have access to the {% include product %} Pipeline Toolkit, you also have access to the source code for all apps, engines and frameworks in Github where we store and manage them. Feel free to evolve these items; use them as a base for further independent development, make changes (and submit pull requests back to us!) or simply tinker with them to see how they have been built and how the toolkit works. You can access this code repository at https://github.com/shotgunsoftware/tk-softimage.
-
-## Special Requirements
-
-You need {% include product %} Pipeline Toolkit Core API version v0.14.56 or higher to use this.
\ No newline at end of file
diff --git a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-vred.md b/docs/en/reference/pipeline-integrations/toolkit-engines/tk-vred.md
deleted file mode 100644
index 61bc01ce2..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-engines/tk-vred.md
+++ /dev/null
@@ -1,63 +0,0 @@
----
-layout: default
-title: VRed
-pagename: tk-vred
-lang: en
----
-
-# VRed
-
-The {% include product %} engine for VRED contains a standard platform for integrating {% include product %} Apps into VRED. It is lightweight and straight forward and adds a {% include product %} menu to the VRED menu.
-
-## Supported Application Versions
-
-This item has been tested and is known to be working on the following application versions:
-
-{% include tk-vred %}
-
-Please note that it is perfectly possible, even likely, that it will work with more recent releases, however it has not yet been formally tested with these versions.
-
-## Information for App Developers
-
-### PySide
-
-The {% include product %} engine for VRED contains a PySide installation, and will activate this whenever this is necessary.
-
-### VRED Project Management
-
-Whenever the {% include product %} engine for VRED starts, it will set the VRED Project to point at a location defined in the settings for this engine. This means that the Project may also change when a new file is opened. The details relating to how the VRED project is set based on a file can be configured in the configuration file, using the template system.
-
-## Working with tk-vred
-
-This {% include product %} integration supports the VRED product family (Pro & Design).
-
-When VRED opens, a {% include product %} menu (the VRED engine) is added to the menu bar.
-
-
-
-### File Open and Save
-
-Use the My Tasks and Assets tabs to see all your assigned tasks and browse for assets. To the right, use these tabs to view all files, working or published files associated with what is selected to the left.
-
-
-
-
-
-### Snapshot
-Snapshot: Opens the Snapshot dialog to create a quick backup of the current scene.
-
-
-
-### Publish
-Publish: Opens the Publish dialog for publishing the file to {% include product %}, which can then be used by artists downstream. For more information on VRED Publishing, [see here](https://github.com/shotgunsoftware/tk-vred/wiki/Publishing)
-
-
-
-### Loader
-Load: Opens the Content Loader app, along with instructional slides explaining how it works.
-To see more info about VRED loading [see here](https://github.com/shotgunsoftware/tk-vred/wiki/Loading)
-
-
-### Scene Breakdown
-Scene Breakdown: Opens the Breakdown dialog, which displays a list of "referenced" files (and their links), along with what in the scene is out-of-date. Select one or more items and click Update Selected to switch and use the latest version of the content.
-
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks.md b/docs/en/reference/pipeline-integrations/toolkit-frameworks.md
deleted file mode 100644
index 85bd530f7..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-frameworks.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Frameworks
-pagename: toolkit-frameworks
-lang: en
----
-
-# Toolkit Frameworks
-
-Here you'll find reference documentation for frameworks available for the Toolkit platform.
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/osx_warning_1.jpg b/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/osx_warning_1.jpg
deleted file mode 100644
index acc6917fb..000000000
Binary files a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/osx_warning_1.jpg and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/setup_project_wizard.png b/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/setup_project_wizard.png
deleted file mode 100644
index bb5714a0c..000000000
Binary files a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/setup_project_wizard.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/windows_warning_1.jpg b/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/windows_warning_1.jpg
deleted file mode 100644
index af7bd19ac..000000000
Binary files a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/windows_warning_1.jpg and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/windows_warning_2.jpg b/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/windows_warning_2.jpg
deleted file mode 100644
index 50b7fcf2c..000000000
Binary files a/docs/en/reference/pipeline-integrations/toolkit-frameworks/images/windows_warning_2.jpg and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-adminui.md b/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-adminui.md
deleted file mode 100644
index 63136b1c4..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-adminui.md
+++ /dev/null
@@ -1,38 +0,0 @@
----
-layout: default
-title: Admin UI
-pagename: tk-framework-adminui
-lang: en
----
-
-# Toolkit Admin UI Framework
-
-The Admin UI Framework implements a place that holds standard user interfaces that wrap Toolkit
-administrative commands.
-
-Currently the only interface is for the setup_project command.
-
-## SetupProjectWizard API Reference
-
-
-
-This is a QWizard implementation that walks somebody through setting up a Project
-from their {% include product %} instance for Toolkit. To use the wizard, simply create an
-instance of the class, passing in the project to setup (as a standard {% include product %} API
-entity dictionary) and the window to parent to.
-
-```python
-adminui = sgtk.platform.import_framework("tk-framework-adminui", "setup_project")
-setup = adminui.SetupProjectWizard(project, parent)
-dialog_result = setup.exec_()
-```
-
-This will run the wizard and return a standard QDialog Accepted or Rejected value.
-
-### SetupProjectWizard Constructor
-
-Initialize a SetupProjectWizard. This is a subclass of QtGui.QWizard.
-
-```python
-SetupProjectWizard()
-```
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-desktopserver.md b/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-desktopserver.md
deleted file mode 100644
index 9e8d48c54..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-desktopserver.md
+++ /dev/null
@@ -1,98 +0,0 @@
----
-layout: default
-title: Desktop Server Framework
-pagename: tk-framework-desktopserver
-lang: en
----
-
-# Toolkit Desktop Server Framework
-
-The desktopserver framework provides the functionality behind {% include product %}'s local file linking
-and Toolkit integration. It provides a local websocket server that securely listens for
-requests from {% include product %} websites for an action that requires desktop access.
-
-For local file linking, these requests allow {% include product %} access to local file paths from the
-web interface and the ability to open those files directly from {% include product %} pages when requested.
-For Toolkit, they allow {% include product %} to determine what pipeline actions have been registered for a
-given entity and to execute them.
-
-## How to get desktop integration running
-
-For these {% include product %} features to work, some supported desktop integration must be running.
-[This page](https://developer.shotgridsoftware.com/c79f1656/) covers the various options for how
-{% include product %} can integrate with your desktop. The Websocket Server section covers the functionality that this framework provides.
-
-### {% include product %} Desktop
-
-This framework is bundled with {% include product %} Desktop, which can be downloaded [following these steps](https://developer.shotgridsoftware.com/d587be80/#installation-of-desktop). When {% include product %} Desktop is run it will automatically start up the websocket server. If you
-are already running {% include product %} Desktop then your setup process is complete.
-
-### Configuring the server
-
-You can store the browser integration settings in a configuration file. This configuration file can be specified by setting the environment variable `SGTK_BROWSER_INTEGRATION_CONFIG_LOCATION`. More details on how you can configure the local server can be found in our [sample file](https://github.com/shotgunsoftware/tk-framework-desktopserver/blob/master/app/config.ini.example).
-
-### Removing a certificate
-
-If you wish to remove a certificate you have created, you can run the `python certificates.py --remove` command.
-
-## Launching via a wrapper
-
-By default, the server will use the operating-system default to launch a command (the equivalent of
-"xdg-open" on Linux, "open" on OS X, and "run" on Windows). If you wish to provide your own wrapper for
-launching files you can set the **SHOTGUN_PLUGIN_LAUNCHER** environment variable to point to your
-custom wrapper. If that is set, the wrapper will be called with the path as its only argument.
-
-## Certificates
-
-The first time you run the server it will generate the certificate required to establish a secure
-connection. These certificates are stored local to your machine and are never shared with the public.
-They allow the encrypted connection that websockets requires, which is necessary despite all traffic
-remaining local (from your browser to the server); {% include product %}'s websocket traffic is never made available
-over the Internet.
-
-When the certificates are registered with the system you will see dialogs appear like the following.
-Click "Ok" to allow the registration to proceed.
-
-
-
-
-
-
-When using the {% include product %} Desktop, the generated certificates will be stored in the following locations:
-
-**OS X**: ~/Library/Caches/Shotgun/desktop/config/certificates
-**Windows**: %AppData%\Shotgun\desktop\config\certificates
-**Linux**: ~/.shotgun/desktop/config/certificates
-
-## Security Setup - Local {% include product %} Installs
-
-By default, the websocket server is setup to listen to hosted {% include product %} sites on port 9000.
-If you run a local {% include product %} server, you will need to update the configuration for the {% include product %} server
-to allow connections from your websocket server.
-
-When running {% include product %} Desktop, you will need to setup a ```config.ini``` file that lives with the {% include product %} binary.
-
-Within that file there is a section that controls the functionality of the websocket server.
-A typical configuration would look like this:
-
-```ini
-[BrowserIntegration]
-low_level_debug=0
-port=9000
-enabled=1
-whitelist=*.shotgunstudio.com
-```
-
-## Troubleshooting
-
-On Linux the server introduces a dependency on libffi. If Desktop crashes on startup and you see a message about libffi not found in your logs, then you need to install this package.
-
-Visit our [support site](https://knowledge.autodesk.com/contact-support) if you have any issues or questions during setup. If there is a problem
-running the server, please set **debug** to **1** in the **config.ini** file and include Desktop's log
-file.
-
-The log file can be found in the following locations:
-
-**OS X**: ~/Library/Logs/Shotgun/tk-desktop.log
-**Windows**: ~\%APPDATA%\Shotgun\tk-desktop.log
-**Linux**: ~/.shotgun/tk-desktop.log
diff --git a/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-desktopstartup.md b/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-desktopstartup.md
deleted file mode 100644
index d5a690184..000000000
--- a/docs/en/reference/pipeline-integrations/toolkit-frameworks/tk-framework-desktopstartup.md
+++ /dev/null
@@ -1,40 +0,0 @@
----
-layout: default
-title: Desktop Startup
-pagename: tk-framework-desktopstartup
-lang: en
----
-
-# Toolkit Desktop Startup Framework
-The Desktop Startup framework implements the startup logic of the {% include product %} Desktop. Its main function is to:
-
-1. initialize the browser integration
-2. log the user in
-3. download Toolkit
-4. configure the site configuration
-5. auto update itself and the site configuration when necessary
-6. launch the `tk-desktop` engine.
-
-> This is an internal Toolkit framework and therefore the interface it implements is subject to change. We advise that you do not use this framework in your projects.
-
-### Locking-down the startup logic
-
-> Note, this requires the {% include product %} Desktop app version `1.3.4`. If you are unsure of your application version, launch the {% include product %} Desktop. Once you are logged in, click on the user icon at the bottom right and click `About...`. The `App Version` should be `1.3.4` or greater.
-
-By default, {% include product %} Desktop downloads `tk-framework-desktopstartup` updates locally on the user's machine and uses it during the launch sequence of the application. When you launch the application, Toolkit automatically checks for updates to the framework. If an update is available, it will also download and install it automatically.
-
-Alternately, you can configure the {% include product %} Desktop to use a specific copy of the framework instead of using the local copy. This will disable the auto-update function and you will now be responsible for updating your the startup logic.
-
-#### Download a specific release from GitHub
-
-You will need to download updates from GitHub manually. The bundles can easily be downloaded from the [Releases](https://github.com/shotgunsoftware/tk-framework-desktopstartup/releases) page and you can find more information about each official release [here](https://community.shotgridsoftware.com/tags/c/pipeline/6/release-notes).
-
-#### Configure the {% include product %} Desktop to use a specific copy
-
-The only way to lock down the startup logic is to use an environment variable. By setting `SGTK_DESKTOP_STARTUP_LOCATION` to the root folder of a copy of the framework, you will tell the {% include product %} Desktop to use this copy of the code when starting up. Once the variable is set, you can launch the {% include product %} Desktop and it will use this specific copy of the startup logic.
-
-> Note that as of this writing the `Startup Version` field in the `About...` box will be `Undefined` when locking the startup logic due to a technical limitation.
-
-#### Reverting to the old behaviour
-
-To revert back your changes, simply unset the environment variable and launch the {% include product %} Desktop.
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-actions-16.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-actions-16.png
deleted file mode 100644
index 9926ffe40..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-actions-16.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-actions2-44.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-actions2-44.png
deleted file mode 100644
index 493f9f779..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-actions2-44.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-activity-stream-010.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-activity-stream-010.png
deleted file mode 100644
index c5ce96793..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-activity-stream-010.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-buttons-41.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-buttons-41.png
deleted file mode 100644
index 4e5c092e5..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-buttons-41.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-buttons-and-status-22.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-buttons-and-status-22.png
deleted file mode 100644
index 7664440ad..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-buttons-and-status-22.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-collected-drop-38.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-collected-drop-38.png
deleted file mode 100644
index 2f2308070..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-collected-drop-38.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-console-06.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-console-06.png
deleted file mode 100644
index bcf2e2031..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-console-06.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-context-menu-26.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-context-menu-26.png
deleted file mode 100644
index 67160f27e..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-context-menu-26.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-context-search-27.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-context-search-27.png
deleted file mode 100644
index b6fb28283..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-context-search-27.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-desktop-cert-window-03.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-desktop-cert-window-03.png
deleted file mode 100644
index 6efa8f329..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-desktop-cert-window-03.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-desktop-launch-36.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-desktop-launch-36.png
deleted file mode 100644
index a4997e60d..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-desktop-launch-36.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-download-desktop-02-v2.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-download-desktop-02-v2.png
deleted file mode 100644
index 112fbb5bb..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-download-desktop-02-v2.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-download-desktop-02.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-download-desktop-02.png
deleted file mode 100644
index 6fe76a74e..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-download-desktop-02.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-drag-drop-18.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-drag-drop-18.png
deleted file mode 100644
index f02cc36ae..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-drag-drop-18.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-info-14.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-info-14.png
deleted file mode 100644
index b2f3016dc..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-info-14.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-items-and-tasks-25.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-items-and-tasks-25.png
deleted file mode 100644
index dc216fecf..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-items-and-tasks-25.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-items-tree-20.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-items-tree-20.png
deleted file mode 100644
index e09747def..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-items-tree-20.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-launching-software-07.jpg b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-launching-software-07.jpg
deleted file mode 100644
index 2f5dc33a0..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-launching-software-07.jpg and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-list-view-43.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-list-view-43.png
deleted file mode 100644
index 282f4ac6c..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-list-view-43.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-main-view-19.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-main-view-19.png
deleted file mode 100644
index f8a551984..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-main-view-19.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-maya-09.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-maya-09.png
deleted file mode 100644
index e80cdbe01..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-maya-09.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-multi-doc-34.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-multi-doc-34.png
deleted file mode 100644
index ae4228c15..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-multi-doc-34.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-notes-12.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-notes-12.png
deleted file mode 100644
index 9935043d6..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-notes-12.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-overview-08.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-overview-08.png
deleted file mode 100644
index 7c2c50037..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-overview-08.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-overview2-39.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-overview2-39.png
deleted file mode 100644
index 47bbb00d3..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-overview2-39.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-progress-details-23.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-progress-details-23.png
deleted file mode 100644
index f69ff3337..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-progress-details-23.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-publish-complete-33.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-publish-complete-33.png
deleted file mode 100644
index f38c26f78..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-publish-complete-33.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-publish-in-dcc-24.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-publish-in-dcc-24.png
deleted file mode 100644
index c5ad04bd5..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-publish-in-dcc-24.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-screening-room-45.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-screening-room-45.png
deleted file mode 100644
index 139676c24..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-screening-room-45.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search-05.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search-05.png
deleted file mode 100644
index 0e6dd7bdd..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search-05.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search2-15.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search2-15.png
deleted file mode 100644
index db6645d73..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search2-15.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search3-40.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search3-40.png
deleted file mode 100644
index 9010149a7..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-search3-40.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-selection-detail-21.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-selection-detail-21.png
deleted file mode 100644
index 24c650cad..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-selection-detail-21.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-shotgun-desktop-app-01-v2.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-shotgun-desktop-app-01-v2.png
deleted file mode 100644
index 480443b98..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-shotgun-desktop-app-01-v2.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-shotgun-desktop-app-01.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-shotgun-desktop-app-01.png
deleted file mode 100644
index 2fdf86d2c..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-shotgun-desktop-app-01.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-status-warning-31.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-status-warning-31.png
deleted file mode 100644
index 380ab8a20..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-status-warning-31.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-summary-35.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-summary-35.png
deleted file mode 100644
index a31f6a14f..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-summary-35.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-tasks-and-versions-13.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-tasks-and-versions-13.png
deleted file mode 100644
index e03fbe028..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-tasks-and-versions-13.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumb-view-42.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumb-view-42.png
deleted file mode 100644
index 5817d34e5..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumb-view-42.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumbnail-and-desc-28.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumbnail-and-desc-28.png
deleted file mode 100644
index c06f3bdcf..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumbnail-and-desc-28.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumbnail-placeholder-11.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumbnail-placeholder-11.png
deleted file mode 100644
index c3f3b7548..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-thumbnail-placeholder-11.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-user-menu-04.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-user-menu-04.png
deleted file mode 100644
index d5b6ba27d..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-user-menu-04.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-validation-29.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-validation-29.png
deleted file mode 100644
index 5e0ab0512..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-validation-29.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-validation-warning-30.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-validation-warning-30.png
deleted file mode 100644
index d5e9d01e2..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-validation-warning-30.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-warning-details-32.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-warning-details-32.png
deleted file mode 100644
index 05b37e428..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-warning-details-32.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-work-home-17.png b/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-work-home-17.png
deleted file mode 100644
index 7e8778953..000000000
Binary files a/docs/en/reference/pipeline-integrations/user-guide/images/sa-integrations-user-guide-work-home-17.png and /dev/null differ
diff --git a/docs/en/reference/pipeline-integrations/user-guide/sa-integrations-user-guide.md b/docs/en/reference/pipeline-integrations/user-guide/sa-integrations-user-guide.md
deleted file mode 100644
index a05f651b2..000000000
--- a/docs/en/reference/pipeline-integrations/user-guide/sa-integrations-user-guide.md
+++ /dev/null
@@ -1,509 +0,0 @@
----
-layout: default
-title: Integrations User Guide
-pagename: integrations-user-guide
-lang: en
----
-
-
-# Integrations user guide
-
-In this guide:
-- [Introduction](#introduction)
-- [Getting started with Desktop](#getting-started-with-desktop)
- - [Installation of Desktop](#installation-of-desktop)
- - [Logging in when self hosted or behind a proxy server](#logging-in-when-self-hosted-or-behind-a-proxy-server)
- - [Authentication and browser integration](#authentication-and-browser-integration)
- - [The system tray](#the-system-tray)
- - [The project browser](#the-project-browser)
- - [The command launcher](#the-command-launcher)
- - [The console](#the-console)
-- [Launching applications](#launching-applications)
-- [The Panel](#the-panel)
- - [Overview](#overview)
- - [UI details](#ui-details)
- - [The activity stream](#the-activity-stream)
- - [Creating and replying to Notes](#creating-and-replying-to-notes)
- - [Notes, Versions, Publishes, and Tasks](#notes-versions-publishes-and-tasks)
- - [The info tab](#the-info-tab)
- - [Searching](#searching)
- - [Actions](#actions)
- - [The current work area and the me area](#the-current-work-area-and-the-me-area)
- - [Current Work Area](#current-work-area)
-- [The Publisher](#the-publisher)
- - [Overview](#overview-1)
- - [Interface components and concepts](#interface-components-and-concepts)
- - [Basic workflow](#basic-workflow)
- - [Publishing within content creation software](#publishing-within-content-creation-software)
- - [Publish items and tasks](#publish-items-and-tasks)
- - [Context](#context)
- - [Validation](#validation)
- - [Multi-document workflows](#multi-document-workflows)
- - [Stand-alone publishing](#stand-alone-publishing)
- - [Publish types](#publish-types)
- - [Standalone](#standalone)
- - [3ds Max](#3ds-max)
- - [Houdini](#houdini)
- - [Maya](#maya)
- - [Nuke](#nuke)
- - [Nuke Studio](#nuke-studio)
- - [Photoshop CC](#photoshop-cc)
-- [The Loader](#the-loader)
- - [Overview](#overview-2)
- - [The tree view](#the-tree-view)
- - [Navigation](#navigation)
- - [Looking at publishes](#looking-at-publishes)
- - [Bringing one or multiple publishes into your scene](#bringing-one-or-multiple-publishes-into-your-scene)
- - [Working with older publishes](#working-with-older-publishes)
- - [Associated review](#associated-review)
-- [Advanced functionality](#advanced-functionality)
-- [Acknowledgments](#acknowledgments)
-
-## Introduction
-
-{% include product %} integrations bring {% include product %} into your content creation tools. When you use {% include product %}'s integrations, you'll be able to easily launch your software, use the Panel to track notes and data {% include product %} has about your tasks, and use the Publisher and Loader to track files and bring them into your scene. Artists will have access to all the {% include product %} data about their Tasks, and all Tasks on their Project, from right within the app. They can reply to Notes, playback Versions, publish files, and load in their colleagues’ published files.
-
-For the latest updates to {% include product %} integrations, please subscribe to the [release notes](https://community.shotgridsoftware.com/tags/c/pipeline/6/release-notes) .
-
-## Getting started with Desktop
-
-The **{% include product %} Desktop** app sits at the heart of our integrations. It is a software application that extends the {% include product %} experience onto your local machine, and makes it easy to access {% include product %} data, launch applications, and run pipeline integration tools directly from your machine.
-
-**Running Toolkit Classic or a Custom Setup?**
-
-The {% include product %} Integrations install automatically. If you are an advanced client wanting to install the **Classic** Toolkit configuration or you have a **Custom** Toolkit setup that you want to install via the **Desktop Setup Wizard** , please head over to the [administrator's guide](https://developer.shotgridsoftware.com/8085533c/) to learn how to do this.
-
-### Installation of Desktop
-
-You can download {% include product %} Desktop under the Apps menu.
-
-
-
-Follow the prompts and choose whether to download Desktop for Mac, Windows, or Linux.
-
-
-
-### Logging in when self hosted or behind a proxy server
-
-*Note: the following content regarding logging in is intended if you are self hosted or using a proxy server. This is not the defaut behavior.*
-
-If you are self hosted or using a proxy server, the first time you open Desktop, you'll be prompted by your browser about certificates. We do this in order to connect {% include product %} with the Desktop app. If you’re having trouble getting certificates set up, take a look at our troubleshooting docs for [Firefox](https://developer.shotgunsoftware.com/d4936105/) and [Chrome and other browsers](https://developer.shotgunsoftware.com/95518180/) .
-
-
-
-You will only need to update your security certificate list once. Please note that only Mac and Windows show a prompt for certificates, not Linux.
-
-Once that's set up, you'll need to log in to your {% include product %} site.
-
-If you go through a proxy, you will have to do some additional configuration. See instructions on how to do that in our [Admin Guide](https://developer.shotgridsoftware.com/8085533c/#toolkit-configuration-file) .
-
-#### Authentication and browser integration
-
-Desktop provides services that allow the {% include product %} web application to interact with your computer. This enables features like [local file linking](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Administrator_ar_data_management_ar_linking_local_files_html) and software launching. For security reasons, you must be logged into Desktop as the same user on the same {% include product %} site as you are in the browser. If you are logged in as a different user or on a different site, Desktop will prompt you to switch accounts and if you do it will restart and prompt for the appropriate credentials.
-
-### The system tray
-
-When the application starts it shows up as an icon in your system tray. To show the window, click the icon. By default, the window will be pinned to the system tray, which means that if the window loses focus, it will automatically hide itself.
-
-You can unpin the window by selecting "Undock from Menu" from the user menu or by dragging it by its header. When the window is unpinned it will look like a regular window and will no longer hide itself when it loses focus.
-
-While the window is undocked, you can hide it by clicking on the close button. To show it again, click on the system tray icon.
-
-### The project browser
-
-The first main view of the app is the project browser. Here you will see all the projects in your {% include product %} instance. Your most recently accessed projects will be listed first.
-
-Near the bottom right of the window you will see your {% include product %} account's thumbnail. This is the user menu, where you can do things like dock and undock the window, keep it on top of other windows, and show the logging console.
-
-
-
-At the top of the window, you can click on the magnifying glass icon to show the search box. Typing in this box will filter the list of projects shown to just those that contain the letters you are typing.
-
-
-
-Clicking on a project will take you to the command launcher view for that project, where you can launch the tools that are available for the project.
-
-### The command launcher
-
-Once you have selected a project, you are taken to the command launcher for that project. This window will show whatever tools and applications are available for the project as a grid of buttons. Simply click on a button to launch its application. It will run in a project-specific environment, and if {% include product %} has an integration for it, you'll see a {% include product %} menu with all of the available tools.
-
-### The console
-
-You can launch the console from the user menu. The logs from launching a project are displayed here. If you run into an error, the details of the error should be shown here.
-
-If you right-click on the console, you are given a standard edit menu, allowing you to select all of the text, copy your selection, or to clear the text in the console.
-
-
-
-## Launching applications
-
-When you launch {% include product %} Desktop and choose a project, it scans the standard applications directory for your operating system. Desktop will display launchers for any [applications that we have integrations for](https://www.shotgridsoftware.com/integrations/) . If you have more than one version of the same software, the launcher will have a dropdown list with all available versions. Clicking on the launcher icon itself will launch the latest version.
-
-You can launch applications like Maya and Nuke straight from {% include product %} Desktop, or you can launch them directly from {% include product %}. Either way, {% include product %}'s integrations will be available from within your application.
-
-
-
-It’s normal for a studio to need additional configuration other than what comes out-of-the-box. Your studio may have software in a non-standard location or in-house engines for software we don’t support natively. It’s easy to configure these cases from right within the {% include product %} web app. See the [Admin Guide](https://developer.shotgridsoftware.com/8085533c/) for details.
-
-If you're not seeing an app you expect to see, take a look at the [Configuring the software in {% include product %} Desktop section of our Admin Guide](https://developer.shotgridsoftware.com/8085533c/) .
-
-## The Panel
-
-### Overview
-
-Upon launching an application from Desktop or {% include product %}, the {% include product %} Panel will appear. The {% include product %} Panel is a small and lightweight version of {% include product %} which runs directly inside artist applications such as Maya and Nuke. The Panel lets you quickly access {% include product %} information without leaving the application you’re working in. It provides easy access to information about your current task, and you have instant access to the activity stream, Notes, Tasks, Versions, and Publishes from {% include product %}. You can play back Versions sent to review by other members of your team, reply to Notes, create new Tasks, and search your {% include product %} site.
-
-### UI details
-
-The {% include product %} panel consists of a couple of main UI elements. On top you'll find a _toolbar_ with buttons for navigation and searching. Right below the toolbar you have the _details area_ which displays information about the item you are currently viewing. This details area is configurable, so if you want to display custom fields or have data that is extra important in your pipeline, it is easy to make it appear here. Lastly, you find a number of _Content tabs_ . These all display listings of {% include product %} data and make it easy to navigate around in the {% include product %} Panel to quickly browse things like publishes, review Versions, or see who is assigned to the Tasks linked to your current focus.
-
-
-
-In applications where the integration supports docking, the {% include product %} Panel will appear seamlessly docked inside the UI. In other applications, it will be displayed as a normal window.
-
-
-
-Below is a brief overview of the different tabs and features available in the {% include product %} Panel.
-
-#### The activity stream
-
-
-
-The activity stream works just like the activity stream in {% include product %}—it shows you all the things happening in and around the object you are looking at:
-
-* users creating Notes,
-* Versions being submitted for review, and
-* publishes being created by the pipeline.
-
-You can add new Notes directly from the activity stream and also reply to existing Notes. Attachments will show up automatically, and clicking them will show a large preview.
-
-Please note that after uploading a file, you may see a placeholder icon. Manually refresh the panel to display the final thumbnail, once it becomes available.
-
-
-
-#### Creating and replying to Notes
-
-
-
-Creating or replying to a Note is easy with the {% include product %} Panel. Simply navigate to an activity stream or Note details page and click either _create note_ or _reply to note_ . A dialog will appear where you can type in the Note text. You can use `@name` notation if you want to send the Note to a specific person—this will add that person to the TO field of the Note automatically.
-
-#### Notes, Versions, Publishes, and Tasks
-
-
-
-The Notes, Versions, publishes, and Tasks tabs all work the same way—by displaying data associated with the current item you are seeing. You can double click an item to focus on that item. Once you have navigated to a _Publish_ , you can view the dependencies for that publish. This is useful if your pipeline is tracking dependency information and gives you instant access to how your assets are interconnected.
-
-#### The info tab
-
-
-
-If you cannot find what you are looking for in the other tabs, try navigating to the info tab. This holds most of the {% include product %} fields for your focused entity and you can click on the blue hyperlinks in order to navigate around to other {% include product %} locations.
-
-#### Searching
-
-
-
-If you want to quickly navigate to another location or object in {% include product %}, you can use the built-in search. This is similar to the global search in the {% include product %} web application. Just start typing the name or description of what you are looking for. Once you have typed in three or more characters, you will see results displayed.
-
-#### Actions
-
-
-
-You can also use the {% include product %} Panel to use {% include product %} data to run operations in your scene. Similar to the Loader, the Panel has an actions system that makes it easy to register snippets of code to be triggered by a menu on an item in the browser. You can access actions from the detail area as well as from the listings. The actions button in the details area also contains some handy built-in functions to quickly jump to {% include product %} and to refresh your current view.
-
-#### The current work area and the me area
-
-
-
-The icon on the top left navigates you to your current work area. This is typically the Task that you are currently working on and is a quick way to get access to Notes, and review Versions and other information relevant to what you are currently working on. This is also the location that the {% include product %} Panel always starts focused on.
-
-On the top right you will find a button displaying the current user's thumbnail. This button will take you to a page which displays information associated with the current user. This includes
-
-* All the publishes and Versions you have submitted
-* Tasks that are assigned to you
-* All note conversations where you are either participating or where the Note is relevant to you—e.g., Notes that are associated with Tasks that you are assigned to.
-
-#### Current Work Area
-
-When you start working on a Task, you can use the Panel to set your Current Work Area. Then, when you publish your work, it will be associated with your current Task in {% include product %}.
-
-## The Publisher
-
-### Overview
-
-The Publish app allows artists to publish their work so that it can be used by artists downstream. It supports traditional publishing workflows within the artist’s content creation software as well as stand-alone publishing of any file on disk. When working in content creation software and using the basic {% include product %} integration, the app will automatically discover and display items for the artist to publish. For more sophisticated production needs, studios can write custom publish plugins to drive artist workflows.
-
-The following sections cover the publisher UI and basic integration workflows. For information about customizing the publisher for your studio-specific needs, please see the [Publisher Dev Guide](http://developer.shotgridsoftware.com/tk-multi-publish2/) .
-
-### Interface components and concepts
-
-
-
-Drag and drop files from anywhere on your local filesystem. Use the browse button to open a file browser to select one or more files to publish.
-
-
-
-The tree of items on the left show what will be published. The top level items can include subitems that are related, such as renders or caches generated from within the work file. Under each item is one or more publish tasks, which represent the actions to be performed at publish time.
-
-
-
-Items themselves are grouped under context headers that indicate the {% include product %} context that the published file will be associated with.
-
-When there is more than one top-level item, a summary item will be present which provides an overall look at the items to publish and actions that will be executed.
-
-
-
-When an item is selected, the right side of the interface will show the item’s details. This includes the destination context as well as a thumbnail and description for the publish. A summary will also be included for the item and any subitems.
-
-
-
-At the bottom of the interface, there are a series of tool buttons on the left. These buttons are:
-
-* **Browse** : Browse for files to publish
-* **Refresh** : Refresh the publish item list
-* **Delete** : Remove the selected items from the list
-* **Expand** : Expand all items in the list
-* **Collapse** : Collapse all items in the list
-* **Documentation** : Open the workflow documentation
-
-In the middle is a status label. This will update as the Publisher performs validation and executes the publish tasks. When clicked, you will see the progress detail overlay.
-
-To the far right are the **Validate** and **Publish** buttons. The Validate button will execute an initial validation pass on all items and tasks to ensure they are in a publishable state. The Publish button will initiate the publishing of items in the list.
-
-
-
-The progress details overlay shows the output of collection, validation, and publishing of items in the list.
-
-A Copy to Clipboard button makes it easy for users to share publish logs. When validation or publish errors occur, the log messages may include an action button that will guide the user toward additional information and, in some cases, an immediate fix.
-
-### Basic workflow
-
-The purpose of the Publish app is to allow an artist to make their work available for other artists to use. In {% include product %}, publishing a file means creating a record in {% include product %} with information about the file being published, including the path, version number, artist info, related {% include product %} context, etc. Once the file is tracked in {% include product %}, other users can make use of it via the [Loader](#the-loader) app.
-
-The basic {% include product %} integration provides two ways to use the Publish app in your pipeline: standalone publishing and publishing within content creation software. The following sections outline the workflows for each of these scenarios.
-
-#### Publishing within content creation software
-
-The basic {% include product %} integrations include publishing workflow support for content creation software including 3dsMax, Houdini, Maya, Nuke, Nuke Studio, and Photoshop. When the Publisher is launched with the content creation software, it will automatically attempt to find items to publish. While the items that are presented for publishing will differ slightly based on the software and the contents of the artist’s work file, the same basic publish concepts apply. Here is an example of publishing within Nuke:
-
-
-
-#### Publish items and tasks
-
-Here you can see the publish items that have been collected on the left hand side. There are three publish items: the selected item is the work file itself with two child items below it. Additionally, there is an image file sequence and an Alembic cache. These items each have a **Publish to {% include product %}** publish task attached that, when executed, will handle creating the publish entry in {% include product %} in order to keep track of the individual files or image sequences.
-
-The parent item representing the Nuke Script has a **Begin file versioning** plugin attached. This plugin will appear when the work file does not have a version number in the path. If checked, this task will insert a version number into the file name prior to publishing. In this case, the file would be renamed from `bunny_010_0010.nk` to `bunny_010_0010.v001.nk` . This encourages keeping a history of the artist work file. The task is not checked by default and is not required to run. If the item is published with the task enabled, the next time the work file is published, since it will have a version number in the file name, the task will not show up.
-
-The publish tasks can be turned on or off as desired. The check box on an item reflects and controls the check state of its subtasks. For example, unchecking an item will uncheck all of its tasks. Unchecking one of multiple tasks will put the item into a semi-checked state. To toggle the check state of all tasks of a certain type (all **Publish to {% include product %}** tasks for example), simply hold the `Shift` key when checking the box.
-
-Selecting a publish task will show information about what the task does.
-
-
-
-##### Context
-
-Above the Nuke Script item, you can see the name of the context that the published items will be associated with in {% include product %}. This can be modified by changing the Task and/or Link fields on the right side of the interface. If multiple items are being published, they may show up under different contexts. The icon with three horizontal lines on the left of the publish items is a drag handle for moving items from one context to another.
-
-A menu dropdown button is also provided next to the Task entry field. This menu can show several groups of Tasks that you might be interested in. It will show any tasks assigned to the current user, tasks related to the current context (such as other tasks assigned to the same Shot), and any recently browsed tasks.
-
-
-
-To search for a task or entity link, simply click on one of the fields or click the search icon and begin typing the name of the context you’re interested in. The fields will show matching tasks or entity links and you can click or navigate to the desired context.
-
-
-
-
-
-For each publish item, you can click the camera icon to select a portion of the screen to use as the thumbnail for the Publish in {% include product %}. For scenarios where there are child items, they will inherit the thumbnail from the parent by default. You can override the child item’s thumbnail by selecting the child and clicking its thumbnail.
-
-The description entered will be included in the Publish data in {% include product %}. Like the thumbnail, the description is inherited from parent items but can be overridden by entering a new description in the child’s detail entry.
-
-##### Validation
-
-Once the items are ready to be published, you can click the Validate button to ensure the state of the file and the publish items will allow the publish to complete as expected.
-
-
-
-If all items validate properly, you should see green checkmarks on the right. For any items that do not validate, you will see a warning icon.
-
-
-
-The status will also be displayed in the status label area at the bottom of the publisher.
-
-
-
-Clicking on the icon in the item or the status label will open the progress details overlay and highlight the validation issue.
-
-
-
-In the example above, the Nuke script has not been saved. In some scenarios, an action button will be provided to quickly direct you to the fix for the issue or to get more information about the issue. Here you can see a **Save As…** action button that will open the Nuke save dialog.
-
-Once the validation issues have been corrected, you can close the progress details overlay to return to the publish item view. Validation can be run as many times as required while addressing publish task warnings or errors.
-
-When the **Publish** button is pushed, the app will walk through the items and tasks in the list, run another validation pass on each, and then execute the publish logic to create entries in {% include product %}, upload thumbnails, bump the work file version, etc. A finalize pass is also executed to summarize publish for each item and do any cleanup work necessary.
-
-
-
-The results of the entire process can be reviewed afterward by clicking the status label at the bottom of the publisher to show the progress details overlay. You can also leave the progress details view on while publishing to see the output as the publish occurs. You can see additional action buttons, shown here, to quickly jump to the newly created publish entry in {% include product %}.
-
-##### Multi-document workflows
-
-For multi-document workflows in content creation software such as Photoshop or Nuke Studio, multiple top-level items will be displayed in the publish item list.
-
-
-
-Only the current/active document will be expanded and checked. To check all documents to publish, simply hold `Shift` and click one of the unchecked item’s check box. To expand the collapsed items, use the expand button in the toolbar at the bottom.
-
-When there are multiple top-level items, a summary item is also included at the top of the list.
-
-
-
-Selecting this item will show a complete summary of all items selected for publishing. Above you can see four items with a total of eight tasks to execute in four different contexts. You can override the context and description for all items in this view if you desire.
-
-You can also see an **Upload for review** task in the image above. This task is not limited to the Photoshop workflow. It will be available for any file type that can be transcoded and uploaded to {% include product %} as reviewable media.
-
-#### Stand-alone publishing
-
-The Publish app is not required to be run from within content creation software.
-
-
-
-Here you can see the publisher can be launched directly from {% include product %} Desktop. When launched in standalone mode, you will be presented with an area to browse or drag and drop files.
-
-
-
-Clicking the browse button will open a standard file browser where you can select the files you would like to publish.
-
-Once you have selected files from the browser or dragged and dropped them from somewhere on your file system, the app will show them as top-level items for publish.
-
-
-
-As with the previous examples, you can select the context for each item, set the description, and identify which task should execute when publishing.
-
-#### Publish types
-
-The following sections describe the automatically collected publish types for each of the basic {% include product %} integrations.
-
-##### Standalone
-
-The standalone workflow does not automatically collect files for publishing. Users must drag file paths into the interface or browse to them in order to publish. The publisher will accept browsed or dropped files at any point prior to the **Publish** button being clicked. The basic integration will accept any file extension using known file types to associate with {% include product %} publish types. If the file extension is not recognized, the mimetype of the file will be used. Recognized image and video mimetypes will be publishable and have a task attached to upload for review.
-
-The basic integration assumes that folders dropped contain image sequences. Any recognized image sequences found in the folder will be presented as items for publishing. If no sequences are found, no items will be created for publish.
-
-##### 3ds Max
-
-The current Max session will be collected for publishing with a publish type of **3dsmax Scene** which can be merged or referenced into another Max session via the Loader.
-
-If a project folder can be determined for the current session, any files found in the project’s **export** folder will be presented for publish. Similarly, any movie files found in the project’s **preview** folder will be publishable.
-
-##### Houdini
-
-The current Houdini session will be collected for publishing with a publish type of **Houdini Scene** which can be merged into another Houdini session via the Loader.
-
-Any files written to disk from nodes of the following types will also be automatically collected and presented as publish items:
-
-* **alembic**
-* **comp**
-* **ifd**
-* **opengl**
-* **wren**
-
-##### Maya
-
-The current Maya session will be collected for publishing with a publish type of **Maya Scene** which can be imported or referenced into another Maya session via the Loader.
-
-If a project root can be determined for the current session, any Alembic files found in the project’s **cache/Alembic** folder will be presented for publish. Similarly, any movie files found in the project’s **movies** folder will be publishable.
-
-##### Nuke
-
-The current Nuke session will be collected for publishing with a publish type of **Nuke Script** which can be imported into another Nuke session or opened as a new session via the Loader.
-
-Any files written to disk from nodes of the following types will also be automatically collected presented as publish items:
-
-* **Write**
-* **WriteGeo**
-
-##### Nuke Studio
-
-Any open Nuke Studio projects will be collected for publishing with a publish type of **NukeStudio Project** which can be opened as a new project via the Loader in another Nuke Studio session.
-
-##### Photoshop CC
-
-Any open Photoshop documents will be collected for publishing with a publish type of **Photoshop Image** which can be loaded as a new layer or opened as a new document via the Loader in another Photoshop session.
-
-## The Loader
-
-The {% include product %} Loader lets you quickly overview and browse the files that you have published to {% include product %}. A searchable tree view navigation system makes it easy to quickly get to the Task, Shot or Asset that you are looking for and once there, the Loader shows a thumbnail based overview of all the publishes for that item. Through configurable hooks you can then easily reference or import a publish into your current scene.
-
-Publishes are records in {% include product %}, each representing a file on disk or a sequence of files (like a sequence of images, for example). Publishes can be created by any application, but are typically created by the Publisher.
-
-Once the publishes have been created, they can be loaded in by other people in the pipeline. This is where the loader comes in. The loader will let you browse the publishes stored inside {% include product %} in a way which is reminiscent of a file system browser.
-
-### Overview
-
-The Loader app lets you quickly browse files that have been published to {% include product %}. The app has a searchable tree view navigation system that makes it easy to see a thumbnail of a Task, Shot, or Asset.
-
-
-
-### The tree view
-
-Use the tree view on the left to quickly locate the Shot, Asset, or Task that you are looking for. If you know the name of the item you are looking for, you can type it into the search area and only items matching your search phrase will be shown in the tree.
-
-
-
-As soon as you start typing, a blue bar will be shown around the tree, indicating that you are no longer viewing the full tree, but a subset of the items in the tree, based on your search phrase. All nodes in the tree will be automatically expanded as you start searching. For convenience, if you right click the tree, you'll find options to expand or collapse all nodes in the tree.
-
-### Navigation
-
-On top of the tree view, you'll find three navigation buttons.
-
-
-
-If you click the home button, the loader will automatically navigate to the Shot or Asset representing your current work area. This is handy if you want to quickly load something that relates to the work you are currently doing. On startup, this is also the location the Loader will show by default. When you select different items in the tree view, a history is built up over time. This can be navigated using the back and forward buttons, just like a browser.
-
-### Looking at publishes
-
-Once you select an item in the tree, the available publishes will be shown in the publish area in the middle of the UI. Each item in this view represents the most recent item in a stream of publishes, so you may for example see version 15 of a texture, meaning that there are 14 previous versions in the version history for that item.
-
-In addition to publishes, you will also see folder icons representing Shots, Sequences, Assets or other {% include product %} entity types. If there is a thumbnail for an object, you will see it overlaid on top of the folder to make navigation quick and visual. Double clicking on a folder will navigate down into that folder in the hierarchy.
-
-
-
-There are two viewing modes. The thumbnail mode is great when you are visually browsing, for example looking for a texture. You can quickly eyeball the list and use the zoom handle to zoom in and out quickly.
-
-
-
-If you are browsing something less visual than textures, for example Nuke scripts or Maya files, you can use the list view instead of the thumbnail view. This mode provides you with some more information and is also more compact, allowing you to quickly scroll through lots of items.
-
-If you only want to view items of a certain type, you can use the _filter panel_ on the bottom left to quickly hide or show publishes. You'll also see a summary next to each type in the list, indicating how many publishes of each type was found for the currently selected tree item.
-
-### Bringing one or multiple publishes into your scene
-
-If you want to bring an item into your scene, simply double click it and the Loader will execute the _default action_ for the publish. There may be more than one way to add an item to your scene (for example in Maya you may want to either reference or import another Maya file into your scene). In this case, click the _actions_ dropdown menu or right click anywhere on the publish to see all available options.
-
-If you want to bring multiple items into your scene, select multiple elements and right-click any item in the selection to show the _actions_ pop-up menu. Note that only the actions that can be applied on every item in the selection will be shown.
-
-
-
-If you select a Shot or Asset Folder object instead of a publish, there will be options to show that item in {% include product %} or in the File system.
-
-### Working with older publishes
-
-If you open up the right hand side detail pane, you will see all the version history for your selected publish. This makes it possible to load in an older version. If this is desirable, simply select it in the version history and use its action menu to load it in, just like the publishes in the main view.
-
-### Associated review
-
-If a publish has an associated review version, you will see a play button appearing in the detail pane. Clicking this will launch Screening Room in a web page, allowing you to quickly see or add notes to the version, as well as playing back the associated review Quicktime.
-
-
-
-## Advanced functionality
-
-All of {% include product %}'s integrations are built on top of a highly customizable and extensible platform for building pipelines called Toolkit. For more information on how to access and configure this functionality, see our [Admin Guide](https://developer.shotgridsoftware.com/8085533c/) .
-
-## Acknowledgments
-
-* A bug fix version of PySide is distributed with {% include product %} Desktop and is available [here](http://www.autodesk.com/content/dam/autodesk/www/Company/files/PySide-1.2.2.sgtk.zip) .
-* Big Buck Bunny - footage courtesy of (CC) Blender Foundation, www.blender.org
-
-Tell the doc gen system that we don't want a header by adding this special markup: TANK_NO_HEADER
diff --git a/docs/en/reference/python-api-intro.md b/docs/en/reference/python-api-intro.md
deleted file mode 100644
index 4957602b5..000000000
--- a/docs/en/reference/python-api-intro.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Python API
-pagename: python-api-intro
-lang: en
----
-
-# Python API
-
-Here you'll find reference documentation for the Python API.
\ No newline at end of file
diff --git a/docs/en/shotgun.md b/docs/en/shotgun.md
deleted file mode 100644
index 9d3f5d17c..000000000
--- a/docs/en/shotgun.md
+++ /dev/null
@@ -1,19 +0,0 @@
----
-layout: default
-title: Overview
-pagename: shotgun-index
-lang: en
----
-
-# {% include product %} Development
-
-Managing a production takes a lot of work to keep all the moving pieces in sync.
-
-Use our {% include product %} REST API or Python API to connect directly to your data, the Event Trigger Framework to automate repetitive tasks, and Action Menu Items to launch your apps directly from {% include product %}'s web interface.
-
-We encourage you to use {% include product %} APIs to develop your own services, applications, modules, and components that operate on or with the Service for your own and your Authorized Users’ use.
-
-{% include warning title="Authentication Keys" content="We ask that you do not disclose (and do not permit your Authorized Users to disclose) API Information that includes authentication keys or other means that could allow users to access the Service or its functionality without a log on, or use the APIs yourself to access or allow users to access the Service or its functionality without a log on." %}
-
-
-
diff --git a/docs/en/test.md b/docs/en/test.md
new file mode 100644
index 000000000..0bbd05081
--- /dev/null
+++ b/docs/en/test.md
@@ -0,0 +1,12 @@
+---
+layout: default
+title: Overview
+pagename: test
+lang: en
+---
+
+# {% include product %} Development
+
+Test page test 123
+
+
diff --git a/docs/en/toolkit.md b/docs/en/toolkit.md
deleted file mode 100644
index c4bfd238e..000000000
--- a/docs/en/toolkit.md
+++ /dev/null
@@ -1,12 +0,0 @@
----
-layout: default
-title: Pipeline Integrations
-pagename: toolkit-index
-lang: en
----
-
-# Pipeline Integrations
-
-{% include product %} includes integrations that bring the {% include product %} experience into the creative tools artists use every day. Out of the box, you get plugin within artists’ tools that give you the foundation for a basic publish pipeline.
-
-These integrations are built on the Toolkit platform, a set of APIs, UIs, and configurations that give studios the tools to build custom workflows.
diff --git a/docs/en/trusted-solutions/cloud.md b/docs/en/trusted-solutions/cloud.md
deleted file mode 100644
index 7883947ce..000000000
--- a/docs/en/trusted-solutions/cloud.md
+++ /dev/null
@@ -1,16 +0,0 @@
----
-layout: default
-title: ShotGrid in the Cloud
-pagename: cloud-index
-lang: en
----
-
-# {% include product %} in the Cloud
-
-## What is {% include product %} in the Cloud?
-
-{% include product %} Cloud is our default offering, hosted on AWS and built on top of Autodesk's Cloud technology platform. {% include product %} Cloud is the latest generation of our hosted service and is completely cloud based.
-
-## Further Reading
-
-Administration documentation can be found [here](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Administrator_ar_get_started_html).
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1.md b/docs/en/trusted-solutions/tier1.md
deleted file mode 100644
index 794358a37..000000000
--- a/docs/en/trusted-solutions/tier1.md
+++ /dev/null
@@ -1,55 +0,0 @@
----
-layout: default
-title: Isolation Features
-pagename: tier1-index
-lang: en
----
-
-# Isolation Feature Set
-
-
-
-The isolation feature set is an hybrid solution that satisfies strict security and legal requirements, while minimizing {% include product %} System Admin specific required knowledge and maintenance. These features enable creative studios to confidently meet their supplier’s and studio’s highly stringent security, privacy, and performance requirements—from the cloud.
-
-Continue to [About the isolation feature set](./tier1/getting_started/about.md) for more details.
-
-Go to [Setup](./tier1/setup/setup.md) if you are ready to activate the Isolation features.
-
-## In This Section
-
-### Getting Started
-
-* [About Isolation](./tier1/getting_started/about.md)
-* [Client Responsibilities](./tier1/getting_started/responsibilities.md)
-* [Onboarding Process](./tier1/getting_started/onboarding.md)
-* [Planning your Setup](./tier1/setup/planning.md)
-
-### Features Description
-
-* [Media Isolation](./tier1/features/media_isolation.md)
-* [Media Traffic Isolation](./tier1/features/media_traffic_isolation.md)
-* [Web Traffic Isolation](./tier1/features/web_traffic_isolation.md)
-* [Media Replication](./tier1/features/media_replication.md)
-
-### Setup
-
-* [Setup Overview](./tier1/setup/setup.md)
-* [Migration Test Site](./tier1/setup/shotgun_poc_site.md)
-* [Media Isolation](./tier1/setup/s3_bucket.md)
-* [Media Traffic Isolation](./tier1/setup/media_segregation.md)
-* [Web Traffic Isolation](./tier1/setup/traffic_segregation.md)
-* [Media Replication](./tier1/setup/s3_replication.md)
-* [Isolation Fine Tuning](./tier1/setup/tuning.md)
-* [Migration](./tier1/setup/migration.md)
-
-
-### AWS Knowledge
-
-* [Connecting Your Studio With Your AWS VPC](./tier1/knowledge/connecting.md)
-* [{% include product %} AWS Direct Connect Onboarding](./tier1/knowledge/direct_connect_onboarding.md)
-* [S3](./tier1/knowledge/s3.md)
-* [VPC / IAM / Security Group](./tier1/knowledge/vpc_iam_sec.md)
-* [Direct Connect](./tier1/knowledge/direct_connect.md)
-* [Private Link](./tier1/knowledge/private_link.md)
-* [VPC Endpoints](./tier1/knowledge/vpc_endpoints.md)
-* [AWS Knowledge](./tier1/knowledge/aws.md)
diff --git a/docs/en/trusted-solutions/tier1/features/features.md b/docs/en/trusted-solutions/tier1/features/features.md
deleted file mode 100644
index e51276b67..000000000
--- a/docs/en/trusted-solutions/tier1/features/features.md
+++ /dev/null
@@ -1,23 +0,0 @@
----
-layout: default
-title: Features Description
-pagename: tier1-features
-lang: en
----
-
-# Isolation Feature Set
-
-This section describes in detail each of the Isolation Features.
-
-
-
-To get the onboarding process started, go to [Onboarding Process](../getting_started/onboarding.md).
-
-To start the setup for any of the Isolation features, go to the [Setup section](../setup/setup.md).
-
-## In This Section
-
-* [Media Isolation](./media_isolation.md)
-* [Media Traffic Isolation](./media_traffic_isolation.md)
-* [Web Traffic Isolation](./web_traffic_isolation.md)
-* [Media Replication](./media_replication.md)
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/features/media_isolation.md b/docs/en/trusted-solutions/tier1/features/media_isolation.md
deleted file mode 100644
index a50d57fdf..000000000
--- a/docs/en/trusted-solutions/tier1/features/media_isolation.md
+++ /dev/null
@@ -1,33 +0,0 @@
----
-layout: default
-title: Media Isolation
-pagename: tier1-features-media-isolation
-lang: en
----
-
-# Media Isolation
-Media Isolation allows your studio to retain ownership and control of the media and attachments that you upload to {% include product %}. With Media Isolation, all the content that you upload to {% include product %} is stored in your studio's private S3 Bucket. Access to the media is provided to the {% include product %} services only, using [AWS AssumeRole keyless Security Token Service](https://docs.aws.amazon.com/STS/latest/APIReference/API_AssumeRole.html).
-
-
-
-## Client-Owned S3 Bucket
-Storing media and attachments in an S3 bucket that you own means that you remain the legal owner of these artifacts, allowing you to comply with your company's security and legal policies. Your studio retains control of asset storage and access, access that you can revoke at will.
-
-
-
-## More about Access
-When using {% include product %} to upload and download media it is transferred directly to / from AWS S3 without transiting through Autodesk infrastructure. {% include product %} will only access media in two situations:
-1. The {% include product %} Transcoding service will get read/write access once, soon after upload, when transcoding the media. See [Ephemeral Transcoding](../getting_started/about.md#ephemeral-transcoding) for details.
-2. When the {% include product %} service generates S3 Links to your sources and transcoded media.
-
-This is rendered possible by leveraging [AWS AssumeRole keyless Security Token Service](https://docs.aws.amazon.com/STS/latest/APIReference/API_AssumeRole.html). When setting up Media Isolation, an AWS Role allowing {% include product %} to access your media for the action listed above is created, and the {% include product %} service is allowed to assume that role.
-
-{% include product %} Support staff do not have access to your S3 Bucket under any circumstances.
-
-## Costs
-When activating Media Isolation the following costs, previously covered by Autodesk, become the responsibility of the client:
-1. **S3 Costs.** All the S3 storage costs will be assumed by the customer. See [Media Isolation](../setup/tuning.md) for more details about how to reduce costs.
-2. **S3 Bandwidth.** Bandwidth out of the S3 bucket will be assumed by the customer.
-
-## What Media Isolation is not providing
-Activating Media Isolation doesn't guarantee that the access to your {% include product %} site or media takes place within a closed network.
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/features/media_replication.md b/docs/en/trusted-solutions/tier1/features/media_replication.md
deleted file mode 100644
index 28446b7ab..000000000
--- a/docs/en/trusted-solutions/tier1/features/media_replication.md
+++ /dev/null
@@ -1,38 +0,0 @@
----
-layout: default
-title: Media Replication
-pagename: tier1-features-media-replication
-lang: en
----
-
-# Media Replication
-
-{% include product %} is compatible with the S3 Cross-Region replication feature, allowing your users located in different regions to read from the region closer to them in order to reduce latency and increase throughput. Replication to one region is currently supported.
-
-
-
-## Pre-requisites
-Media Isolation is required in order to elect Media Replication.
-
-## Configuration by users
-When using Media Replication, each user can customize which region data is read from. A user can either specify the region to use, or use automatic mode. In automatic mode {% include product %} selects the replica determined by the user's IP address using IP ranges specified in the Isolation Preferences.
-
-
-
-## How it works
-{% include product %} can be configured to read from up to two different buckets. Using the [AWS S3 Replication](https://docs.aws.amazon.com/AmazonS3/latest/dev/replication.html) feature, you can configure replication between buckets in different regions, and then consume media from the region closest to your users. It is important to underline that media is always uploaded to the main bucket.
-
-
-
-Following AWS service level agreement, S3 guarantees the replication of 99.99% of the object within 15 minutes.
-
-### Replication Delay
-A small amount of time, typically under 15 minutes, is required before replication happens. The replication time depends on the size of the object to replicate. In order to alleviate that replication delay, {% include product %} will, for a small period of time, generate links from to object in the source bucket instead of the replica. The duration of this transitional state is configurable in the Isolation Preferences.
-
-## Costs
-Activating the Media Replication feature can increase your AWS costs considerabibly. Before activating, be aware that:
-1. Your S3 cost linked to {% include product %} usage will more or less double, because the media is now stored in two regions.
-2. You will be charged for the transfer cost between the source and the destination region. See [AWS S3 CRR and the destination region](https://docs.aws.amazon.com/AmazonS3/latest/dev/replication-and-other-bucket-configs.html#replication-and-dest-region) for more details.
-
-## Next Steps
-See [Media Replication Setup](../setup/s3_replication.md) for setup instructions.
diff --git a/docs/en/trusted-solutions/tier1/features/media_traffic_isolation.md b/docs/en/trusted-solutions/tier1/features/media_traffic_isolation.md
deleted file mode 100644
index 1b6d36037..000000000
--- a/docs/en/trusted-solutions/tier1/features/media_traffic_isolation.md
+++ /dev/null
@@ -1,31 +0,0 @@
----
-layout: default
-title: Media Traffic Isolation
-pagename: tier1-features-media-traffic-isolation
-lang: en
----
-
-# Media Traffic Isolation
-
-Communication between your client systems and S3 bucket targets a number of AWS network endpoints and data traverses the open Internet by default. Media Traffic Isolation allows you to limit the number of network endpoints used to transfer data to and from your S3 bucket and optionally restrict access to your AWS VPC or a defined set of public address scopes.
-
-
-
-## Configuration
-An S3 Proxy component is deployed within your VPC; which is then used as the endpoint for all S3 communication. It can also be made publicly available using AWS Global Accelerator.
-
-## How it works
-{% include product %} can be configured to use an S3 Proxy address to communicate with your S3 bucket. Deploying the S3 Proxy component within your VPC makes it possible to isolate traffic from the public Internet completely, or to allow more tightly controlled access from the Internet to your media.
-
-
-
-### Secure communication
-You are responsible for supplying and renewing SSL certificates for the S3 Proxy component.
-
-## Costs
-Activating the Media Traffic Isolation feature will increase your AWS costs. Before activating, be aware that:
-1. There are costs associated with running the S3 Proxy component. See [AWS Fargate Pricing](https://aws.amazon.com/fargate/pricing/) for more details.
-2. If you choose to make your S3 Proxy publicly accessible, there are also additional costs associated with AWS Global Accelerator. See [AWS Global Accelerator Pricing](https://aws.amazon.com/global-accelerator/pricing) for more details.
-
-## Next Steps
-See [Media Traffic Isolation](../setup/media_segregation.md) for setup instructions.
diff --git a/docs/en/trusted-solutions/tier1/features/web_traffic_isolation.md b/docs/en/trusted-solutions/tier1/features/web_traffic_isolation.md
deleted file mode 100644
index e062739bc..000000000
--- a/docs/en/trusted-solutions/tier1/features/web_traffic_isolation.md
+++ /dev/null
@@ -1,26 +0,0 @@
----
-layout: default
-title: Web Traffic Isolation
-pagename: tier1-features-web-traffic-isolation
-lang: en
----
-
-# Web Traffic Isolation
-
-Communication between your client systems and your {% include product %} site will traverse the open Internet by default. Web Traffic Isolation allows you to restrict access to your {% include product %} site from the public Internet entirely and ensure that all traffic transits directly between your AWS VPC and Autodesk's AWS VPC.
-
-
-
-## Configuration
-A unique VPC endpoint is provided by Autodesk. Access to the endpoint must be configured from your VPC, and the relevant DNS configuration must be completed to allow your client systems to reach the new endpoint.
-
-## How it works
-By using the provided VPC endpoint, web traffic is isolated from the public Internet completely. All web traffic transits between your AWS VPC and Autodesk's AWS VPC, rather than the public Internet.
-
-
-
-## Costs
-The only cost associated with Web Traffic Isolation are those related to web traffic transiting to/from your AWS VPC. See [AWS VPC Pricing](https://aws.amazon.com/vpc/pricing) for more details.
-
-## Next Steps
-See [Web Traffic Isolation](../setup/traffic_segregation.md) for setup instructions.
diff --git a/docs/en/trusted-solutions/tier1/getting_started/about.md b/docs/en/trusted-solutions/tier1/getting_started/about.md
deleted file mode 100644
index 78453dc54..000000000
--- a/docs/en/trusted-solutions/tier1/getting_started/about.md
+++ /dev/null
@@ -1,71 +0,0 @@
----
-layout: default
-title: About the Isolation Feature Set
-pagename: tier1-getting_started-about
-lang: en
----
-
-# What is the Isolation Feature Set
-
-The isolation feature set combines our Cloud Hosted Platform with client-managed AWS resources to provide a solution that satisfies the most stringent security and privacy requirements. Clients retain control of their sensitive content without having to host {% include product %} on their infrastructure.
-
-Leveraging the isolation feature set has the following advantages over the Standard offering:
-
-* **Media Isolation** by hosting of assets and attachments in a **client-owned S3 Bucket**
-* **Web Traffic Isolation** from the public internet
-* **Media Traffic Isolation** from the public internet
-* **Media Replication** allowing you to replicate media in one additional AWS Region
-* Access to fully managed {% include product %} Cloud Services
-* Automatic and continuous version upgrades
-* Ephemeral compute + in-memory segration between clients
-
-In a nutshell, this means that with the isolation features, your {% include product %} site and the data related to it cannot be reached by anyone outside of your studio network.
-
-The isolation feature set is a solution that requires less upkeep, as well as less IT/System Administrator knowledge and skills, than hosting {% include product %} on-premise. The list of advantages compared to on-premise includes, but is not limited to:
-
-* No {% include product %} specific knowledge required
-* No manual {% include product %} updates required
-* Very low level of maintenance required for the AWS components
-
-## Media isolation feature
-Media Isolation allows your studio to keep the ownership and control of the media and attachments that you upload to {% include product %}. With Media Isolation, all the content that you upload to {% include product %} can be store in your studio private S3 bucket. Access to the media is provided to the {% include product %} service only, using AWS AssumeRole keyless Security Token Service. Your studio remains in control of the assets and the access to the assets, access that you can revoke at will.
-
-## Traffic isolation features
-Media and Web traffic isolation features can be enabled to prevent your traffic from being routed on the public internet, limiting it to the AWS backbone and your studio network. The traffic between {% include product %} Services and your studio stays in closed network, never going outside AWS or your Studio network.
-
-With the Media Traffic Isolation feature activated, the media will only leave your studio infrastructure once to get transcoded.
-
-## Media Replication
-{% include product %} is compatible with the S3 Cross-Region replication feature, allowing your users located in different regions to read from the region closer to them in order to reduce latency and increase throughput. Replication to one region is currently supported.
-
-
-# Eligibility
-
-The Isolation feature set is available to clients with an active ShotGrid subscription. See [Getting Started](./getting_started.md) for more details about how to active the different features. The activation of the isolation feature set is not instantaneous, and requires manual setup involving your AWS account.
-
-
-# What the Isolation Feature Set is not
-
-The isolation feature set is not a completely isolated solution. Both the compute services and the database services are shared amongst clients, and managed by {% include product %}. From a hardware standpoint, the isolation features does not guarantee complete physical isolation. However, {% include product %} services are guaranteeing isolation at the memory level. Processes are never reused to answer requests from different clients during their lifetime. Client metadata is stored in different databases. Client media is individually stored on S3.
-
-
-# High Level Architecture
-
-
-The {% include product %} cloud service can be decoupled at a high level in 3 parts:
-
-**Compute Stack:** The part of the {% include product %} Service that handles client requests and serves data to the client.
-
-**Data Stack:** Metadata storage (databases).
-
-**Media Storage:** Where the client's attachments, media, and assets are stored. {% include product %} uses AWS S3 to store client content.
-
-Please read [Securing Studio IP in AWS: Cloud-based VFX Project Management with Autodesk {% include product %}](https://aws.amazon.com/blogs/media/securing-studio-ip-in-aws-cloud-based-vfx-project-management-with-autodesk-shotgun/) for more details about the architecture.
-
-## Ephemeral compute and memory isolation
-Even if clients share the same infrastructure, {% include product %} guarantees a complete memory isolation, both in transit and at rest, of client data. This makes {% include product %} less prone to data leaking due to architecture flaws or software vulnerabilities exploiting memory, like buffer overflow.
-
-## Ephemeral transcoding
-
-
-Everytime media is uploaded to {% include product %}, the transcoding service is invoked to create a web friendly versions of your assets. That process happens only once, after the initial upload. The media is directly uploaded from the client to S3, from where it is fetched by the {% include product %} Transcoding Service. Each transcoding job is handled by a single container, which is killed after that unique job. The only place the media temporarily lives is in the container memory. The {% include product %} Transcoding service doesn't store permanently a copy of your media.
diff --git a/docs/en/trusted-solutions/tier1/getting_started/getting_started.md b/docs/en/trusted-solutions/tier1/getting_started/getting_started.md
deleted file mode 100644
index 05a455ec3..000000000
--- a/docs/en/trusted-solutions/tier1/getting_started/getting_started.md
+++ /dev/null
@@ -1,23 +0,0 @@
----
-layout: default
-title: Getting Started
-pagename: tier1-getting_started
-lang: en
----
-
-# Isolation Feature Set - Getting Started
-
-Want to learn more about the isolation features? See [About the Isolation Feature Set](./about.md) for more details about what is in store for you.
-**The Isolation feature set is available to clients with an active ShotGrid subscription. Before starting, please be sure to complete your subscription purchase.**
-
-
-To get the onboarding process started, go to [Onboarding Process](./onboarding.md).
-
-To start the setup for any of the Isolation features, go to the [Setup section](../setup/setup.md)
-
-## In This Section
-
-* [About the Isolation Feature Set](./about.md)
-* [Client Responsibilities](./responsibilities.md)
-* [Onboarding Process](./onboarding.md)
-* [Planning Your Setup](../setup/setup.md)
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/getting_started/onboarding.md b/docs/en/trusted-solutions/tier1/getting_started/onboarding.md
deleted file mode 100644
index 9ebf9b7c3..000000000
--- a/docs/en/trusted-solutions/tier1/getting_started/onboarding.md
+++ /dev/null
@@ -1,42 +0,0 @@
----
-layout: default
-title: Onboarding Process
-pagename: tier1-getting_started-onboarding
-lang: en
----
-
-# Onboarding Process
-
-Leveraging the isolation features requires adopters to become AWS users. In order to ensure that this joint venture between Autodesk, AWS, and our clients is as streamlined as possible, we decided to work closely with AWS to define a cooperative onboarding process that would meet client expectations for a premium offering.
-
-Autodesk and Amazon will provide dedicated resources during the onboarding process to help you on this journey.
-
-To start the on-boarding process for any of the Isolation features, please fill out [this short survey](https://forms.office.com/r/jHraSXbfE9), before proceeding with [your setup](../setup/setup.md).
-
-## Onboarding Process Overview
-
-
-
-During the onboarding process, you'll have direct access to Autodesk and AWS Leaders who will support you during the implementation.
-
-**Tech Briefing:** Overview meeting of all of our offerings, where we underline the advantages and disadvantages of each.
-
-**Tech Deep Dive:** OPTIONAL. Deeper technical dive into isolation features. This meeting can be combined with the Tech Briefing.
-
-**Kickoff Meeting:** AWS and {% include product %} Leaders review the setup process with the you.
-
-**Setup / Test / Validation:** Iterative installation process where you connect your AWS resources to {% include product %}, and activate the isolation features.
-
-**Training:** OPTIONAL. Help sessions, if needed, as you ramp up on the AWS/{% include product %} technologies required to securely set-up the isolation features for your site.
-
-## Onboarding Resources
-
-**{% include product %} Community:** The [{% include product %} Isolation Community](https://community.shotgridsoftware.com/c/trusted-solutions/isolation/34) forum can be used to ask questions that can be answered by either {% include product %} Experts or other isolation features users. This should be your first stop when asking general questions about isolation features, during setup and beyond.
-
-**Private Slack Channel:** During the onboarding, you will be given access to a dedicated Autodesk Slack Channel. Your {% include product %} and AWS Leaders will be available for quick feedback, answers, and ad-hoc meetings to help you progress as fast as possible with your {% include product %} Isolation setup. This channel will be available only for the onboarding period.
-
-**{% include product %} Support:** A [{% include product %} Support](https://knowledge.autodesk.com/contact-support) ticket will be used to track your onboarding at a higher level. Once your {% include product %} Isolation setup is complete, follow-up support tickets can be opened with the support team as needed.
-
-## Next Steps
-
-Once the onboarding process is started, you can start thinking about [your setup](../setup/setup.md)
diff --git a/docs/en/trusted-solutions/tier1/getting_started/responsibilities.md b/docs/en/trusted-solutions/tier1/getting_started/responsibilities.md
deleted file mode 100644
index e27deaa04..000000000
--- a/docs/en/trusted-solutions/tier1/getting_started/responsibilities.md
+++ /dev/null
@@ -1,36 +0,0 @@
----
-layout: default
-title: Client Responsibilities
-pagename: tier1-getting_started-responsibilities
-lang: en
----
-
-# Client Responsibilities
-
-Below, we have outlined setup responsibilities between Autodesk and You.
-
-## Isolation Setup
-
-You are entirely responsible for the validity, security, and execution of the Isolation setup in Your AWS Account. Autodesk should not, under any circumstances, be granted access to Your AWS environment.
-
-Autodesk is available during the process for assistance, but the configuration of Isolation features in Your AWS Account is to be executed by You on Your own.
-
-Isolation feature set activation requires the {% include product %} Support team's intervention. Activation delays are to be expected and will depend on demand. You understand that an estimated period of 2-8 weeks is usually required to complete the setup necessary to implement the isolation feature set. The setup time is highly dependent on your cooperation, so please plan to dedicate resources for the setup before beginning the onboarding process.
-
-Autodesk does not guarantee any timeline for setup completion.
-
-## Onboarding
-
-|Type| Description / Agreement | Responsibility | Available for Assistance|
-|--------|-----|----------|---------|
-|AWS Knowledge | Acquiring the AWS-specific knowledge required to set up the isolation features. |You |N/A|
-|S3|Setting up the S3 Bucket that will host Your media Securing access to the S3 Bucket. Additional high-availability measures (versioning, bucket replication, etc.) |You |{% include product %} and *AWS|
-|Closed VPC |Setting up DirectConnect/VPN, etc. to allow closed access to the VPC. Securing the VPC by putting the correct Security Groups in place. |You |*AWS |
-|Media Isolation |Creating the S3 end-points. Deploying the S3 Proxy. |You| {% include product %} and *AWS |
-|Traffic Isolation |Creating VPCs. Creating Subnets.| You|{% include product %}|
-|Private Access Point|Checking that the access point is only available from Your network.| {% include product %}| N/A|
-|Monitoring and Reliability|Maintaining uptime up to Autodesk standards. High availability and redundancy of Cloud Services. Metadata and database resiliency and redundancy. Maintaining Recovery Point Objective (RPO) for metadata and database. |{% include product %}|N/A|
-|Service Level Objective|Maintaining {% include product %} target RPO and RTO (See [{% include product %} Security White Paper](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Administrator_ar_general_security_ar_security_white_paper_html) for more details).|{% include product %}| N/A|
-|Security and Governance |Maintaining the {% include product %} Cloud Services that Isolation clients are interfacing with, so that they are meeting expectations in terms of security, vulnerability patching, scanning, auditing, etc. (See [{% include product %} Security White Paper](https://help.autodesk.com/view/SGSUB/ENU/?guid=SG_Administrator_ar_general_security_ar_security_white_paper_html) for more details).| {% include product %} |N/A|
-
-*You are solely responsible to seek or obtain any support services AWS may provide under any existing relationship between You and AWS. Autodesk teams are not parties to Your relationship with AWS and therefore not responsible or liable for any services or lack thereof provided by AWS to You.
diff --git a/docs/en/trusted-solutions/tier1/images/features-description-overview.png b/docs/en/trusted-solutions/tier1/images/features-description-overview.png
deleted file mode 100644
index cdaf6f168..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/features-description-overview.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/isolation_theme.jpg b/docs/en/trusted-solutions/tier1/images/isolation_theme.jpg
deleted file mode 100644
index 720b002ac..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/isolation_theme.jpg and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/media-isolation-arch.png b/docs/en/trusted-solutions/tier1/images/media-isolation-arch.png
deleted file mode 100644
index 4a1b6f397..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/media-isolation-arch.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/media-isolation-overview.png b/docs/en/trusted-solutions/tier1/images/media-isolation-overview.png
deleted file mode 100644
index 525b0130f..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/media-isolation-overview.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/media-replication-arch.png b/docs/en/trusted-solutions/tier1/images/media-replication-arch.png
deleted file mode 100644
index 78b48462d..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/media-replication-arch.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/media-replication-overview.png b/docs/en/trusted-solutions/tier1/images/media-replication-overview.png
deleted file mode 100644
index 3bc685942..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/media-replication-overview.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/media-replication-preferences.png b/docs/en/trusted-solutions/tier1/images/media-replication-preferences.png
deleted file mode 100644
index 2dcf50da8..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/media-replication-preferences.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/media-traffic-isolation-arch.png b/docs/en/trusted-solutions/tier1/images/media-traffic-isolation-arch.png
deleted file mode 100644
index 116505c66..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/media-traffic-isolation-arch.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/media-traffic-isolation-overview.png b/docs/en/trusted-solutions/tier1/images/media-traffic-isolation-overview.png
deleted file mode 100644
index 09e9144eb..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/media-traffic-isolation-overview.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-about-arch.png b/docs/en/trusted-solutions/tier1/images/tier1-about-arch.png
deleted file mode 100644
index 4de0459f7..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-about-arch.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-about-transcoding.png b/docs/en/trusted-solutions/tier1/images/tier1-about-transcoding.png
deleted file mode 100644
index 60780e45a..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-about-transcoding.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-arch-s3_other.png b/docs/en/trusted-solutions/tier1/images/tier1-arch-s3_other.png
deleted file mode 100644
index 4c0793153..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-arch-s3_other.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-arch-s3_ue1.png b/docs/en/trusted-solutions/tier1/images/tier1-arch-s3_ue1.png
deleted file mode 100644
index 27f735970..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-arch-s3_ue1.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-arch-setup.png b/docs/en/trusted-solutions/tier1/images/tier1-arch-setup.png
deleted file mode 100644
index 727585e6d..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-arch-setup.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-1.png b/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-1.png
deleted file mode 100644
index 19c31b631..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-1.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-2.png b/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-2.png
deleted file mode 100644
index 7a650d5a4..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-2.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-3.png b/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-3.png
deleted file mode 100644
index a2aa900f6..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create-3.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create_privatelink.png b/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create_privatelink.png
deleted file mode 100644
index 206b55453..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-endpoint-create_privatelink.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-onboarding-process.png b/docs/en/trusted-solutions/tier1/images/tier1-onboarding-process.png
deleted file mode 100644
index 49fcf262a..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-onboarding-process.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-s3-replication.png b/docs/en/trusted-solutions/tier1/images/tier1-s3-replication.png
deleted file mode 100644
index 987b45c08..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-s3-replication.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/tier1-setup-process.png b/docs/en/trusted-solutions/tier1/images/tier1-setup-process.png
deleted file mode 100644
index acb989c7e..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/tier1-setup-process.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/web-traffic-isolation-arch.png b/docs/en/trusted-solutions/tier1/images/web-traffic-isolation-arch.png
deleted file mode 100644
index 738878820..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/web-traffic-isolation-arch.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/images/web-traffic-isolation-overview.png b/docs/en/trusted-solutions/tier1/images/web-traffic-isolation-overview.png
deleted file mode 100644
index 66b11ed59..000000000
Binary files a/docs/en/trusted-solutions/tier1/images/web-traffic-isolation-overview.png and /dev/null differ
diff --git a/docs/en/trusted-solutions/tier1/knowledge/aws.md b/docs/en/trusted-solutions/tier1/knowledge/aws.md
deleted file mode 100644
index 4047e2782..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/aws.md
+++ /dev/null
@@ -1,23 +0,0 @@
----
-layout: default
-title: AWS Knowledge
-pagename: tier1-knowledge-aws
-lang: en
----
-
-# AWS Knowledge
-
-Below you can find links to additional reading material from AWS, including documentation on technologies leveraged by the Isolation feature set, as well as compliance information:
-
-* [**[AWS Media Blog]** Securing Studio IP in AWS: Cloud-based VFX Project Management with Autodesk Shotgun](https://aws.amazon.com/blogs/media/securing-studio-ip-in-aws-cloud-based-vfx-project-management-with-autodesk-shotgun/)
-* [**[AWS Media Blog]** Designing for Studio-Grade Security](https://aws.amazon.com/blogs/media/designing-for-studio-grade-security/)
-* [**[Compliance]** MPAA & Studio Security](https://aws.amazon.com/compliance/mpaa/)
-* [**[AWS Direct Connect]** Overview](https://aws.amazon.com/directconnect/)
- * [**[AWS Direct Connect]** User Guide](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html)
-* [**[AWS S3]** Overview](https://aws.amazon.com/s3/)
- * [**[AWS S3]** User Guide](https://docs.aws.amazon.com/AmazonS3/latest/gsg/GetStartedWithS3.html)
-* [**[AWS EC2]** Overview](https://aws.amazon.com/ec2/)
- * [**[AWS EC2]** User Guide](https://docs.aws.amazon.com/ec2/index.html)
-* [**[AWS VPC]** Overview](https://aws.amazon.com/vpc/)
- * [**[AWS VPC]** User Guide](https://docs.aws.amazon.com/vpc/latest/userguide/what-is-amazon-vpc.html)
-* [**[AWS PrivateLink]** Overview](https://aws.amazon.com/privatelink/)
diff --git a/docs/en/trusted-solutions/tier1/knowledge/connecting.md b/docs/en/trusted-solutions/tier1/knowledge/connecting.md
deleted file mode 100644
index aa9aad9dd..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/connecting.md
+++ /dev/null
@@ -1,22 +0,0 @@
----
-layout: default
-title: Connecting Your Studio With Your AWS VPC
-pagename: tier1-knowledge-connecting
-lang: en
----
-
-# Connecting Your Studio With Your AWS VPC
-
-You can connect your studio networks with AWS using one of many options, described in detail in this [Amazon Virtual Private Cloud Connectivity Options](https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/network-to-amazon-vpc-connectivity-options.html) whitepaper.
-
-Some of the common options our clients have used include:
-
-## VPN Connection
-
-Using a VPN appliance - AWS-managed or client-managed - your studio can establish a secure connection between your data center (or offices) to your AWS private VPC.
-
-
-## AWS Direct Connect
-
-[AWS Direct Connect](./direct_connect.md) creates a dedicated link between your studio and your AWS VPC. This will help segregate your studio's network traffic to your private AWS VPC from general internet traffic.
-
diff --git a/docs/en/trusted-solutions/tier1/knowledge/direct_connect.md b/docs/en/trusted-solutions/tier1/knowledge/direct_connect.md
deleted file mode 100644
index 14339c232..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/direct_connect.md
+++ /dev/null
@@ -1,12 +0,0 @@
----
-layout: default
-title: Direct Connect
-pagename: tier1-knowledge-direct_connect
-lang: en
----
-
-# Direct Connect
-
-[AWS Direct Connect](https://aws.amazon.com/directconnect/) is a service from AWS that allows you to establish a dedicated connection from your on-premise data center (or offices) to AWS. Direct Connect will allow you to create a dedicated link between your network and one of the AWS Direct Connect locations.
-
-Leveraging AWS Direct Connect ensure that you will benefit from the best experience possible when using the isolation feature set, optimizing reliability and performance for all your access points across the globe.
diff --git a/docs/en/trusted-solutions/tier1/knowledge/direct_connect_onboarding.md b/docs/en/trusted-solutions/tier1/knowledge/direct_connect_onboarding.md
deleted file mode 100644
index acf1ab748..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/direct_connect_onboarding.md
+++ /dev/null
@@ -1,95 +0,0 @@
----
-layout: default
-title: ShotGrid AWS Direct Connect Onboarding
-pagename: tier1-knowledge-direct_connect_onboarding
-lang: en
----
-
-# {% include product %} AWS Direct Connect Onboarding
-
-
-## Introduction
-
-AWS Direct Connect (DX) is used to establish private connectivity between AWS and an on-prem facility. DX provides a private, high bandwidth network connection between your network and AWS Virtual Private Cloud (VPC) and bypasses the public internet. AWS has established 100 Direct Connect locations globally and leverages the AWS Partner Network to extend the footprint.
-
-## Review of Shogun Configuration in AWS
-
-
-
-## Customer Types
-
-1. Customer already has AWS Direct Connect dedicated connection
-2. Customer has equipment and network presence in an AWS Direct Connect location
-3. Customer does not have equipment or presence in an AWS Direct Connect location
-
-
-## Setup Options
-
-1. Request a dedicated Direct Connect connection through AWS Console
- 1. Provision the required connectivity yourself
- 1. Work with Direct Connect Partner to help establish a dedicated connection to AWS equipment
-2. Request a hosted Direct Connect connection through AWS Direct Connect Partner
-
-
-## Criteria to Determine Setup Path
-
-If you answer “yes” to the following, then request a dedicated Direct Connect connection through the AWS Console (Option 1a):
-
-- Do you already have equipment and presence in an AWS Direct Connect location?
-- Do you know the process for requesting a cross-connect within the Direct Connect location facility?
-- Are you looking for any one of the following - 1Gbps, 10Gbps port, or a dedicated connection?
-
-If you answer “yes” to the following, then request a dedicated Direct Connect connection through the AWS Console and select a Partner to assist (Option 1b):
-
-- Are you planning to use AWS Direct Connect to connect to other AWS resources outside of {% include product %}?
-- Do you have the time and resources to complete the setup?
-- Are you looking for any one of the following - 1Gbps, 10Gbps port, or a dedicated connection?
-
-If you answer “yes” to the following, then you should work with an AWS Direct Connect Partner to request a hosted Direct Connect connection (Option 2):
-
-- Are you already working with an AWS Direct Connect Partner?
-- Do you want a Partner to facilitate the setup?
-- Are you looking for a port less than 1Gbps or a hosted connection?
-***Disclaimer:*** *All options are valid and the criteria are just a guide to help simplify the selection process. You can still pick any option based on more specific criteria.*
-
-## Setup Directions
-
-### Request through AWS Console - Option 1 (a and b)
-1. [Create a Connection in the AWS Console](https://docs.aws.amazon.com/directconnect/latest/UserGuide/getting_started.html#ConnectionRequest)
-1. [Download the LOA-CFA](https://docs.aws.amazon.com/directconnect/latest/UserGuide/getting_started.html#DedicatedConnection). The LOA is the authorization to connect to AWS and is required to establish the cross-network connection.
-1. (Option 1a only) Request cross-connects at AWS Direct Connect locations. Find contact information [here](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Colocation.html).
-1. (Option 1b only) [Reach out to an AWS Partner](https://aws.amazon.com/directconnect/partners/) and share the LOA with them.
-1. Once the dedicated connection is provisioned into your account, set up logical connectivity (Virtual Interfaces).
-
-### Request through AWS Direct Connect Partner - Option 2
-
-1. [Reach out to an AWS Partner](https://aws.amazon.com/directconnect/partners/). The criteria for choosing an AWS Partner are:
- - AWS Region
- - Providers
- - If you are already working with an AWS Direct Connect Partner
-1. If hosted connection, [accept a hosted connection](https://docs.aws.amazon.com/directconnect/latest/UserGuide/getting_started.html#ConnectionRequest). More information can be found [here](https://docs.aws.amazon.com/directconnect/latest/UserGuide/accept-hosted-connection.html).
-1. Once the hosted connection is provisioned into your account, set up logical connectivity (Virtual Interfaces).
-
-## FAQ
-
-**How long should it take to set up AWS Direct Connect?**
-
-Short Answer - It depends. A lot of factors go into the time it takes to set up AWS Direct Connect. The timeline can vary from a few days to a few months. Some of the factors include current infrastructure, location of equipment, providers, partners, and more. If you are looking to expedite the process, consider using an AWS Direct Connect Partner who is geographically nearby.
-
-**Further questions about AWS Direct Connect?**
-
-[AWS Direct Connect FAQs](https://aws.amazon.com/directconnect/faqs/?nc=sn&loc=6)
-
-
-
-## VPN
-
-A site-to-site VPN can be used as an alternative to AWS Direct Connect. Learn more about [AWS VPN here](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html).
-
-## AWS Documentation & Resources
-
-- [What is AWS Direct Connect?](https://www.youtube.com/watch?v=eNxPhHTN8gY&feature=youtu.be&t=716)
-- [Direct Connect User Guide](https://docs.aws.amazon.com/directconnect/latest/UserGuide/dc-ug.pdf)
-- [re:Invent 2018 - 400 level Deep Dive on Direct Connect](https://www.youtube.com/watch?v=DXFooR95BYc)
-- [AWS Direct Connect Locations](https://aws.amazon.com/directconnect/features/#AWS_Direct_Connect_Locations)
-- [AWS Direct Connect Partners](https://aws.amazon.com/directconnect/partners/)
diff --git a/docs/en/trusted-solutions/tier1/knowledge/endpoints.md b/docs/en/trusted-solutions/tier1/knowledge/endpoints.md
deleted file mode 100644
index 12d99d191..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/endpoints.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: VPC Endpoints
-pagename: tier1-knowledge-endpoints
-lang: en
----
-
-# VPC Endpoints
-
-Coming soon.
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/knowledge/knowledge.md b/docs/en/trusted-solutions/tier1/knowledge/knowledge.md
deleted file mode 100644
index 6eaae7b9d..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/knowledge.md
+++ /dev/null
@@ -1,19 +0,0 @@
----
-layout: default
-title: Knowledge
-pagename: tier1-knowledge
-lang: en
----
-
-# Generic Knowledge
-
-## In This Section
-
-* [Connecting Your Studio With Your AWS VPC](./connecting.md)
-* [{% include product %} AWS Direct Connect Onboarding](./direct_connect_onboarding.md)
-* [S3](./s3.md)
-* [VPC / IAM / Security Group](./vpc_iam_sec.md)
-* [Direct Connect](./direct_connect.md)
-* [Private Link](./private_link.md)
-* [VPC Endpoints](./vpc_endpoints.md)
-* [AWS Knowledge](./aws.md)
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/knowledge/private_link.md b/docs/en/trusted-solutions/tier1/knowledge/private_link.md
deleted file mode 100644
index daa50aa49..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/private_link.md
+++ /dev/null
@@ -1,12 +0,0 @@
----
-layout: default
-title: Private Link
-pagename: tier1-knowledge-private_link
-lang: en
----
-
-# Private Link
-
-[AWS PrivateLink](https://aws.amazon.com/privatelink/) is an AWS service that connects different AWS VPCs without going through the public internet.
-
-In conjunction with [AWS Direct Connect](./direct_connect.md), PrivateLink helps create a dedicated connection between your studio and {% include product %}'s infrastructure.
diff --git a/docs/en/trusted-solutions/tier1/knowledge/s3.md b/docs/en/trusted-solutions/tier1/knowledge/s3.md
deleted file mode 100644
index 3caac5bbf..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/s3.md
+++ /dev/null
@@ -1,12 +0,0 @@
----
-layout: default
-title: S3
-pagename: tier1-knowledge-s3
-lang: en
----
-
-# S3
-
-[Amazon S3](https://aws.amazon.com/s3/) is an object storage service offered by AWS. It can be thought of as a highly durable storage space in the cloud. {% include product %} uses S3 to store uploaded media and files.
-
-In order to use {% include product %} isolation features, you will bring your own S3 bucket and configure {% include product %} to use it for storage. Please refer to our [S3 Bucket Setup article](../setup/s3_bucket.md) for details on how to do this.
diff --git a/docs/en/trusted-solutions/tier1/knowledge/vpc_iam_sec.md b/docs/en/trusted-solutions/tier1/knowledge/vpc_iam_sec.md
deleted file mode 100644
index effbe85bf..000000000
--- a/docs/en/trusted-solutions/tier1/knowledge/vpc_iam_sec.md
+++ /dev/null
@@ -1,16 +0,0 @@
----
-layout: default
-title: VPC / IAM / Security Group
-pagename: tier1-knowledge-vpc_iam_sec
-lang: en
----
-
-# VPC / IAM / Security Group
-
-[Amazon Virtual Private Cloud](https://aws.amazon.com/vpc/) permits users to logically separate virtual networks that host their AWS resources and provides you complete control over access to your AWS network.
-
-Within a VPC, [security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) act as a basic firewall and control what inbound and outbound connections are permitted to each given resource. For example, a security group can allow inbound **HTTPS** traffic to a proxy server but block all other inbound traffic.
-
-With [AWS Identity and Access Management (IAM)](https://aws.amazon.com/iam/), access to AWS resources and services can be controlled at a more fine-grained level. For example, IAM can be leveraged to control who or which resources can access S3 buckets used by {% include product %}.
-
-All three of the above features are used in the {% include product %} isolation features implementation to ensure that you securely connect your closed VPC to {% include product %} and allow access to the [media S3 buckets](../setup/s3_bucket.md).
diff --git a/docs/en/trusted-solutions/tier1/learn/learn.md b/docs/en/trusted-solutions/tier1/learn/learn.md
deleted file mode 100644
index fc1364ac6..000000000
--- a/docs/en/trusted-solutions/tier1/learn/learn.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: Learn
-pagename: tier1-learn
-lang: en
----
-
-# {% include product %} Isolation - Learn
-
-This section will host a learning curriculum for {% include product %} Isolation features n the near future.
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/setup/media_segregation.md b/docs/en/trusted-solutions/tier1/setup/media_segregation.md
deleted file mode 100644
index ace2a3a7b..000000000
--- a/docs/en/trusted-solutions/tier1/setup/media_segregation.md
+++ /dev/null
@@ -1,73 +0,0 @@
----
-layout: default
-title: Media Traffic Isolation
-pagename: tier1-setup-media_segregation
-lang: en
----
-
-# Media Traffic Isolation using AWS PrivateLink for Amazon S3
-
-{% include info title="Disclaimer" content="This documentation is provided solely as an example. It explains how to set up your ShotGrid Isolation environment so that it can be connected to ShotGrid cloud infrastructure. Please adapt it to your studio security requirements as needed. As ShotGrid has no visibility on your AWS Account, ensuring that this account is secure is a client responsibility." %}
-
-The media traffic isolation feature allows your users to access media in your AWS S3 bucket privately (not transiting over the public Internet). Please note that if you have a multi-region setup and that leverages the {% include product %} Transcoding service there may still be instances where media transits across the public Internet. Reach out to our support team for more details.
-
-Media Isolation activation is a pre-requisite to enable this feature. If you haven't done so already, see [Media Isolation](./s3_bucket.md).
-
-## Set up a VPC in your S3 bucket AWS region
-
-You will need to deploy a VPC with the required VPC endpoint. We provide a [private VPC](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-vpc-s3-privatelink.yml) CloudFormation templates as starting points. This template create the necessary VPC, subnets and VPC endpoint.
-
-* Create a [new CloudFormation stack](https://console.aws.amazon.com/cloudformation/home?#/stacks/create/template)
-* Select Template is ready
-* Set Amazon S3 URL to [`https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-vpc-s3-privatelink.yml`](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-vpc-s3-privatelink.yml)
-* Click Next
-* Set a stack name. Eg. `{% include product %}-vpc`
-* Choose network ranges that doesn't conflict with your studio network and set subnet CIDR values accordingly
-* Set your S3 bucket name
-* Click Next
-* Click Next
-
-## Set up access from your site network to your AWS VPC
-
-Options provided by AWS:
-* [AWS Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html)
-* [AWS Direct Connect](https://aws.amazon.com/directconnect/)
-
-{% include info title="Note" content="If Direct Connect is chosen, we recommend testing with a simpler / faster solution in the meantime to validate your Isolation setup. You can then replace that solution with Direct Connect once it is available." %}
-
-## Add an S3 endpoint to your VPC
-
-{% include info title="Note" content="This step should only be performed if the CloudFormation template was *not* used." %}
-
-Simply add an `com.amazonaws.us-west-2.s3` Interface VPC Endpoint to your existing VPC. Make sure the associated security group allow traffic from your site network.
-
-### Add the VPC to your S3 bucket policy
-
-In order for the S3 VPC endpoint to communicate with your S3 bucket your bucket policy must allow access from the S3 endpoint's VPC. You can find instructions on how to configure the policy in the [Fine Tuning](./tuning.md#s3-bucket-policy) step.
-
-## Validation
-
-### Test the S3 VPC endpoint
-
-Use the endpoint URL to list objects in your bucket using AWS CLI. In the following example, replace the VPC endpoint ID `vpce-1a2b3c4d-5e6f.s3.us-east-1.vpce.amazonaws.com` and bucket name `my-bucket` with appropriate information.
-
-```
- aws s3 --endpoint-url https://bucket.vpce-1a2b3c4d-5e6f.s3.us-east-1.vpce.amazonaws.com ls s3://my-bucket/
-```
-
-### Configure your test site to use your S3 VPC endpoint
-
-* Please contact {% include product %} support via the dedicated Slack channel and provide the following information:
- * Your S3 bucket name
- * Your S3 VPC endpoint DNS Name
-* Autodesk will configure your test site to use your S3 VPC endpoint
-* Confirm that you are still able to access existing media
-* Attempt to upload new media
-
-## Next Steps
-
-See [Web Traffic Isolation](./traffic_segregation.md) to activate the Web Traffic Isolation feature.
-
-See [Media Replication](./s3_replication.md) to activate the Web Traffic Isolation feature.
-
-Go to [Setup](./setup.md) for an overview of the possible next steps.
diff --git a/docs/en/trusted-solutions/tier1/setup/media_segregation_s3_proxy.md b/docs/en/trusted-solutions/tier1/setup/media_segregation_s3_proxy.md
deleted file mode 100644
index 3de278e64..000000000
--- a/docs/en/trusted-solutions/tier1/setup/media_segregation_s3_proxy.md
+++ /dev/null
@@ -1,137 +0,0 @@
----
-layout: default
-title: Media Traffic Isolation - S3 Proxy
-pagename: tier1-setup-media_segregation_s3_proxy
-lang: en
----
-
-{% include info title="Deprecated" content="The preferred way is to use S3 Private Link instead of a S3 proxy, see [Media Traffic Isolation](./media_segregation.md)" %}
-
-# Media Traffic Isolation using an S3 proxy (DEPRECATED)
-
-{% include info title="Disclaimer" content="This documentation is provided solely as an example. It explains how to set up your ShotGrid Isolation environment so that it can be connected to ShotGrid cloud infrastructure. Please adapt it to your studio security requirements as needed. As ShotGrid has no visibility on your AWS Account, ensuring that this account is secure is a client responsibility." %}
-
-The media traffic isolation feature allows your users to access media in your AWS S3 bucket privately (not transiting over the public Internet). Please note that if you have a multi-region setup and that leverages the ShotGrid Transcoding service there may still be instances where media transits across the public Internet. Reach out to our support team for more details.
-
-Media Isolation activation is a pre-requisite to enable this feature. If you haven't done so already, see [Media Isolation](./s3_bucket.md).
-
-## Set up a VPC in your S3 bucket AWS region
-
-{% include info title="Disclaimer" content="Before starting, decide whether your S3 proxy will be privately accessible within your VPC or publicly accessible via the Internet and choose the relevant templates in the following instructions." %}
-
-You will need to deploy a VPC with the required VPC endpoints. We provide both [private VPC](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-vpc.yml) and [public VPC](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-vpc.yml) CloudFormation templates as starting points. These template create the necessary VPCs, subnets and VPC endpoints.
-
-* Create a [new CloudFormation stack](https://console.aws.amazon.com/cloudformation/home?#/stacks/create/template)
-* Select Template is ready
-* Set Amazon S3 URL depending upon your desired configuration
- * Private VPC (default):
- [`https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-vpc.yml`](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-vpc.yml)
- * Public VPC:
- [`https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-public-vpc.yml`](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-public-vpc.yml)
-* Click Next
-* Set a stack name. Eg. `shotgun-vpc`
-* Choose network ranges that doesn't conflict with your studio network and set subnet CIDR values accordingly
-* Set your S3 bucket name
-* Click Next
-* Click Next
-
-## Set up access from your site network to your AWS VPC
-
-Options provided by AWS:
-* [AWS Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html)
-* [AWS Direct Connect](https://aws.amazon.com/directconnect/)
-
-{% include info title="Note" content="If Direct Connect is chosen, we recommend testing with a simpler / faster solution in the meantime to validate your Isolation setup. You can then replace that solution with Direct Connect once it is available." %}
-
-## Add an S3 endpoint to your VPC
-
-{% include info title="Note" content="This step should only be performed if the CloudFormation template was *not* used when configuring [Media Isolation](./s3_bucket.md)." %}
-
-
-
-
-
-## Set up S3 proxy
-
-You will need to deploy an S3 proxy in your VPC to forward traffic to the S3 VPC endpoint. We provide both [private](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy.yml) and [public](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy-public.yml) S3 proxy CloudFormation templates as starting points for this purpose. These will create the necessary Elastic Container Service (ECS) cluster and other resources to run the S3 proxy on AWS Fargate behind an AWS Application Load Balancer (ALB).
-
-### Make the Docker image available from a private AWS ECR repository
-
-* Create a [new Elastic Container Registry (ECR) repository](https://console.aws.amazon.com/ecr/create-repository)
-* Name the repository `s3-proxy`
-* Upload the s3-proxy Docker image to the newly created ECR repository
- * [Install Docker](https://docs.docker.com/get-docker/) on your workstation
- * Follow the `docker login` instructions shown by clicking the *View push commands* button
- * Run the following commands, substituting the ECR endpoint in the example for yours:
- ```
- docker pull quay.io/shotgun/s3-proxy:1.0.6
- docker tag quay.io/shotgun/s3-proxy:1.0.6 627791357434.dkr.ecr.us-west-2.amazonaws.com/s3-proxy:1.0.6
- docker push 627791357434.dkr.ecr.us-west-2.amazonaws.com/s3-proxy:1.0.6
- ```
-
-### Create S3 proxy CloudFormation stack
-
-Create a new stack in AWS Console using either the [private](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy.yml) or [public](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy-public.yml) CloudFormation template.
-
-* Create a [new CloudFormation stack](https://console.aws.amazon.com/cloudformation/home?#/stacks/create/template)
-* Select Template is ready
-* Set Amazon S3 URL depending upon your desired configuration
- * Private S3 proxy (default):
- [`https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy.yml`](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy.yml)
- * Public S3 proxy:
- [`https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy-public.yml`](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-s3-proxy-public.yml)
-* Click Next
-* Set a stack name up to 32 characters in length. Eg. `shotgun-s3-proxy`
-* Set the parameters that do not have default values with those used when creating the ECR repository, VPC and S3 bucket previously
-* Click Next
-* Accept `I acknowledge that AWS CloudFormation might create IAM resources`
-* Click Next
-
-### Configure HTTPS
-
-ShotGrid requires that the S3 proxy be accessed via HTTPS, therefore the AWS ALB handling requests for your newly created S3 proxy stack must be configured to accept HTTPS requests.
-
-* Create a DNS entry pointing to your S3 proxy, depending upon whether public or private
- * Private S3 proxy (default):
- * Go to the [EC2 Load Balancers dashboard](https://console.aws.amazon.com/ec2/home?#LoadBalancers), select your S3 proxy's ALB and make a note of the DNS name
- * Add a DNS CNAME record pointing to the DNS name of the ALB
- Eg. `s3-proxy.mystudio.com. 300 IN CNAME s3proxy-12R1MXX0MFFAV-2025360147.us-east-1.elb.amazonaws.com.`
- * Public S3 proxy:
- * Go to the [AWS Global Accelerator dashboard](https://console.aws.amazon.com/ec2/v2/home?#GlobalAcceleratorDashboard:) and make a note of the DNS name associated with your S3 proxy's accelerator
- * Add a DNS CNAME record pointing to the DNS name of the Global Accelerator
- Eg. `s3-proxy.mystudio.com. 300 IN CNAME a48a2a8de7cfd28d3.awsglobalaccelerator.com.`
-* Obtain an SSL certificate for your chosen URL, we recommend using [AWS Certificate Manager (ACM)](https://aws.amazon.com/certificate-manager/) for this
-* Configure HTTPS for the S3 proxy by adding a new HTTPS listener to the AWS ALB
- * Go to the [EC2 Load Balancers dashboard](https://console.aws.amazon.com/ec2/home?#LoadBalancers), select your S3 proxy's ALB and click on the Listeners tab
- * Click Add listener
- * Select HTTPS from the Protocol dropdown menu
- * Click Add action -> Forward to...
- * Select your S3 proxy's target group from the Target group dropdown menu
- * Select the Security policy you'd like to use. Eg. `TLS-1-2-Ext-2018-06` (See [AWS documentation](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-https-listener.html#describe-ssl-policies) for more information)
- * Select the SSL certificate you'd like to use from ACM or import a new certificate
- * Click Save
-
-### Add S3 proxy VPC to S3 bucket policy
-
-In order for the S3 proxy to communicate with your S3 bucket your bucket policy must allow access from the S3 proxy's VPC. You can find instructions on how to configure the policy in the [Fine Tuning](./tuning.md#s3-bucket-policy) step.
-
-## Validation
-
-### Test the S3 proxy
-
-Try to access your S3 proxy using the ping route. Eg. `https://s3-proxy.mystudio.com/ping`
-
-### Configure your test site to use the S3 proxy
-
-* Navigate to the Site Preferences menu within ShotGrid and expand the Isolation section
-* Set S3 Proxy Host Address to the S3 proxy url. Eg. `https://s3-proxy.mystudio.com` then click Save changes
-* Confirm that you are still able to access existing media
-* Attempt to upload new media
-
-## Next Steps
-
-See [Web Traffic Isolation](./traffic_segregation.md) to activate the Web Traffic Isolation feature.
-
-See [Media Replication](./s3_replication.md) to activate the Web Traffic Isolation feature.
-
-Go to [Setup](./setup.md) for an overview of the possible next steps.
diff --git a/docs/en/trusted-solutions/tier1/setup/migration.md b/docs/en/trusted-solutions/tier1/setup/migration.md
deleted file mode 100644
index fcada3bf8..000000000
--- a/docs/en/trusted-solutions/tier1/setup/migration.md
+++ /dev/null
@@ -1,27 +0,0 @@
----
-layout: default
-title: Migration
-pagename: tier1-setup-migration
-lang: en
----
-
-# Migration
-
-Once everything is configured and properly tested with the migration test site, it's now time to migrate your production site to use the isolation features.
-
-## Test migration
-
-Ask the {% include product %} team to start the migration process in support ticket/slack.
-
- * {% include product %} will clone your production site database to your migration test site.
- * You will do a first sync of the media from {% include product %}'s S3 bucket to your bucket. {% include product %} will provide the exact instructions.
- * You can now test your site to be sure your existing media is available.
-
-## Final migration
-
-The second test is to definitly migrate your site to use your own S3 bucket.
-
- * You will do a second sync of the media from {% include product %}'s S3 bucket to your bucket.
- * {% include product %} will reconfigure your hosted site with media isolation. Some media will be missing until the final media sync is completed.
- * You will do a final media sync.
-
diff --git a/docs/en/trusted-solutions/tier1/setup/planning.md b/docs/en/trusted-solutions/tier1/setup/planning.md
deleted file mode 100644
index e365d92b6..000000000
--- a/docs/en/trusted-solutions/tier1/setup/planning.md
+++ /dev/null
@@ -1,52 +0,0 @@
----
-layout: default
-title: Planning Your Setup
-pagename: tier1-getting_started-planning
-lang: en
----
-
-# Planning Your Setup
-
-
-
-## Pick your options
-
-Pick which features you want to activate
- * Media Isolation
- * Media Traffic Isolation
- * Web Traffic Isolation
- * Media Replication
-
-## AWS Account Creation
-
-Before going further, you will require an AWS Account. If you don't already have an AWS Account, [create your AWS Account](https://aws.amazon.com/premiumsupport/knowledge-center/create-and-activate-aws-account/).
-
-## Choose an AWS Region
-
-Choose an AWS Region for your AWS S3 bucket and VPC. Which region to use? You should chose the a region that is the closest possible to your studio.
-
-If your company is located in different locations, consider enabling the media replication feature to reduce latency and improve performance
-
-## Plan the VPC IP ranges
-
-Plan your AWS VPC and subnets IP ranges.
-
-### IP Range Example
-
-| Region | VPC | Subnet 1 | Subnet 2 | Subnet 3 |
-|--------|-----|----------|----------|----------|
-| ap-southeast-2 | 10.1.0.0/16 | 10.1.0.0/24 | 10.1.1.0/24 | 10.1.2.0/24 |
-
-
-### Plan how you will privately access your AWS VPC
-
-If you plan to activate any of the Traffic Isolation feature, you will need a way to connect your AWS VPC and your network infrastructure. The main options are:
-
- * AWS Direct Connect
- * Other VPN solution
-
-We highly recommand you to leverage Direct Connect. Direct Connect guarantees the lowest latency possible to the {% include product %} services, a consistent network experience, and allow you to leverage the optimization AWS is relying on to guarantee an optimal performance across the globe.
-
-## Next Step
-
-With your plan layed down, you are ready to start implementing the AWS building blocks that will allow you to activate the isolation features. To avoid disruption on your production site, you will first materialize and test your setup on your [Migration Test Site](./shotgun_poc_site.md)
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/setup/s3_bucket.md b/docs/en/trusted-solutions/tier1/setup/s3_bucket.md
deleted file mode 100644
index 91339137f..000000000
--- a/docs/en/trusted-solutions/tier1/setup/s3_bucket.md
+++ /dev/null
@@ -1,73 +0,0 @@
----
-layout: default
-title: Media Isolation
-pagename: tier1-setup-s3_bucket
-lang: en
----
-
-# Media Isolation
-
-{% include info title="Disclaimer" content="The security of your S3 bucket is solely a client responsibility, and the integrity of your data will be at risk without it. We very strongly recommend [securing your S3 bucket properly](https://aws.amazon.com/premiumsupport/knowledge-center/secure-s3-resources/)." %}
-
-## AWS Account Creation
-
-You can quickly [create your AWS Account](https://aws.amazon.com/premiumsupport/knowledge-center/create-and-activate-aws-account/).
-You should also contact your AWS contacts to get help with your AWS account setup.
-
-## AWS CloudFormation template
-
-It's possible to start from the [Private S3 bucket AWS CloudFormation template](https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-s3-bucket.yml) and customize it for your needs for a faster deployment.
-
-{% include info title="Disclaimer" content="This template is provided as an example only. It is your responsibility to validate that running the template will result in the [configuration/policy/security settings your studio requires](https://aws.amazon.com/premiumsupport/knowledge-center/secure-s3-resources/)." %}
-
- * Go the CloudFormation service in AWS Console
- * Select Template is ready
- * Set Amazon S3 URL to https://sg-shotgunsoftware.s3-us-west-2.amazonaws.com/tier1/cloudformation_templates/sg-private-s3-bucket.yml
- * Next
- * Set a stack name like {% include product %}-s3-bucket
- * Set your S3 bucket name and your {% include product %} site name
- * Next
- * Accept `I acknowledge that AWS CloudFormation might create IAM resources`
- * Next
-
-### CORS Configuration
-
-CORS policy on your S3 bucket will be minimally configured, allowing only the required origin (your site) and methods, amongst other things.
-
-### IAM Role
-
-The template will create an AWS Role with the following permissions on your bucket:
-
-* Allow {% include product %} to access your S3 bucket.
-* Allow the {% include product %} account to assume the role by setting the role Trust Relationship.
-
-## Media Isolation Activation
-
-Please contact {% include product %} support via the dedicated Slack channel and provide the following information:
- * S3 bucket name
- * AWS Region
- * {% include product %} Role ARN
-
-{% include product %} will configure your test site to use your own S3 bucket.
-
-## Validation
-
-At this stage, you should be able to upload and download media. The {% include product %} Transcoding Service should also be able to read, transcode and write back the thumbnails, filmstrip and web friendly versions of your media back to your S3 Bucket. To validate this:
-
-1. Log in your Migration Test Site.
-2. From the Navigation Bar, go the the Media app
-3. Once in the Media App, drag and drop or upload an image or a video from your computer. If you didn't created a Project yet, you may have to create one first.
-4. A version should appear, with a thumbnail, in the Media App.
-5. Validate that you can playback the media by clicking the Play button.
-6. To validate that the media has been stored in your S3 bucket, from the media viewer, click on the cog and then select or hover over ‘view source’. The HTTPS link should contain your bucket name.
-
-## Next Steps
-
-See [Media Traffic Isolation](./media_segregation.md) to activate the Media Traffic Isolation feature.
-
-See [Web Traffic Isolation](./traffic_segregation.md) to activate the Web Traffic Isolation feature.
-
-See [Media Replication](./s3_replication.md) to activate the Web Traffic Isolation feature.
-
-Go to [Setup](./setup.md) for an overview of the possible next steps.
-
diff --git a/docs/en/trusted-solutions/tier1/setup/s3_replication.md b/docs/en/trusted-solutions/tier1/setup/s3_replication.md
deleted file mode 100644
index 20b465ada..000000000
--- a/docs/en/trusted-solutions/tier1/setup/s3_replication.md
+++ /dev/null
@@ -1,61 +0,0 @@
----
-layout: default
-title: Media Replication
-pagename: tier1-setup-s3_replication
-lang: en
----
-
-# Media Replication
-
-## Description
-
-It's possible to add S3 replication between two S3 buckets in different regions and configure {% include product %} to leverage it for faster access to media.
-
-
-
-## Features
-
- * Support one replica bucket in another region leveraging the [AWS S3 replication feature](https://docs.aws.amazon.com/AmazonS3/latest/dev/replication.html)
-
-## How it works
-
-When S3 bucket replication is activated, users will be able download media files from the replica S3 bucket.
-
-For each user, the S3 replication is activated by the `Use S3 Replication` field.
-
-| Value| Behavior |
-|------|----------------------------------------------|
-|`no` | Never use replica S3 bucket (default)|
-|`yes` | Use replica S3 bucket when delay is over|
-|`auto`| Use replica S3 bucket when delay is over and the client IP is in `IP Adresses for S3 replication` range|
-
-The `IP Adresses for S3 replication` preference can be edited in Site Preferences under the Isolation category.
-
-## Limitations
-
- * Only one replica S3 bucket can be configured
- * Only downloading from the replica bucket is supported
- * Configurable delay for new media to be replicated before being made available to users
-
-# Setup steps
-
- * Create the replica S3 bucket in a new AWS region. See [Media Isolation](./s3_bucket.md)
- * Update your existing {% include product %} role policy to allow {% include product %} to also access the replica bucket
- * Setup the replication rules on the primary S3 bucket. See [How do I add a replication rule to an S3 bucket?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/enable-replication.html#enable-replication-add-rule)
- * Setup a VPC + Direct Connect + S3 proxy in the new AWS region. See [Media Traffic Isolation](./media_segregation.md)
- * Contact {% include product %} Support to configure your site to use the new S3 replica bucket, providing the following information:
- * Replica Bucket Name
- * Replica Bucket Region
- * Replica S3 proxy URL
-
-## FAQ
-
-### Copy existing media
-
-S3 replication only applies to media uploaded after the feature has been enabled. Existing media in the primary bucket must be copied to the replica bucket manually. You can simply use `aws-cli` sync or use [Amazon S3 Batch Operations](https://aws.amazon.com/s3/features/batch-operations/) if you have a lot of media to achieve this.
-
-## Next Steps
-
-See [Fine Tuning](./tuning.md) to finalize your setup and optimize costs and security.
-
-Go to [Setup](./setup.md) for an overview of the possible next steps.
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/setup/setup.md b/docs/en/trusted-solutions/tier1/setup/setup.md
deleted file mode 100644
index 759f5637f..000000000
--- a/docs/en/trusted-solutions/tier1/setup/setup.md
+++ /dev/null
@@ -1,67 +0,0 @@
----
-layout: default
-title: Setup
-pagename: tier1-setup
-lang: en
----
-
-# {% include product %} Isolation Feature Set - Setup
-
-Isolation the isolation features are independent of each other, and can be activated independently of each other. Media replication have as pre-requisite for Media Isolation to be implemented.
-
-The setup process will depend on which feature you want to activate for your site.
-
-## In This Section
-
-* [Planning your Setup](./planning.md)
-* [Migration Test Site](./shotgun_poc_site.md)
-* [Media Isolation](./s3_bucket.md)
-* [Media Traffic Isolation](./media_segregation.md)
-* [Web Traffic Isolation](./traffic_segregation.md)
-* [Media Replication](./s3_replication.md)
-* [Isolation Fine Tuning](./tuning.md)
-* [Migration](./migration.md)
-
-# Setup Overview
-
-
-
-## [Understand your responsibilities](../getting_started/responsibilities.md)
-
-Make sure that you understand the [client responsibilities and the implication](../getting_started/responsibilities.md) of activating any of the Isolation feature.
-
-## [Start the onboarding process](../getting_started/onboarding.md)
-
-Leveraging the isolation features requires adopters to become AWS users. The features activation also requires Autodesk Support intervention. In order to ensure that this joint venture between Autodesk, AWS, and our clients is as streamlined as possible, we decided to work closely with AWS to define a cooperative onboarding process that would meet client expectations for a premium offering. [Kick-start the onboarding process](../getting_started/onboarding.md) before going further.
-
-## [Planning your Setup](./planning.md)
-
-Before you start working on your setup, [put a plan in place](./planning.md). Choose the features you need and get the required security/legal approval from your team to get started with the Isolation feature set.
-
-## [Migration Test Site](./shotgun_poc_site.md)
-
-To help you setting up the Isolation features without breaking your production environment and to helping smooting the migration to your isolated environment, {% include product %} propose to use a test site on which to test your setup before applying the result to production.
-
-## [Media Isolation](./s3_bucket.md)
-
-This feature allow you to use a S3 Bucket owned by your studio to store media.
-
-## [Media Traffic Isolation](./media_segregation.md)
-
-This feature allows for private routing of the media through the AWS Backbone and your studio network, isolating the media traffic from the public internet.
-
-## [Web Traffic Isolation](./traffic_segregation.md)
-
-This feature isolate the web traffic on AWS Backbone and your studio network, isolating the traffic from the public internet.
-
-## [Media Replication](./s3_replication.md)
-
-This feature allows the media to be replicated between AWS Regions, for faster access in your world wide studios. Media Isolation is required.
-
-## [Fine Tuning](./tuning.md)
-
-Once the isolation features you need are activated, make sure that you everything is properly configured for security and cost-efficiency by reviewing this fine tuning guide.
-
-## [Migration](./migration.md)
-
-Once everything is ready, it's now time to migrate your production site to use the isolation features.
diff --git a/docs/en/trusted-solutions/tier1/setup/shotgun_poc_site.md b/docs/en/trusted-solutions/tier1/setup/shotgun_poc_site.md
deleted file mode 100644
index 18a4cfd1d..000000000
--- a/docs/en/trusted-solutions/tier1/setup/shotgun_poc_site.md
+++ /dev/null
@@ -1,24 +0,0 @@
----
-layout: default
-title: Migration Test Site
-pagename: tier1-setup-shotgun_poc_site
-lang: en
----
-
-# {% include product %} Migration Test Site
-
-Activating the isolation feature set is an intrusive procedure that can have an impact on the usability of your site. To prevent a production stopping event, we require clients to follow an approach where the configuration is first validated on a test site, before being applied to the production site.
-
-The {% include product %} team will create a temporary site to be used as a Proof of Concept for your {% include product %} Isolation deployment. Upon the successful completion of the setup process, your existing {% include product %} site can be migrated to your {% include product %} Isolation environment.
-
-If your Migration Test Site has not been created yet, please reach out to our Support team through your Zendesk ticket or your dedicated on-boarding Slack Channel.
-
-## Next Steps
-
-Once you have your test site, you can the implementation of the feature you need.
-
-See [Media Isolation](./s3_bucket.md) for activating the Media Isolation feature.
-
-See [Web Traffic Isolation](./traffic_segregation.md) for activating the Web Traffic Isolation feature.
-
-Go to [Setup](./setup.md) for an overview of the possible next steps.
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/setup/traffic_segregation.md b/docs/en/trusted-solutions/tier1/setup/traffic_segregation.md
deleted file mode 100644
index 8a372abb3..000000000
--- a/docs/en/trusted-solutions/tier1/setup/traffic_segregation.md
+++ /dev/null
@@ -1,47 +0,0 @@
----
-layout: default
-title: Web Traffic Isolation
-pagename: tier1-setup-traffic_segregation
-lang: en
----
-
-# Web Traffic Isolation
-
-{% include info title="Notice" content="Web Traffic Isolation is available in the following AWS regions: us-east-1, us-west-2, eu-west-2 and eu-west-3." %}
-
-The goal is to set up an AWS PrivateLink to privately access your {% include product %} site.
-
-## Set up PrivateLink to ShotGrid
-
- * Ask {% include product %} support to provide you with the {% include product %} PrivateLink service name for your AWS region.
-
- * Update the private VPC CloudFormation stack you created earlier and set {% include product %}PrivateServiceName parameter.
-
-### Manual steps if needed
-
- * Add a new VPC Endpoint in your VPC
-
- * For the security group, {% include product %} service only requires the inbound port tcp/443 to be open.
-
-
-
-
-## DNS Configuration
-
-Provide your PrivateLink DNS name to {% include product %} support. We will setup a new private URL for your site that will look like `mystudio-staging.priv.shotgunstudio.com`.
-
-## Validation
-
-Verify that your site private URL resolves to IPs in your AWS VPC block.
-
-```
-nslookup mystudio-staging.priv.shotgunstudio.com
-```
-
-Try to access your test site from inside your office ie https://mystudio-staging.priv.shotgunstudio.com
-
-## Next Steps
-
-See [Fine Tuning](./tuning.md) to finalize your setup and optimize costs and security.
-
-Go to [Setup](./setup.md) for an overview of the possible next steps.
\ No newline at end of file
diff --git a/docs/en/trusted-solutions/tier1/setup/tuning.md b/docs/en/trusted-solutions/tier1/setup/tuning.md
deleted file mode 100644
index de512bb5c..000000000
--- a/docs/en/trusted-solutions/tier1/setup/tuning.md
+++ /dev/null
@@ -1,85 +0,0 @@
----
-layout: default
-title: Fine Tuning
-pagename: tier1-setup-tuning
-lang: en
----
-
-# Fine Tuning
-
-## Cost Management Recommendations
-
-### S3 Infrequent Access
-
-We recommend enabling S3 Infrequent Access to easily reduce costs without impacting performance. For the {% include product %} Cloud hosted offering, we apply a policy for all objects older than one month.
-
-With Infrequent Access, objects are stored at a lower cost. However, if they are accessed, it will involve an additional cost. {% include product %} has observed that one month was the right policy to use globally, but you may want to adapt that policy to your studio workflows as needed.
-
-Read more about S3 Infrequent Access and other storage classes [here](https://aws.amazon.com/s3/storage-classes/).
-
-## S3 Bucket policy
-
-We recommend you restrict access to your S3 bucket to only your VPC and {% include product %} transcoding services IPs. There is an example policy, replace `your_vpc_id` and `your_s3_bucket` by your values.
-
-We strongly recommend you test media access and media transcoding in your migration test site right after applying the bucket policy changes to be sure your S3 bucket is still accessible from your VPC and from {% include product %} transcoders.
-
-```
-{
- "Version": "2012-10-17",
- "Id": "Policy1415115909152",
- "Statement": [
- {
- "Sid": "AllowSSLRequestsOnly",
- "Effect": "Deny",
- "Principal": "*",
- "Action": "s3:*",
- "Resource": [
- "arn:aws:s3:::your_s3_bucket",
- "arn:aws:s3:::your_s3_bucket/*"
- ],
- "Condition": {
- "Bool": {
- "aws:SecureTransport": "false"
- }
- }
- },
- {
- "Sid": "Access-to-specific-VPC-only and Shotgun transcoder",
- "Effect": "Deny",
- "Principal": "*",
- "Action": "s3:GetObject*",
- "Resource": "arn:aws:s3:::your_s3_bucket/shotgun/*",
- "Condition": {
- "NotIpAddress": {
- "aws:SourceIp": [
- "34.200.155.69/32",
- "34.224.232.103/32",
- "34.202.127.170/32"
- ]
- },
- "StringNotEquals": {
- "aws:sourceVpc": [
- "vpc-2fd62a56",
- "your_vpc_id"
- ]
- }
- }
- }
- ]
-}
-```
-
-## S3 endpoint policy
-
-We recommend setting a VPC endpoint policy on your S3 endpoint to allow access to your S3 bucket only. See [here](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints-s3.html#vpc-endpoints-policies-s3) for an example.
-
-## Application Load Balancer
-
- * We recommend you [enable deletion protection](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/application-load-balancers.html#deletion-protection) on the S3 proxy load balancer to prevent accidental deletion.
- * We recommend you [enable access logging](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-access-logs.html#enable-access-logging) on the S3 proxy load balancer to aid in traffic analysis and identification of security issues.
-
-## Next Steps
-
-See [Migration](./migration.md) to migrate your production site to use the isolation features.
-
-Go to [Setup](./setup.md) for an overview of the possible next steps.
diff --git a/docs/en/videos/images/dev-day-playlist.png b/docs/en/videos/images/dev-day-playlist.png
deleted file mode 100644
index 269534352..000000000
Binary files a/docs/en/videos/images/dev-day-playlist.png and /dev/null differ
diff --git a/docs/en/videos/images/toolkit-playlist.png b/docs/en/videos/images/toolkit-playlist.png
deleted file mode 100644
index f87247919..000000000
Binary files a/docs/en/videos/images/toolkit-playlist.png and /dev/null differ
diff --git a/docs/en/videos/video-webinars.md b/docs/en/videos/video-webinars.md
deleted file mode 100644
index c0e60ec79..000000000
--- a/docs/en/videos/video-webinars.md
+++ /dev/null
@@ -1,155 +0,0 @@
----
-layout: default
-title: Toolkit Webinars
-pagename: video-webinars
-lang: en
----
-
-# {% include product %} Toolkit Webinars
-
-*Updated: 2020/5/8*
-
-## {% include product %} Toolkit Webinar Playlist
-
-[](https://www.youtube.com/watch?v=rgzHEwUhENI&list=PLEOzU2tEw33q65lv0_AKDT6tbpi6vgMDH)
-
-## {% include product %} Toolkit Webinar Videos
-
-
-1: {% include product %} Toolkit Webinar: Out-of-the-box Integrations *(60m)*
-
-In the first of a new series of Toolkit webinars, Rob Blau, and Manne Öhrström, answer questions about out-of-the-box integrations.
-
-[](http://www.youtube.com/watch?v=rgzHEwUhENI)
-
-2: {% include product %} Toolkit Webinar: Demystifying the New Default Configuration *(60m)*
-
-In this webinar, Josh Tomlinson and Rob Blau cover what has changed (and why) in the new default configuration for Toolkit projects.
-
-[](http://www.youtube.com/watch?v=eKHaC1dZCeE)
-
-3: {% include product %} Toolkit Webinar: Customizing Publish Workflows - A Live Demo *(60m)*
-
-In this webinar, Josh Tomlinson gives a step-by-step walkthrough of creating a custom publish workflow in Maya. Learn the constructs of the publish app, how to configure it, and how to write custom hooks for collecting and publishing data.
-
-[](http://www.youtube.com/watch?v=pH4mylrnktY)
-
-*Supplemental Material*
-
-[Pipeline Tutorial](https://developer.shotgridsoftware.com/cb8926fc/)
-
-4: {% include product %} Toolkit Webinar: Cloud Configurations and Multi-location Workflows *(60m)*
-
-In this webinar, Manne Ohrstrom explores workflows for studios with artists in multiple locations.
-
-[](http://www.youtube.com/watch?v=NyIk07F2RoM)
-
-*Supplemental Material*
-
-[Developer docs on Toolkit initialization and configuration management](https://developer.shotgridsoftware.com/tk-core/initializing.html)
-
-[List of Descriptor types that Manne references in the video](https://developer.shotgridsoftware.com/tk-core/descriptor.html#descriptor-types)
-
-5: {% include product %} Ecosystem Webinar: REST API *(60m)*
-
-In this webinar, Brandon Ashworth will walk us through a bunch of useful demos, examples, and recipes to show what the REST API is, why it’s important, and how it can be used.
-
-[](http://www.youtube.com/watch?v=3xPPj2pbHVQ)
-
-*Supplemental Material*
-
-[REST API reference docs](https://developer.shotgridsoftware.com/rest-api/)
-
-6: {% include product %} Toolkit Webinar: The New Publisher API *(35m)*
-
-The latest Integrations release includes an improved Publish API, which allows you to decouple publish logic from the GUI app and run publishes from your own tools, or even on the render farm. In this webinar, Jean-Francois Boismenu demos how you can use the API to pass a publish item tree from the Publisher UI to a render farm job.
-
-[](http://www.youtube.com/watch?v=ZxP3IXHt47U)
-
-*Supplemental Material*
-
-[Github repo with config](https://github.com/shotgunsoftware/tk-config-publish_api_webinar)
-
-[Pull Request referenced at 31:00](https://github.com/shotgunsoftware/tk-config-publish_api_webinar/pull/1)
-
-[Publish API Documentation](https://developer.shotgridsoftware.com/tk-multi-publish2/)
-
-7: {% include product %} Toolkit Webinar: After Effects Integration *(38m)*
-
-Adobe After Effects is our latest {% include product %} integration. In this webinar, Rob Blau dives deep into the After Effects integration with a live demo of features and discusses how we refactored the heaving lifting from our Photoshop integration to develop a reusable framework for any Adobe integration.
-
-Also, Tannaz Sassooni tours our new developer’s documentation site and shows how we’re making it easier for our users to learn how to integrate with {% include product %}.
-
-[](http://www.youtube.com/watch?v=g-062_VTbAI)
-
-*Supplemental Material*
-
-[After Effects integration documentation](https://developer.shotgridsoftware.com/1eca509c/)
-
-[Developer documentation portal](https://developer.shotgridsoftware.com)
-
-## {% include product %} Developer Day Playlist
-
-
-[](https://www.youtube.com/watch?v=i0aVJepZw8Y&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d)
-
-
-## {% include product %} Developer Day Videos
-
-
-At SIGGRAPH 2018 and 2019, the {% include product %} team presented {% include product %} Developer Day: a series of courses designed to acquaint developers on the many resources available for automating tasks, writing custom apps and more. After SIGGRAPH, we held a series of webinars featuring the content from Developer Day. This playlist contains recordings of those webinars.
-
-Full slide decks, code examples and other resources related to this content can be found [here for 2019](https://github.com/shotgunsoftware/sg-siggraph-2019) and [here for 2018](https://github.com/shotgunsoftware/sg-devday-2018/) .
-
-1: SIGGRAPH Developer Day 2019: Introduction to {% include product %} Development *(83m)*
-
-In this webinar, Tannaz Sassooni and Patrick Boucher give an introduction to {% include product %} development, including a discussion on {% include product %}’s entry points for automation, {% include product %}’s Python and REST APIs and how {% include product %}’s APIs automate tasks and data-tracking for studios.
-
-[](http://www.youtube.com/watch?v=i0aVJepZw8Y)
-
-[0:56](https://www.youtube.com/watch?v=i0aVJepZw8Y&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=1&t=56s) Welcome and orientation
-
-[3:00](https://www.youtube.com/watch?v=i0aVJepZw8Y&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=1&t=180s) Introduction to {% include product %} Development: A high-level overview of common pipeline needs and how you can use {% include product %}'s APIs and development frameworks to address them. [Tannaz Sassooni]
-
-[25:59](https://www.youtube.com/watch?v=i0aVJepZw8Y&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=1&t=1559s) Introduction to Data Management Using {% include product %} APIs: Dive into {% include product %}'s API using simple Python and REST scripting, as well as frameworks for creating Action Menu Items. [Patrick Boucher]
-
-2: SIGGRAPH Developer Day 2019: Advanced {% include product %} Development *(78m)*
-
-In this webinar, Brandon Ashworth and Manne Öhrström dive into {% include product %} using the event daemon and new webhooks to react to data changes in {% include product %}, and show how to write a simple pipeline tool using {% include product %} Toolkit.
-
-[](http://www.youtube.com/watch?v=xUeY1pECHdI)
-
-[0:39](https://www.youtube.com/watch?v=xUeY1pECHdI&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=2&t=39s) Welcome and orientation
-
-[2:33](https://www.youtube.com/watch?v=xUeY1pECHdI&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=2&t=153s) Working with {% include product %} Events [Brandon Ashworth]
-
-[41:25](https://www.youtube.com/watch?v=xUeY1pECHdI&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=2&t=2485s) Developing a {% include product %} Tool that runs in multiple artist apps [Manne Öhrström]
-
-3: SIGGRAPH Developer Day: Toolkit Administration *(1h15m)*
-
-In this webinar, Josh Tomlinson, Tannaz Sassooni and Phil Scadding demo how to take over integrations and create a custom directory structure and hooks to automate more of the data flow in your studio.
-
-[](http://www.youtube.com/watch?v=7qZfy7KXXX0)
-
-[0:00](https://www.youtube.com/watch?v=7qZfy7KXXX0&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=2&t=0s) Welcome and Orientation
-
-[1:04](https://www.youtube.com/watch?v=7qZfy7KXXX0&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=2&t=64s) {% include product %} Toolkit Administration: Learn how to launch common content creation software through our {% include product %} Desktop app and check out how artists can interact with {% include product %} without ever leaving their work session, with our default pipeline integrations. [Phil Scadding]
-
-[32:41](https://www.youtube.com/watch?v=7qZfy7KXXX0&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=2&t=1961s) Introduction to Toolkit Configurations: Master navigating through the Toolkit Pipeline Configuration, learning how to use it to customize your pipeline workflows. [Tannaz Sassooni]
-
-[56:20](https://www.youtube.com/watch?v=7qZfy7KXXX0&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=2&t=3380s) Managing Hooks: Learn to use {% include product %} Toolkit's extensive set of hooks to add custom logic to your configuration and tailor your Toolkit pipeline to your studio's needs. [Josh Tomlinson]
-
-4: SIGGRAPH Developer Day: Advanced {% include product %} Development *(1h15m)*
-
-Manne Ohrstrom, Jeff Beeland, and Rob Blau demonstrate best practices for source control and cloud-based pipeline deployment, and dive into building apps and using Toolkit’s standard frameworks for rapidly designing UIs and handling data.
-
-[](http://www.youtube.com/watch?v=bT2WlQaJVmY)
-
-[0:00](https://www.youtube.com/watch?v=bT2WlQaJVmY&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=3&t=0s) Welcome and Orientation
-
-[2:31](https://www.youtube.com/watch?v=bT2WlQaJVmY&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=3&t=151s) Toolkit platform: Development and deployment patterns: Learn the different ways you can set up and deploy a Toolkit pipeline configation, including workflows for development, version control best practices, and distributing your pipeline configuration to remote users by uploading it to your {% include product %} site. [Manne Ohrstrom]
-
-[30:23](https://www.youtube.com/watch?v=bT2WlQaJVmY&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=3&t=1823s) Toolkit platform: Writing your own App: Walk through writing a simple Toolkit app, utilizing provided APIs and frameworks to rapidly create a powerful UI. [Jeff Beeland]
-
-[1:02:22](https://www.youtube.com/watch?v=bT2WlQaJVmY&list=PLEOzU2tEw33r4yfX7_WD7anyKrsDpQY2d&index=3&t=3742s) Introduction to Autodesk Forge: Learn about Forge, Autodesk's series of API-driven cloud services, and how you can use them to extend the {% include product %} experience. [Rob Blau]
-
diff --git a/docs/ja/action-menu-items/action-menu-items-create.md b/docs/ja/action-menu-items/action-menu-items-create.md
deleted file mode 100644
index af9ca1131..000000000
--- a/docs/ja/action-menu-items/action-menu-items-create.md
+++ /dev/null
@@ -1,104 +0,0 @@
----
-layout: default
-title: カスタム アクション メニュー アイテム
-pagename: action-menu-items-create
-lang: ja
----
-
-# カスタム アクション メニュー アイテム
-
-API 開発者は、アクション メニュー アイテム(AMI)からエンティティごとにコンテキスト メニュー項目をカスタマイズできます。たとえば、Versions ページから複数のバージョンを選択して右クリックし、Build a PDF Report を選択します。
-
-
-
-## アクション メニュー アイテム フィールド:
-
-
-
-## アクション メニュー アイテムのタイプ
-
-作成できるメニュー項目は次の 2 つです。
-
-## HTTP URL の例
-
-たとえば、「Build PDF Report」と呼ばれるカスタム メニュー項目を作成できます。これにより、ユーザは任意のバージョン ページに移動し、1 つまたは複数のバージョンを選択して右クリックし、{% include product %} メニューから「Build PDF Report」を選択することができます。この操作により、スクリプトが起動し(このスクリプトは作成する必要があります)、適切にフォーマット化されたレポートがブラウザに送られます。次にその方法を説明します。
-
-### UI を使用してメニュー項目を作成する
-
-
-
-
-設定メニューから[アクション メニュー アイテム] (Action Menu Item)を選択し、AMI の管理ページを開きます。
-
-新しい AMI を作成するには、 をクリックします。
-
-タイトルと他の必須フィールドを入力し、[アクション メニュー アイテムを作成] (Create Action Menu Item)をクリックします。
-
-### ユーザが AMI をクリックすると起こること
-
-{% include product %} が新しいウィンドウ(オプションが選択されている場合はモーダル ダイアログ)で POST 要求を割り当て、現在のページから POST 要求に含まれるデータを受信 URL にデータを送信します。次に、ワークフローの例を示します。
-
-* [バージョン] (Versions)ページに移動します
-* 1 つまたは複数のバージョンを選択します
-* コンテキスト メニューを表示します(ツールバーの歯車メニューを右クリックまたはクリック)
-* ユーザが Build PDF Report をクリックします
-* {% include product %} が新しいウィンドウで POST 要求を AMI の URL に割り当てます({% include product %} サーバに HTTPS 経由で接続している場合に、URL を HTTP 経由で送受信すると、ブラウザに警告が表示されます)
-* 指定した URL に格納されたスクリプトが POST データを処理し、PDF ドキュメントを生成します
-* 適切にフォーマット化された PDF レポートが、表示またはダウンロード用にユーザに送り返されます
-
-## カスタム プロトコル ハンドラの例
-
-カスタム AMI の最新の実装には、カスタム プロトコル ハンドラのセットアップが含まれます(例: {% include product %}://process_version)。これにより、ローカル コンピュータ上のスクリプトを介して Maya、RV、Cinesync などのアプリケーションと {% include product %} を接続できます。HTTP(S)プロトコル以外を指定すると、POST の代わりに GET を使用してデータが URL に送信されます。異なる要求を割り当てる社内ツールを起動するために使用することもできます。
-
-カスタム プロトコルの詳細については、「[カスタム ブラウザ プロトコルを使用してアプリケーションを起動する](https://developer.shotgridsoftware.com/ja/67695b40/)」を参照してください。
-
-> **注:** [{% include product %} の統合](https://developer.shotgridsoftware.com/ja/d587be80/)により、Maya などのソフトウェア パッケージに組み込んで統合することもできます。
-### 軽量ペイロード
-
-カスタム プロトコルを使用する場合、クエリー情報は GET 要求として送信されます。特定のオペレーティング システムとブラウザの組み合わせには、許容される GET 要求のサイズに関するさまざまな制限事項があります。カスタム プロトコル AMI で軽量ペイロード チェックボックスをオンにすることをお勧めします。軽量ペイロードをオンにすると、レコードの `meta` フィールドの `ami_payload` キーを読み取ることで完全なペイロードを取得するためにフェッチできる、単一のイベント ログ エントリ ID をスクリプトが受け取ります。
-
-## 例
-
-次に、基本的ないくつかのサンプル スクリプトを示します。
-
-* [ActionMenuItem 呼び出しの処理](http://developer.shotgridsoftware.com/python-api/cookbook/examples/ami_handler.html)
-* [バージョン パッケージ ツール](http://developer.shotgridsoftware.com/python-api/cookbook/examples/ami_version_packager.html)
-
-## ペイロードの内容
-
-### ユーザ データ
-
-* **user_id**: 現在ログイン中のユーザのユーザ ID (例: 34)
-* **user_login**: 現在ログイン中のユーザのログイン(例: joe)
-
-### エンティティ データ
-
-* **entity_type:** 現在のページまたはビューのエンティティ タイプ(例: Version)
-* **selected_ids**: 選択したエンティティ ID のカンマ区切りリスト(例: 931、900)
-* **ids**: 現在のページのクエリーが返すエンティティの ID すべてのカンマ区切りリスト。これにより、ページネーションが原因で表示されない ID を含めたすべての ID が返されます。(931、900、904、907 など)。AMI で[選択が必要] (Selection required)がオンになっている場合、この値は **selected_ids** と同じ値になります。
-
-### ページ データ
-
-* **title:** ページ タイトル(例: "All Versions")
-* **page_id**: アクション メニュー アイテムのクリック元のページの ID (例: 1353)
-* **server_hostname:** AMI がトリガされたシステムのホスト名。同じ AMI を呼び出す複数のサーバがある場合に役立ちます(ステージング サーバとプロダクション サーバなど)。
-* **referrer_path:** AMI が呼び出された URL の正規のパス。
-* **session_uuid:** この AMI が呼び出されたウィンドウの一意の識別子。AMI が呼び出されたページに情報を一斉送信するために、[データ更新のポーリング] (Poll for Data Updates)チェックボックスと Python API の [`set_session_uuid`](http://developer.shotgridsoftware.com/python-api/reference.html?highlight=session_uuid#shotgun_api3.shotgun.Shotgun.set_session_uuid) メソッドで使用できます。 **注:** この機能の更新のポーリングは急激に減少し、最終的に停止します。そのため、ポーリングが停止する前に AMI が更新されない場合、ソース ページに更新が表示されないことがあります。
-* **cols**: ページで表示可能な列すべてのシステム フィールド名を含むカンマ区切りリスト(例: code, sg_status_list, description)
-* **column_display_names:** ページで表示可能な列すべての表示名を含むカンマ区切りリスト(例: Version, Status, Description)
-* **view:** AMI が呼び出されたときに選択されていたビュー。ページのデザイン モードを使用して、任意のページに対して複数のビューを作成できます。
-* **sort_column**: ソート対象の列のシステム名(例: code)。最初のソート キーのみが送信されます。複数ある場合は、**sort_columns** を参照してください
-* **sort_direction:** (例: asc または desc)最初のソート方向のみが送信されます。複数ある場合は、**sort_directions** を参照してください
-* **sort_columns:** ページまたはビューがソートされた列のシステム名のカンマ区切りリスト(例: code,created_at)。複数のソート キーがある場合にのみ送信されます
-* **sort_directions:** ページまたはビューがソートされた列のシステム名のカンマ区切りリスト(例: e.g., code, created_at)。複数のソート キーがある場合にのみ送信されます
-* **grouping_column:** グループ化対象の列のシステム名(例: code)。最初のグループ化列のみが送信されます。複数ある場合は、**grouping_columns** を参照してください
-* **grouping_method:** グループ化が行われる方法(例: エンティティ フィールドの場合は `entitytype` によるグループ化、日付フィールドの場合は `month` によるグループ化)。最初のグループ化方法のみが送信されます。複数ある場合は、**grouping_methods** を参照してください
-* **grouping_direction:** グループ化の方向(例: asc または desc)。最初のグループ化方向のみが送信されます。複数ある場合は、**grouping_directions** を参照してください
-* **grouping_columns:** データがグループ化された列のシステム名のカンマ区切りリスト(例: code,created_at)。複数のグループ化列がある場合にのみ送信されます
-* **grouping_methods:** グループ化方法のカンマ区切りリスト(例: entity_type,month)。複数のグループ化列がある場合にのみ送信されます
-* **grouping_directions:** グループ化の方向のカンマ区切りリスト(例: asc,desc)。複数のグループ化列がある場合にのみ送信されます
-
-### プロジェクト データ(現在のページのすべてのエンティティが同じプロジェクトを共有する場合のみ送信されます)
-
-* **project_name**: プロジェクトの名前(例: Gunslinger)
-* **project_id**: プロジェクトの ID (例: 81)
\ No newline at end of file
diff --git a/docs/ja/action-menu-items/action-menu-items-intro.md b/docs/ja/action-menu-items/action-menu-items-intro.md
deleted file mode 100644
index 4591d957e..000000000
--- a/docs/ja/action-menu-items/action-menu-items-intro.md
+++ /dev/null
@@ -1,10 +0,0 @@
----
-layout: default
-title: アクション メニュー アイテム
-pagename: action-menu-items-intro
-lang: ja
----
-
-# アクション メニュー アイテム
-
-このセクションでは、カスタム アクション メニュー アイテム(AMI)の作成と、カスタム ブラウザ プロトコルを使用したアプリケーションの起動について説明します。
\ No newline at end of file
diff --git a/docs/ja/action-menu-items/custom-browser-protocols.md b/docs/ja/action-menu-items/custom-browser-protocols.md
deleted file mode 100644
index d5ed3160c..000000000
--- a/docs/ja/action-menu-items/custom-browser-protocols.md
+++ /dev/null
@@ -1,232 +0,0 @@
----
-layout: default
-title: カスタム ブラウザ プロトコルを使用してアプリケーションを起動する
-pagename: custom-browser-protocols
-lang: ja
----
-
-# カスタム ブラウザ プロトコルを使用してアプリケーションを起動する
-
-## コンテンツ
-
-- [プロトコルを登録する](#registering-a-protocol)
- - [Windows 上でプロトコルを登録する](#registering-a-protocol-on-windows)
- - [Mac OSX 上でプロトコルを登録する](#registering-a-protocol-on-osx)
- - [Linux 上でプロトコルを登録する](#registering-a-protocol-on-linux)
-
-[アクション メニュー アイテム]()(AMI)の極めて実用的な使用方法は、ローカル コンピュータ上でアプリケーションまたはスクリプトを 1 つのバリアントで実行することです。これを機能させるには、ブラウザと実行するスクリプトまたはアプリケーションとの間に接続をセットアップする必要があります。このリンクはカスタム ブラウザ プロトコルと呼ばれます。
-
-たとえば、ユーザがクリックすると、[foo] アプリケーションが起動するようなリンクをセットアップするとします。プリフィックスに「http」ではなく、「foo」などのカスタム プロトコルを指定する必要があります。理想的には、次のようなリンクが必要です。
-```
-foo://some/info/here
-```
-
-オペレーティング システムにはプロトコルの処理方法を通知する必要があります。既定では、「http」は既定の Web ブラウザで処理され、「mailto」は既定のメール クライアントで処理されると、現在のすべてのオペレーティング システムは認識しています。アプリケーションがインストールされると、OS に登録され、特定のプロトコルでそのアプリケーションを起動するよう OS に指示する場合があります。
-
-たとえば、RV をインストールした場合、アプリケーションは `rvlink://` を OS に登録し、RV がすべての `rvlink://` プロトコル要求を処理して RV にイメージまたはシーケンスを表示するように指示します。そのため、ユーザが {% include product %} と同じように `rvlink://` で始まるリンクをクリックすると、オペレーティング システムはこのリンクで RV を起動することを認識し、アプリケーションはこのリンクを解析して処理方法を認識できます。
-
-RV が URL と「rvlink」プロトコルのプロトコル ハンドラとしてどのように機能するかについては、[RV のユーザ マニュアル](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_RV_rv_manuals_rv_user_manual_rv_user_manual_chapter_c_html#c-2-installing-the-protocol-handler)を参照してください。
-
-# プロトコルを登録する
-
-## Windows 上でプロトコルを登録する
-
-Windows でプロトコル ハンドラを登録するには、Windows レジストリを変更します。レジストリ キーは一般的に次のようになります。
-
-```
-HKEY_CLASSES_ROOT
-foo
-(Default) = "URL:foo Protocol"
-URL Protocol = ""
-shell
-open
-command (Default) = "foo_path" "%1"
-```
-ターゲット URL は次のようになります。
-
-```
-foo://host/path...
-```
-
-> **注:** 詳細については、[http://msdn.microsoft.com/ja-jp/library/aa767914(VS.85).aspx](https://docs.microsoft.com/ja-jp/previous-versions/windows/internet-explorer/ie-developer/platform-apis/aa767914(v=vs.85)?redirectedfrom=MSDN) を参照してください。
-> **Windows QT/QSetting の例**
-
-開発しているアプリケーションが QT (または PyQT/PySide)フレームワークを使用して記述されている場合は、QSetting オブジェクトを利用してレジストリ キーの作成を管理できます。
-
-アプリケーションがレジストリ キーを自動的にセットアップする場合のコードは次のようになります。
-
-```
-// cmdLine points to the foo path.
-//Add foo to the Os protocols and set foobar to handle the protocol
-QSettings fooKey("HKEY_CLASSES_ROOT\\foo", QSettings::NativeFormat);
-mxKey.setValue(".", "URL:foo Protocol");
-mxKey.setValue("URL Protocol", "");
-QSettings fooOpenKey("HKEY_CLASSES_ROOT\\foo\\shell\\open\\command", QSettings::NativeFormat);
-mxOpenKey.setValue(".", cmdLine);
-```
-
-**{% include product %} AMI を介して Python スクリプトを開始する Windows の例**
-
-ローカルで動作する AMI の多くは、Python インタプリタを介して単純な Python スクリプトを開始することができます。これにより、単純なスクリプトに加えて、GUI (PyQT、PySide、または選択した GUI フレームワーク)を使用したアプリも実行することができます。この目標のために役立つ実例を見てみましょう。
-
-**手順 1: カスタム「{% include product %}」プロトコルをセットアップする**
-
-Windows レジストリ エディターを使用します。
-
-```
-[HKEY_CLASSES_ROOT\{% include product %}]
-@="URL:{% include product %} Protocol"
-"URL Protocol"=""
-[HKEY_CLASSES_ROOT\{% include product %}\shell]
-[HKEY_CLASSES_ROOT\{% include product %}\shell\open]
-[HKEY_CLASSES_ROOT\{% include product %}\shell\open\command]
-@="python""sgTriggerScript.py""%1"
-```
-
-このセットアップでは、最初の引数がスクリプト `sgTriggerScript.py` で、2 番目の引数が `%1` である `python` インタプリタを起動するための `{% include product %}://` プロトコルが登録されます。 `%1` が、ブラウザでクリックされた URL または呼び出された AMI の URL に置き換えられることを理解することが重要です。これが Python スクリプトの最初の引数になります。
-
-> **注:** Python インタプリタと Python スクリプトへのフル パスが必要となる場合があります。適宜調整してください。
-
-**手順 2: Python スクリプトで受信 URL を解析する**
-
-スクリプト内で、指定された最初の引数である URL を取得し、AMI が呼び出されたコンテキストを把握するためにそのコンポーネントまで解析します。次のコードに、これを行う方法を示す簡単なスクリプトの例を示しています。
-
-**Python スクリプト**
-
-```
-import sys
-import urlparse
-import pprint
-def main(args):
- # Make sure we have only one arg, the URL
- if len(args) != 1:
- return 1
- # Parse the URL:
- protocol, fullPath = args[0].split(":", 1)
- path, fullArgs = fullPath.split("?", 1)
- action = path.strip("/")
- args = fullArgs.split("&")
- params = urlparse.parse_qs(fullArgs)
- # This is where you can do something productive based on the params and the
- # action value in the URL. For now we'll just print out the contents of the
- # parsed URL.
- fh = open('output.txt', 'w')
- fh.write(pprint.pformat((action, params)))
- fh.close()
-if __name__ == '__main__':
- sys.exit(main(sys.argv[1:]))
-```
-
-**手順 3: {% include product %} インタフェースをカスタム プロトコルと接続し、最終的にスクリプトと接続する**
-
-最後に、URL 値が {% include product %} になる `shotgrid://processVersion` の AMI を作成します。この AMI は任意のエンティティ タイプに割り当てることができますが、この例ではバージョン エンティティを使用します。
-
-バージョン ページに移動し、バージョンを右クリックして、メニューから AMI を選択します。これにより、ブラウザで `shotgrid://` URL が開かれ、登録されたカスタム プロトコルを介してスクリプトにリダイレクトされます。
-
-スクリプトと同じフォルダにある `output.txt` ファイルの内容が、次のようになります。
-```
-('processVersion',
- {'cols': ['code',
- 'image',
- 'entity',
- 'sg_status_list',
- 'user',
- 'description',
- 'created_at'],
- 'column_display_names': ['Version Name',
- 'Thumbnail',
- 'Link',
- 'Status',
- 'Artist',
- 'Description',
- 'Date Created'],
- 'entity_type': ['Version'],
- 'ids': ['6933,6934,6935'],
- 'page_id': ['4606'],
- 'project_id': ['86'],
- 'project_name': ['Test'],
- 'referrer_path': ['/detail/HumanUser/24'],
- 'selected_ids': ['6934'],
- 'server_hostname': ['patrick.shotgunstudio.com'],
- 'session_uuid': ['9676a296-7e16-11e7-8758-0242ac110004'],
- 'sort_column': ['created_at'],
- 'sort_direction': ['asc'],
- 'user_id': ['24'],
- 'user_login': ['shotgun_admin'],
- 'view': ['Default']})
-```
-
-**考えられるバリエーション**
-
-AMI で URL の `//` の後にあるキーワードを変更することで、同じ `shotgrid://` プロトコルを維持したままスクリプト内の `action` 変数の内容を変更し、単一のカスタム プロトコルのみを登録することができます。これにより、`action` 変数の内容とパラメータの内容に基づいて、スクリプトが意図された動作を把握できます。
-
-この方法を使用することで、アプリケーションの起動、FTP などのサービスを介したコンテンツのアップロード、データのアーカイブ、電子メールの送信、または PDF レポートの生成を行うことができます。
-
-## Mac OSX 上でプロトコルを登録する
-
-Mac OSX でプロトコルを登録するには、アプリケーションまたはスクリプトを実行するように設定された .app バンドルを作成する必要があります。
-
-まず、AppleScript スクリプト エディタで次のスクリプトを記述します。
-
-```
-on open location this_URL
- do shell script "sgTriggerScript.py '" & this_URL & "'"
-end open location
-```
-
-> **ヒント:** tcsh などの特定のシェルから Python を確実に実行するには、do シェル スクリプトを次のように変更します。
->
-> do shell script "tcsh -c \"sgTriggerScript.py '" & this_URL & "'\""
-In the Script Editor, save your short script as an “Application Bundle”.
-
-保存したアプリケーション バンドルを見つけて、Open Contents を選択します。次に、info.plist ファイルを開き、次のコードを plist dict に追加します。
-```
- CFBundleIdentifier
- com.mycompany.AppleScript.Shotgun
- CFBundleURLTypes
-
-
- CFBundleURLName
- Shotgun
- CFBundleURLSchemes
-
- shotgun
-
-
-
-```
-
-次の 3 つの文字列を変更することもできます。
-```
-com.mycompany.AppleScript.{% include product %}
-{% include product %}
-{% include product %}
-```
-
-3 番目の文字列はプロトコル ハンドラです。そのため、URL は次のようになります。
-
-```
-shotgrid://something
-```
-
-
-最後に、`.app` バンドルを Mac のアプリケーション フォルダに移動します。このバンドルをダブルクリックすると、プロトコルがオペレーティング システムに登録されます。
-
-{% include product %} で AMI をクリックするか、`shotgrid://` で始まる URL をクリックすると、`.app` バンドルがそれに応答して URL を Python スクリプトに渡す、というようなデータ フローになります。この時点で、Windows の例で使用したものと同じスクリプトを使用でき、同じことができるようになります。
-
-## Linux 上でプロトコルを登録する
-
-次のコードを使用します。
-```
-gconftool-2 -t string -s /desktop/gnome/url-handlers/foo/command 'foo "%s"'
-gconftool-2 -s /desktop/gnome/url-handlers/foo/needs_terminal false -t bool
-gconftool-2 -s /desktop/gnome/url-handlers/foo/enabled true -t bool
-```
-次に、次の場所にあるグローバル既定値にローカル GConf ファイルの設定を使用します。
-```
-/etc/gconf/gconf.xml.defaults/%gconf-tree.xml
-```
-
-この変更は GNOME 設定でのみ行われますが、KDE でも機能します。Firefox と GNU IceCat は、不明なプレフィックス(`foo://` など)を検出したときに、実行しているウィンドウ マネージャに関係なく gnome-open に従います。 そのため、KDE の Konqueror のような他のブラウザは、このシナリオでは機能しません。
-
-Ubuntu でアクション メニュー アイテムのプロトコル ハンドラをセットアップする方法については、[http://askubuntu.com/questions/527166/how-to-set-subl-protocol-handler-with-unity](http://askubuntu.com/questions/527166/how-to-set-subl-protocol-handler-with-unity) を参照してください。
\ No newline at end of file
diff --git a/docs/ja/action-menu-items/images/dv-asterisk.png b/docs/ja/action-menu-items/images/dv-asterisk.png
deleted file mode 100644
index c2fbed5a7..000000000
Binary files a/docs/ja/action-menu-items/images/dv-asterisk.png and /dev/null differ
diff --git a/docs/ja/action-menu-items/images/dv-custom-amis-01-report-01.png b/docs/ja/action-menu-items/images/dv-custom-amis-01-report-01.png
deleted file mode 100644
index ce8d1afd6..000000000
Binary files a/docs/ja/action-menu-items/images/dv-custom-amis-01-report-01.png and /dev/null differ
diff --git a/docs/ja/action-menu-items/images/dv-custom-amis-04-ami-menu-03.png b/docs/ja/action-menu-items/images/dv-custom-amis-04-ami-menu-03.png
deleted file mode 100644
index cc212f2c6..000000000
Binary files a/docs/ja/action-menu-items/images/dv-custom-amis-04-ami-menu-03.png and /dev/null differ
diff --git a/docs/ja/action-menu-items/images/dv-custom-amis-05-add-ami-04.png b/docs/ja/action-menu-items/images/dv-custom-amis-05-add-ami-04.png
deleted file mode 100644
index e74e67145..000000000
Binary files a/docs/ja/action-menu-items/images/dv-custom-amis-05-add-ami-04.png and /dev/null differ
diff --git a/docs/ja/contribution.md b/docs/ja/contribution.md
deleted file mode 100644
index 05329fc7f..000000000
--- a/docs/ja/contribution.md
+++ /dev/null
@@ -1,15 +0,0 @@
----
-layout: default
-title: 貢献ガイド
-pagename: contribution-index
-lang: ja
----
-
-# 貢献ガイド
-
-当社では、開発状況を可能な限り公開するための取り組みとして、開発者向けドキュメントを [クリエイティブ コモンズ ライセンス](https://github.com/shotgunsoftware/developer-beta/blob/master/LICENSE.md) の公開リポジトリに作成することを決定しました。このドキュメントをより良いものにするための提案がある場合は、ぜひリポジトリの改善についてのプル リクエストをお送りください。プル リクエストを受け入れるためには、以下のいずれかのコントリビューター契約書に署名していただく必要があります。
-
-- [個人のコントリビューター契約書](../all_langs/contribution/ind_contrib_agmt_for_shotgun_developer_documentation.pdf)
-- [会社のコントリビューター契約書](../all_langs/contribution/corp_contrib_agmt_for_shotgun_developer_documentation.pdf)
-
-上記のいずれかの契約書を提出していただくと、[README](https://github.com/shotgunsoftware/developer-beta/#Making-a-change-to-the-documentation) の手順に従って変更を提出することができます。
diff --git a/docs/ja/developer-overview.md b/docs/ja/developer-overview.md
deleted file mode 100644
index 6aa118bd7..000000000
--- a/docs/ja/developer-overview.md
+++ /dev/null
@@ -1,36 +0,0 @@
----
-layout: default
-title: 開発の概要
-pagename: developer-overview
-lang: ja
----
-
-# 開発の概要
-
-### Python API
-
-{% include product %} ソフトウェアは、Python ベースの API を使用して {% include product %} にアクセスし、他のツールと連携します。API は CRUD パターンに従い、{% include product %} サーバで作成、読み取り、更新、および削除のアクションを実行できます。各リクエストは単一のエンティティ タイプに従って動作し、アクションに応じて、フィルタ、返される列、ソート情報、およびいくつかの追加オプションを定義できます。
-
-* [コード リポジトリ](https://github.com/shotgunsoftware/python-api)
-* [ドキュメント](http://developer.shotgridsoftware.com/python-api/)
-* [フォーラム](https://community.shotgridsoftware.com/c/pipeline/6)
-
-### イベント トリガ フレームワーク
-
-{% include product %} イベント ストリームにアクセスする場合の望ましい方法として、イベント テーブルを監視し、新しいイベントを取得し、イベントを処理して、また同じ手順を繰り返します。
-
-このプロセスを成功させるためには多くの要素が必要ですが、それらの中には、適用すべきビジネス ルールに直接関係しないものがあります。
-
-フレームワークの役割は、退屈な監視タスクをビジネス ロジックの実装作業から分離することです。
-
-フレームワークはサーバ上で動作し、{% include product %} のイベント ストリームを監視するデーモン プロセスです。イベントが見つかったら、デーモンはイベントを一連の登録済みのプラグインに渡します。各プラグインは、意図したとおりにイベントを処理できます。
-
-* [コード リポジトリ](https://github.com/shotgunsoftware/shotgunevents)
-* [説明](https://github.com/shotgunsoftware/shotgunevents/wiki)
-
-### アクション メニュー アイテム フレームワーク
-
-API 開発者は、エンティティ単位でコンテキスト メニュー項目をカスタマイズできます。たとえば、Versions ページから複数のバージョンを選択して右クリックし、(たとえば) PDF レポートを作成します。これらを ActionMenuItems (AMIs)と呼びます。
-
-* [ドキュメント]()
-* [サンプル コード リポジトリ](http://developer.shotgridsoftware.com/python-api/cookbook/examples/ami_handler.html)
diff --git a/docs/ja/event-daemon/event-daemon-api.md b/docs/ja/event-daemon/event-daemon-api.md
deleted file mode 100644
index 3956df383..000000000
--- a/docs/ja/event-daemon/event-daemon-api.md
+++ /dev/null
@@ -1,157 +0,0 @@
----
-layout: default
-title: API
-pagename: event-daemon-api
-lang: ja
----
-
-# API
-
-
-## registerCallbacks
-
-プラグインのイベント処理エントリ ポイントをフレームワークに伝えるために使用する、すべてのプラグインのグローバル レベル関数。
-
-**registerCallbacks(reg)**
-
-* reg: 呼び出す関数をフレームワークに伝えるために使用する [`Registrar`](#Registrar)。
-
-
-
-## Registrar
-
-Registrar はプラグインの操作方法をフレームワークに伝えるために使用するオブジェクトです。これは、[`registerCallbacks`](#registerCallbacks) 関数に渡されます。
-
-### アトリビュート
-
-
-**logger**
-
-「[`getLogger`](#getLogger)」を参照してください。
-
-### メソッド
-
-
-**getLogger**
-
-プラグイン内からメッセージをログに記録するために使用する python Logger オブジェクトを取得します。
-
-
-
-__setEmails(*emails)__
-
-このプラグインまたはそのコールバックのいずれかで問題が発生した場合に、エラーや重要な通知を受け取る電子メールを設定します。
-
-設定ファイルで指定されている既定のアドレスに電子メールを送信する場合(既定)
-
-```python
-reg.setEmails(True)
-```
-
-電子メールを無効にする場合(エラー メッセージが表示されないため、この設定は推奨しません)
-
-```python
-reg.setEmails(False)
-```
-
-特定のアドレスに電子メールを送信する場合
-
-```python
-reg.setEmails('user1@domain.com')
-```
-
-または
-
-```python
-reg.setEmails('user1@domain.com', 'user2@domain.com')
-```
-
-
-**registerCallback(sgScriptName, sgScriptKey, callback, matchEvents=None, args=None, stopOnError=True)**
-
-このプラグインのエンジンにコールバックを登録します。
-
-* `sgScriptName`: {% include product %} スクリプト ページから取得したスクリプトの名前。
-* `sgScriptKey`: {% include product %} スクリプト ページから取得したスクリプトのアプリケーション キー。
-* `callback`: `__call__` メソッドを使用する関数またはオブジェクト。「[`exampleCallback`](#exampleCallback)」を参照してください。
-* `matchEvents`: コールバックに渡すイベントのフィルタ。
-* `args`: フレームワークをコールバックに戻す任意のオブジェクト。
-* `stopOnError`: ブール型。このコールバックの例外は、このプラグイン内のすべてのコールバックによるイベントの処理を停止します。既定値は `True` です。
-
-`sgScriptName` は、{% include product %} のプラグインを特定するために使用します。任意の名前を任意の数のコールバックで共有することも、1 つののコールバックに 1 つのみにすることもできます。
-
-`sgScriptKey` は、{% include product %} のプラグインを特定するために使用し、指定した `sgScriptName` の適切なキーである必要があります。
-
-指定したコールバック オブジェクトは、フィルタに一致するイベントの処理が必要な場合に呼び出されます。呼び出し可能なオブジェクトを実行することはできますが、ここでクラスを使用することは推奨しません。`__call__` メソッドを操作する関数やインスタンスを使用するほうが妥当です。
-
-`matchEvent` 引数は、登録されているコールバックが関係するイベントを指定するフィルタです。`matchEvents` が指定されていない場合、または None が指定されている場合、すべてのイベントがコールバックに渡されます。それ以外の場合、`matchEvents` フィルタの各キーはイベント タイプです。各値は使用可能なアトリビュート名のリストです。
-
-```python
-matchEvents = {
- 'Shotgun_Task_Change': ['sg_status_list'],
-}
-```
-
-複数のイベント タイプやアトリビュート名を指定できます。
-
-```python
-matchEvents = {
- 'Shotgun_Task_Change': ['sg_status_list'],
- 'Shotgun_Version_Change': ['description', 'sg_status_list']
-}
-```
-
-指定したアトリビュート名のイベント タイプをフィルタすることができます。
-
-```python
-matchEvents = {
- '*': ['sg_status_list'],
-}
-```
-
-また、特定のイベント タイプの任意のアトリビュート名をフィルタすることもできます。
-
-```python
-matchEvents = {
- 'Shotgun_Version_Change': ['*']
-}
-```
-
-以下のように指定することもできますが、何も指定しない場合と同じようにしか機能しないため、実際には指定しても無意味です。
-
-```python
-matchEvents = {
- '*': ['*']
-}
-```
-
-「_New」や「_Retirement」などのフィールド固有でないイベント タイプと照合する場合には、リストを指定するのではなく、`None` という値を渡します。
-
-```python
-matchEvents = {
- 'Shotgun_Version_New': None
-}
-```
-
-`args` 引数は、イベント フレームワーク自体では使用されません。変更せずにコールバックに戻されるだけです。
-
-{% include info title="注" content="`args` 引数のポイントは、[`registerCallbacks`](#registerCallbacks) 関数で時間のかかる処理を行い、イベント処理時に戻り値を渡せるようにすることです。"%}
-
-`args` 引数の別の使用方法として、`dict` などの一般的な可変値を複数のコールバックに渡してデータを共有するように指定できます。
-
-`stopOnError` 引数は、このコールバックの例外によってプラグインのすべてのコールバックのイベント処理を停止するかどうかを伝えます。既定では `True` ですが、`False` に切り替えることもできます。イベントの処理を停止しない場合でも、エラーの通知メールが送信されます。コールバックごとに設定するため、重要なコールバックをユーザによって `True` または `False` にすることができます。
-
-
-## コールバック
-
-[`Registrar.registerCallback`](#registerCallback) によって登録するプラグイン エントリ ポイントは通常、次のようなグローバル レベル関数です。
-
-
-**exampleCallback(sg, logger, event, args)**
-
-* `sg`: {% include product %} の接続インスタンス。
-* `logger`: Python logging.Logger オブジェクトがあらかじめ設定されています。
-* `event`: 処理する {% include product %} イベント。
-* `args`: コールバックの登録時に指定する args 引数。
-
-{% include info title="注" content="オブジェクト インスタンスで `__call__` メソッドとしてコールバックを使用できますが、ユーザの演習のみに使用するものとしておきます。"%}
diff --git a/docs/ja/event-daemon/event-daemon-configuration.md b/docs/ja/event-daemon/event-daemon-configuration.md
deleted file mode 100644
index 3d8c345cd..000000000
--- a/docs/ja/event-daemon/event-daemon-configuration.md
+++ /dev/null
@@ -1,398 +0,0 @@
----
-layout: default
-title: 環境設定
-pagename: event-daemon-configuration
-lang: ja
----
-
-# 環境設定
-
-以下のガイドは、スタジオの {% include product %}Events を設定する場合に役に立ちます。
-
-{% include product %}Events のほとんどの設定は、`shotgunEventDaemon.conf` ファイルによって制御されます。このファイルには、必要に応じて修正できるいくつかの設定があります。それらの設定にはほとんどのスタジオで正常に機能する既定値がありますが、いくつかの設定は構成する必要があります(具体的には、{% include product %}EventDaemon を {% include product %} サーバに接続するための {% include product %} サーバの URL、スクリプト名、およびアプリケーション キー)。
-
-{% include info title="注" content="**Windows の場合:** Windows ユーザは、環境設定ファイル内のすべてのパスを Windows 用に変更する必要があります。ログを含むすべてのパスを、単純化のために 1 つの場所に保持することをお勧めします。このドキュメントでは、Windows のパスについて説明する際に、`C:\shotgun\shotgunEvents` を参照する傾向があります。"%}
-
-
-## shotgunEventDaemon.conf を編集する
-
-{% include product %}Events をインストールしたら、次に `shotgunEventDaemon.conf` ファイルをテキスト エディタで開き、スタジオのニーズに合わせて設定を変更します。ほとんどのスタジオでは既定値をそのまま使用できますが、一部の設定には既定値がなく、デーモンを実行する前にユーザが設定する必要があります。
-
-*必須*のアイテムは次のとおりです。
-
-- {% include product %} サーバの URL
-- {% include product %} に接続するためのスクリプト名とアプリケーション キー
-- {% include product %}EventDaemon を実行するためのプラグインへのフル パス
-
-必要に応じて、SMTP サーバおよび電子メール固有の設定を指定して、エラーに対する電子メール通知を設定することもできます。これはオプションですが、設定することを選択した場合は、電子メール セクションですべての設定値を指定する必要があります。
-
-また、デーモンでパフォーマンスの問題が発生した場合のトラブルシューティングに役立つオプションのタイミング ログのセクションもあります。タイミング ログを有効にすると、個別のログ ファイルにタイミング情報が入力されます。
-
-
-### {% include product %} 設定
-
-`[{% include product %}]` セクションの下で、既定のトークンを `server`、`name`、および `key` の正しい値に置き換えます。これらは、{% include product %} に接続する標準 API スクリプトに指定した値と同じである必要があります。
-
-例
-
-```
-server: https://awesome.shotgunstudio.com
-name: {% include product %}EventDaemon
-key: e37d855e4824216573472846e0cb3e49c7f6f7b1
-```
-
-
-### プラグイン設定
-
-実行するプラグインを検索する場所を {% include product %}EventDaemon に指示する必要があります。`[plugins]` セクションで、既定のトークンを `paths` の正しい値に置き換えます。
-
-複数の場所を指定できます (デーモンを使用する複数の部門またはリポジトリがある場合に役立つことがあります)。この値は、読み取り可能な既存のディレクトリへのフル パスである必要があります。
-
-例
-
-```
-paths: /usr/local/shotgun/{% include product %}Events/plugins
-```
-
-初めて起動する場合、`/usr/local/shotgun/{% include product %}Events/src/examplePlugins` ディレクトリにある `logArgs.py` プラグインを使用してテストを行うことをお勧めします。これを指定したプラグイン フォルダにコピーし、テストに使用します。
-
-
-### shotgunEventDaemon.conf の場所
-
-既定では、デーモンは {% include product %}EventDaemon.py と同じディレクトリおよび `/etc` ディレクトリで shotgunEventDaemon.conf ファイルを検索します。conf ファイルを別のディレクトリに配置する必要がある場合は、現在のディレクトリから別のディレクトリへの symlink を作成することをお勧めします。
-
-{% include info title="注" content="何らかの理由で上記の手順が機能しない場合、設定ファイルの検索パスは `shotgunEventDaemon.py` スクリプトの下部にある `_getConfigPath()` 関数に配置されます" %}
-
-{% include info title="注" content="**Windows の場合**`/etc`は Windows に存在しないため、環境設定ファイルは Python ファイルと同じディレクトリに配置する必要があります。"%}
-
-
-## デーモンをテストする
-
-デーモンはバックグラウンドで実行されるためテストが困難な場合があります。デーモンの動作を確認するための明確な方法はありません。幸い、{% include product %}EventDaemon には、デーモンをフォアグラウンド プロセスとして実行するオプションがあります。最低限必要な設定が完了したので、次にデーモンをテストして、どのように動作するかを確認します。
-
-{% include info title="注" content="ここで使用される既定値では、ルート アクセスが必要になる場合があります(たとえば、/var/log ディレクトリに書き込む場合など)。この例では、`sudo` を使用してこの問題に対応しています。" %}
-
-```
-$ sudo ./{% include product %}EventDaemon.py foreground
-INFO:engine:Using {% include product %} version 3.0.8
-INFO:engine:Loading plugin at /usr/local/shotgun/{% include product %}Events/src/examplePlugins/logArgs.py
-INFO:engine:Last event id (248429) from the {% include product %} database.
-```
-
-スクリプトを起動すると、上記の行が表示されます(一部の詳細は実際とは明らかに異なる場合があります)。エラーが発生した場合、フォアグラウンドで実行することを選択したため、スクリプトは終了します。先に進めなくなると、いくつかの一般的なエラーが以下に表示されます。
-
-`logArgs.py` プラグインは、単に {% include product %} で発生したイベントを取り込み、ロガーに渡すだけです。これは、スクリプトが実行されていてプラグインが機能していることを確認する簡単な方法です。多忙なスタジオでは、メッセージが高速で流れていることに気付くかもしれません。そうでない場合は、Web ブラウザで {% include product %} サーバにログインし、値をいくつか変更するか、何かを作成します。変更を適用して生成したイベントのタイプに対応するログ ステートメントが、ターミナル ウィンドウに出力されます。
-
-{% include info title="注" content="logArgs.py ファイルには、適切な値を入力する必要のある変数があります。ログを正しく機能させるには、shotgunEventDaemon.conf ファイルで使用された値と同じ値が含まれるように '$DEMO_SCRIPT_NAMES$' および '$DEMO_API_KEY$' を編集する必要があります。"%}
-
-ログ ファイルに何も記録されていない場合は、{% include product %}EventDaemon.conf のログ関連設定を調べて、``logging`` 値が情報レベルのメッセージを記録するように設定されていること、
-
-```
-logging: 20
-```
-
-また、logArgs プラグインも情報レベルのメッセージを表示するように設定されていることを確認します。registerCallbacks() メソッドの最後に、読み込む必要のある行があります。
-
-```python
-reg.logger.setLevel(logging.INFO)
-```
-
-すべてが正常だと仮定し、{% include product %}EventDaemon プロセスを停止するには、ターミナルに `-c` と入力し、スクリプトの終了を確認します。
-
-
-## デーモンを実行する
-
-テストがすべて成功したと仮定し、バックグラウンドで目的どおりにデーモンを実行できるようになりました。
-
-```
-$ sudo ./{% include product %}EventDaemon.py start
-```
-
-出力はなく、ターミナルでユーザにコントロールが返されます。2 つの方法で、すべてが適切に実行されていることを確認できます。最初に、実行中のプロセスを調べて、これがその 1 つであるかどうかを確認します。
-
-```
-$ ps -aux | grep shotgunEventDaemon
-kp 4029 0.0 0.0 2435492 192 s001 R+ 9:37AM 0:00.00 grep shotgunEventDaemon
-root 4020 0.0 0.1 2443824 4876 ?? S 9:36AM 0:00.02 /usr/bin/python ./{% include product %}EventDaemon.py start
-```
-
-返された 2 行目から、デーモンが実行されていることが分かります。最初の行は、今実行したコマンドに一致します実行していることは分かりますが、*機能している*こと、そしてプラグインが想定した通りに動作していることを確認するために、ログ ファイルを調べて、出力があるかどうかを確認できます。
-
-```
-$ sudo tail -f /var/log/shotgunEventDaemon/shotgunEventDaemon
-2011-09-09 09:42:44,003 - engine - INFO - Using {% include product %} version 3.0.8
-2011-09-09 09:42:44,006 - engine - INFO - Loading plugin at /usr/local/shotgun/{% include product %}/src/plugins/logArgs.py
-2011-09-09 09:42:44,199 - engine - DEBUG - Starting the event processing loop.
-```
-
-Web ブラウザに戻り、エンティティに変更を加えます。次に、ターミナルに戻って出力を探します。次のように表示されます。
-
-```
-2011-09-09 09:42:44,003 - engine - INFO - Using {% include product %} version 3.0.8
-2011-09-09 09:42:44,006 - engine - INFO - Loading plugin at /usr/local/shotgun/{% include product %}/src/plugins/logArgs.py
-2011-09-09 09:42:44,199 - engine - DEBUG - Starting the event processing loop.
-2011-09-09 09:45:31,228 - plugin.logArgs.logArgs - INFO - {'attribute_name': 'sg_status_list', 'event_type': 'Shotgun_Shot_Change', 'entity': {'type': 'Shot', 'name': 'bunny_010_0010', 'id': 860}, 'project': {'type': 'Project', 'name': 'Big Buck Bunny', 'id': 65}, 'meta': {'entity_id': 860, 'attribute_name': 'sg_status_list', 'entity_type': 'Shot', 'old_value': 'omt', 'new_value': 'ip', 'type': 'attribute_change'}, 'user': {'type': 'HumanUser', 'name': 'Kevin Porterfield', 'id': 35}, 'session_uuid': '450e4da2-dafa-11e0-9ba7-0023dffffeab', 'type': 'EventLogEntry', 'id': 276560}
-```
-
-出力の正確な詳細は実際とは異なりますが、プラグインが想定した通り、イベントをログ ファイルに記録したことが分かります。ここでも、ログ ファイルに何も記録されていない場合は、{% include product %}EventDaemon.conf のログ関連設定を調べて、``logging`` 値が情報レベルのメッセージを記録するように設定されていること、また、logArgs プラグインも情報レベルのメッセージを表示するように設定されていることを確認します。
-
-
-### ログの記録に関する注意事項
-
-ログ ローテーションは {% include product %} デーモンの機能であることに注意してください。ログは毎日深夜にローテーションされ、プラグインごとに 10 個のファイルが毎日保持されます。
-
-
-## 一般的なエラー
-
-次に、発生する一般的なエラーとその解決方法をいくつか示します。解決方法が何も見つからない場合は、[サポート サイト](https://knowledge.autodesk.com/ja/contact-support)にアクセスしてサポートを依頼してください。
-
-### 無効なパス: $PLUGIN_PATHS$
-
-shotgunEventDaemon.conf ファイル内のプラグインへのパスを指定する必要があります。
-
-### 権限が拒否されました: '/var/log/shotgunEventDaemon'
-
-デーモンは書き込み用にログ ファイルを開けませんでした。
-
-`sudo` を使用してデーモンを実行するか、shotgunEventDaemon.conf の `logPath` および `logFile` 設定によって指定されたログ ファイルに書き込む権限を持つユーザとして実行する必要があります。(既定の場所は `/var/log/shotgunEventDaemon`で、通常はルートが所有します。
-
-### ImportError: shotgun_api3 という名前のモジュールがありません
-
-{% include product %} API がインストールされていません。現在のディレクトリ内に保存されているか、`PYTHONPATH` 内のディレクトリに保存されているかを確認してください。
-
-sudo として実行する必要があり、`PYTHONPATH` が正しく設定されている場合は、sudo によって環境変数がリセットされることに注意してください。sudoers ファイルを編集して `PYTHONPATH` を保持するか、sudo -e(?) を実行することができます
-
-
-## 環境設定ファイルの設定のリスト
-
-
-### デーモンの設定
-
-次に、一般的なデーモンの操作設定を示します。
-
-**pidFile**
-
-pidFile は、デーモンが実行中にそのプロセス ID を保存する場所です。デーモンの実行中にこのファイルが削除された場合、次のパスがイベント処理ループを通過した後に、完全にシャットダウンされます。
-
-このフォルダはあらかじめ作成されていて、書き込み可能である必要があります。ファイルには任意の名前を付けることができますが、実行しているプロセスと一致する既定の名前を使用することを強くお勧めします。
-
-```
-pidFile: /var/log/shotgunEventDaemon.pid
-```
-
-**eventIdFile**
-
-eventIdFile は、デーモンが最後に処理された {% include product %} イベントの ID を保存する場所を参照します。これにより、デーモンは最後にシャットダウンされたときに停止した場所を取得できるため、イベントが見逃されることはありません。最後のデーモンのシャットダウン以降のイベントを無視する場合は、デーモンを開始する前にこのファイルを削除します。これにより、デーモンは起動時に作成された新しいイベントのみを処理します。
-
-このファイルは、*の各* プラグインの最後のイベント ID を記録し、この情報を pickle 形式で保存します。
-
-```
-eventIdFile: /var/log/shotgunEventDaemon.id
-```
-
-**logMode**
-
-ログ記録モードは、次の 2 つの値のいずれかに設定できます。
-
-- **0** = メイン ログ ファイルのすべてのログ メッセージ
-- **1** = エンジン用の 1 つのメイン ファイル、プラグインごとに 1 つのファイル
-
-値が **1** の場合、エンジン自体によって生成されたログ メッセージは、`logFile` 構成の設定で指定されたメイン ログ ファイルに記録されます。プラグインによってログに記録されたメッセージは、`plugin.` という名前のファイルに保存されます。
-
-```
-logMode: 1
-```
-
-**logPath**
-
-ログ ファイルを配置するパス(メイン エンジンとプラグインの両方のログ ファイル)。メイン ログ ファイルの名前は、以下の ``logFile`` 設定によってコントロールされます。
-
-```
-logPath: /var/log/shotgunEventDaemon
-```
-
-{% include info title="注" content="shotgunEventDaemon には、このディレクトリの書き込み権限が必要です。一般的なセットアップでは、デーモンはマシンの起動時に自動的に実行されるように設定され、その時点でルート権限が与えられます。"%}
-
-**logFile**
-
-メイン デーモン ログ ファイルの名前。ログ記録は、毎日深夜にローテーションされるログ ファイルを 10 個まで保存するように設定されています。
-
-```
-logFile: shotgunEventDaemon
-```
-
-**logging**
-
-ログ ファイルに送信されるログ メッセージのしきい値レベル。この値はメインのディスパッチ エンジンの既定値で、プラグインごとにオーバーライドできます。この値は、単に Python のロギング モジュールに渡されます。よく使われる値は次のとおりです。
-- **10:** デバッグ
-- **20:** 情報
-- **30:** 警告
-- **40:** エラー
-- **50:** 極めて重要
-
-```
-logging: 20
-```
-
-**timing_log**
-
-この値を `on` に設定してタイミングの記録を有効にすると、タイミング情報を含む個別のログ ファイルが生成され、デーモンのパフォーマンスの問題のトラブルシューティングが簡単になります。
-
-各コールバックの呼び出しに対して提供されるタイミング情報は次のとおりです。
-
-- **event_id** コールバックをトリガしたイベントの ID
-- **created_at** イベントが {% include product %} で作成されたときの ISO 形式のタイムスタンプ
-- **callback** 起動されたコールバックの `plugin.callback` 形式の名前
-- **start** コールバック処理の開始の ISO 形式のタイムスタンプ
-- **end** コールバック処理の終了の ISO 形式のタイムスタンプ
-- **duration** `DD:HH:MM:SS.micro_second` 形式のコールバック処理時間
-- **error** コールバックが失敗したかどうかを示します。値は `False` または `True` のいずれかになります。
-- **delay** イベントの作成からコールバックによる処理の開始までの `DD:HH:MM:SS.micro_second` 形式の遅延時間。
-
-**conn_retry_sleep**
-
-{% include product %} への接続が失敗した後、接続が再試行されるまでの待機時間(秒単位)。これにより、ネットワークの中断、サーバの再起動、アプリケーションのメンテナンスなどが可能になります。
-
-```
-conn_retry_sleep = 60
-```
-
-**max_conn_retries**
-
-エラー レベルのメッセージがログに記録される前に接続を再試行する回数です(この下に電子メール通知が設定されている場合は、電子メールが送信される可能性があります)。
-
-```
-max_conn_retries = 5
-```
-
-**fetch_interval**
-
-各イベントのバッチ処理が完了した後に、新しいイベントを要求するまでの待機時間(秒単位)。通常、この設定は調整する必要はありません。
-
-```
-fetch_interval = 5
-```
-
-
-### {% include product %} 設定
-
-{% include product %} インスタンスに関連する設定は次のとおりです。
-
-**server**
-
-接続先の {% include product %} サーバの URL。
-
-```
-server: %(SG_ED_SITE_URL)s
-```
-
-{% include info title="注" content="既定値はありません。環境変数 `SG_ED_SITE_URL` を ShotGrid サーバの URL ( https://awesome.shotgunstudio.com)に設定します" %}
-
-**name**
-
-{% include product %} EventDaemon が接続する必要がある {% include product %} スクリプト名。
-
-```
-name: %(SG_ED_SCRIPT_NAME)s
-```
-
-{% include info title="注" content="既定値はありません。環境変数 `SG_ED_SCRIPT_NAME` を ShotGrid サーバのスクリプト名( `shotgunEventDaemon`)" %}
-
-**key**
-
-上記で指定したスクリプト名の {% include product %} アプリケーション キー。
-
-```
-key: %(SG_ED_API_KEY)s
-```
-
-{% include info title="注" content="既定値はありません。環境変数 `SG_ED_API_KEY` を上記のスクリプト名(`0123456789abcdef0123456789abcdef01234567`)のアプリケーション キーに設定します。" %}
-
-**use_session_uuid**
-
-{% include product %} インスタンス内のすべてのイベントから、プラグインによって生成されたイベントに伝播する session_uuid を設定します。これにより、プラグインの結果として発生した更新を {% include product %} UI に表示できるようになります。
-
-```
-use_session_uuid: True
-```
-
-- {% include product %} この機能には、サーバ v2.3+ が必要です。
-- {% include product %} この機能には、API v3.0.5+ が必要です。
-
-{% include info title="注" content="ShotGrid UI は、元のイベントを生成したブラウザ セッションの更新*のみ*をライブで表示します。同じページを開いている他のブラウザ ウィンドウでは、更新がライブで表示されません。"%}
-
-
-### プラグイン設定
-
-**paths**
-
-フレームワークがロードするプラグインを検索する完全なパスのカンマ区切りリスト。相対パスは使用しないでください。
-
-```
-paths: /usr/local/shotgun/plugins
-```
-
-{% include info title="注" content="既定値はありません。値をプラグイン ファイルの場所(Windows では `/usr/local/shotgun/shotgunEvents/plugins` または `C:\shotgun\shotgunEvents\plugins`)に設定する必要があります" %}
-
-
-### 電子メール設定
-
-ユーザが常にログをテーリングすることはなく、アクティブな通知システムを使用することがわかっているので、これらはエラー報告に使用されます。
-
-レベル 40 (ERROR) より上のエラーは、すべての設定が下に提供されている場合、電子メールで報告されます。
-
-電子メール アラートを送信するには、これらの値をすべて入力する必要があります。
-
-**server**
-
-SMTP 接続に使用するサーバ。ユーザ名とパスワードの値は、SMTP 接続の資格情報を提供するためにコメント解除することができます。サーバが認証を使用しない場合は、`username` と `password` の設定をコメント アウトする必要があります。
-
-```
-server: smtp.yourdomain.com
-```
-
-{% include info title="注" content="既定値はありません。smtp.yourdomain.com トークンを SMTP サーバのアドレス(`smtp.mystudio.com`)." %}
-
-**username**
-
-SMTP サーバで認証を必要とする場合は、この行をコメント解除し、SMTP サーバに接続するために必要なユーザ名を持つ環境変数 `SG_ED_EMAIL_USERNAME` を設定していることを確認します。
-
-```
-username: %(SG_ED_EMAIL_USERNAME)s
-```
-
-**password**
-
-SMTP サーバで認証を必要とする場合は、この行をコメント解除し、SMTP サーバに接続するために必要なパスワードを持つ環境変数 `SG_ED_EMAIL_PASSWORD` を設定していることを確認します。
-
-```
-password: %(SG_ED_EMAIL_PASSWORD)s
-```
-
-**from**
-
-電子メールで使用する必要がある開始アドレスです。
-
-```
-from: support@yourdomain.com
-```
-
-{% include info title="注" content="既定値はありません。`support@yourdomain.com` を有効な値(`noreply@mystudio.com`)." %}
-
-**to**
-
-これらのアラートを送信する必要がある電子メール アドレスのカンマ区切りリスト。
-
-```
-to: you@yourdomain.com
-```
-
-{% include info title="注" content="既定値はありません。`you@yourdomain.com` を有効な値(`shotgun_admin@mystudio.com`)." %}
-
-**subject**
-
-イベント フレームワーク {% include product %} によって送信されたアラートを並べ替えるのに役立つ電子メールの件名の接頭語。
-
-```
-subject: [SG]
-```
diff --git a/docs/ja/event-daemon/event-daemon-example-plugins.md b/docs/ja/event-daemon/event-daemon-example-plugins.md
deleted file mode 100644
index b8240ef7a..000000000
--- a/docs/ja/event-daemon/event-daemon-example-plugins.md
+++ /dev/null
@@ -1,205 +0,0 @@
----
-layout: default
-title: サンプル プラグイン
-pagename: event-daemon-example-plugins
-lang: ja
----
-
-# サンプル プラグイン
-
-ソース コードには、[サンプル プラグインのフォルダ](https://github.com/shotgunsoftware/shotgunEvents/tree/master/src/examplePlugins)があります。
-
-このページには、作業を開始するユーザのためのいくつかの簡単なサンプルが含まれています。このコードはコピーと貼り付けによって実行できます(注: `script_name` と `script_key` の値をインストールに合わせて更新する必要があります)。
-
-まず、ここに SG イベント コードを記述するテンプレートがあります。
-## 1. コード テンプレート
-### 新規プラグインを開始するには、これをコピーして貼り付けます
-```python
-"""
-Necessary Documentation of the code
-
-Author: You
-Template Author: Andrew Britton
-"""
-
-def registerCallbacks(reg):
- # This takes the form of:
- # matchEvents = {'Shotgun_Entity_EventType': ['list', 'of', 'field', 'names', 'you', 'need', 'sg_custom_field']}
- # the 'id' is always returned, in addition to any fields specifically requested by your callback
- matchEvents = {
- 'Shotgun_Task_Change': ['content']
- }
-
- # script_name and script_key are defined by you whenever you create a SG script
- # the entry_function_call refers to the function that performs the work of the event plugin
- reg.registerCallback('script_name', 'script_key', entry_function_call, matchEvents, None)
-
-
-# This gives you
-# shotgun handle = sg
-# a logger object... please use this instead of python print, especially if you respect your time and your fellow developers
-# an event object... this is the metadata that describes what's happening with the particular event.
-# some very good information comes from the event['meta'] object, below is the example event['meta'] data from the subject renamer plugin
-# {
-# "type": "attribute_change",
-# "attribute_name": "subject",
-# "entity_type": "Note",
-# "entity_id": 2,
-# "field_data_type": "text",
-# "old_value": "My Note Subject",
-# "new_value": "2017-05 May-09 - My Note Subject"
-# }
-def entry_function_call(sg, logger, event, args):
- # Now do stuff
- pass
-```
-## 2. ノートの件名の名前変更
-### `New` エンティティ イベントを使用する
-これは単純ですが、`Shotgun_Entity_New` イベントを捕捉するという複雑な処理も実行できるので、開始点として優れています...
-```python
-import time
-from pprint import pprint
-
-def registerCallbacks(reg):
- matchEvents = {
- 'Shotgun_Note_New': ['*'],
- }
-
- reg.registerCallback('script_name', 'script_key', Function_Name, matchEvents, None)
-
-
-def Function_Name(sg, logger, event, args):
- # Waiting here should allow the entity to be fully created
- # and all the necessary attributes to be added to the NOTE entity
- time.sleep(1)
- current_date = time.strftime("%Y-%m %b-%d")
- asset_id = event['meta']['entity_id']
- asset_type = event['meta']['entity_type']
-
- asset = sg.find_one(asset_type, [['id', 'is', asset_id]], ['subject'])
- if asset['subject'] is None:
- current_name = current_date + ' - ' + event['project']['name'] + ' - ' + event['user']['name']
- else:
- current_name = current_date + ' - ' + asset['subject']
-
- # Modify ALL notes except those in 'Software Development'
- if event['project'] == None:
- logger.info('Updated Note ID is #%d, and is being prepended with "%s"', asset_id, current_date)
- logger.info(event)
- sg.update(asset_type, asset_id, {'subject': current_name})
- return
-
- if event['project']['id'] != 116:
- logger.info('Updated Note ID is #%d, and is being prepended with "%s"', asset_id, current_date)
- logger.info(event)
- sg.update(asset_type, asset_id, {'subject': current_name})
-
- else:
- logger.info('Dates are not prepended for notes in project id 116 - Software Development')
- return
-```
-`sleep` の呼び出しが、関数本体の最初の行であることに注意してください。この理由は、`new` イベントの処理方法に関係があります。
-1. SG で新しいエンティティを作成すると、そのエンティティにはまだ形式はありません。つまり、使い慣れたエンティティを完全に定義するために必要なアトリビュートのすべてが設定されていません。実際、この例では、SG が `subject` イベントを発行する場合に、`Shotgun_Note_New` アトリビュートがノート エンティティ上に存在するという保証さえもできません。
-2. 必要なすべてのアトリビュートを追加するために、SG は次に一連の `Shotgun_Note_Change` イベントをパブリッシュします。このイベントでは、SG はそれぞれの単一のアトリビュートをエンティティに追加し、必要に応じてこれらのアトリビュートの値を更新します。
-3. これは、さまざまなイベントが作成されることを意味します。つまり、2 つの異なるアトリビュートが存在する必要があり、コードに `sleep` の側面を記述していない場合、すべての `Shotgun_Note_Change` イベントと内部メタデータを調べて、新しいアトリビュートが追加され、値が設定されたイベントのみを検索する必要があります。これは面倒なプロセスであり、作成時にノートごとに 1 つのイベントを効果的に見つけるために数多くの `Shotgun_Note_Change` イベントを処理します。
-4. この問題に対する解決策は、`Shotgun_Entity_New` を利用してスクリプトを短時間スリープ状態にすることです。スリープ状態の最後に、SG はエンティティに必要なすべてのアトリビュートを更新し、必要な任意のフィールドに対して同じエンティティを再クエリーできます。
-
-## 2. フィールド削除の警告
-### ノートの生成、エンティティとしてのフィールドの操作、エンティティの廃棄イベント
-```python
-
-"""
-Create a Note when a field is deleted
-
-Author: Andrew Britton
-"""
-
-def registerCallbacks(reg):
- """
- fn: registerCallbacks
- @brief required function. It connects to the event daemon and calls the trashedFieldWarning Function.
- It runs every time a field is deleted (retired)
-
- @param[in] reg variable that is required by shotgun event daemon plugins
- @return none
- """
- matchEvents = {
- 'Shotgun_DisplayColumn_Retirement': ['*']
- }
-
- reg.registerCallback('script_name', 'script_key',
- trashedFieldWarning, matchEvents, None)
-
-
-def CreateNote(sg, logger, event):
- constants = {'note header': ':: FIELD DELETION :: '}
- def GetListOfPipelineUsers():
- pipeline_users = sg.find('Group', [['code', 'is', 'People_Who_Need_to_Know']], ['code', 'users', 'addressings_to',
- 'sg_ticket_type', 'sg_priority'])
- return pipeline_users[0]['users']
-
- def CreateToolsNote():
- # Note to members of the pipeline group
- # Body text = CreateNoteRequestText()
- # Date Created = event['event']['created_at']
- # Created By = event['user']['id']
- # Project = Software Development['id']
- # Subject = ':: Field Delete Warning :: ' + event['entity']['name']
- note_data = {
- 'project': {'type': 'Project', 'id': 'ID OF PROJECT WHERE YOU WANT THE NOTE REPORTED TO'},
- # ex: 'project': {'type': 'Project', 'id': 2},
- 'content': CreateNoteRequestText(),
- 'created_at': event['created_at'],
- 'created_by': event['user'],
- 'addressings_to': GetListOfPipelineUsers(),
- 'subject': constants['note header'] + event['meta']['display_name']
- }
-
- sg.create('Note', note_data)
-
- def CreateNoteRequestText():
- OUT = ''
-
- # Tool Name = event['entity']['name']
- # sg_assigned_to = members of the pipeline group
- # Description = linked Ticket decription
- # Project = decided in GUI
- # sg_sg_request_ticket = event['entity']['id']
- # task_template = Software task template
- # Software Projects = defined in GUI
-
- OUT = '::FIELD DELETION WARNING::\n'
- OUT += ':: A Field was deleted ::\n'
- OUT += ':: It was called %s ::\n'%event['meta']['display_name']
-
- return OUT
-
- logger.info('::WARNING:: A FIELD has been deleted')
- CreateToolsNote()
-
-
-def trashedFieldWarning(sg, logger, event, args):
- """
- fn: finalizeTasksFromShot
- @brief Function to create and send a warning note, via SG, whenever a field is deleted
- event['entity']['id'] yields the id of the current entity that was caught by the plugin as having been changed.
- ie. this is the id of the field that was just deleted
-
- @param[in] sg defines the Shotgun handle to access the database
- @param[in] logger sets logging messages to the shotgun event daemon
- @param[in] event the collection of shots that have changed
- @param[in] args useless variable for this particular function
- @return none
- """
-
- if event['meta']['entity_type'] == 'DisplayColumn':
- logger.info('This DisplayColumn was deleted %s', event['meta']['display_name'])
- if event['event_type'] == 'Shotgun_DisplayColumn_Retirement':
- logger.info('The incoming event call is for deleting a field from an entity. Field name: %s', event['meta']['display_name'])
-
- # logger.info(' TEST ')
- # logger.info('Deleted Field ID is #%d, and is called: %s', event['entity']['id'], event['entity']['name'])
-
- CreateNote(sg, logger, event)
-```
-これは非常に単純なスクリプトです。削除されたフィールドをチェックする場合、特別なロジックはありません。フィールドが削除されると、ノートが作成され、それを必要とするユーザのグループに送信されます。ある部署では、グループ ID を「programmers」グループに設定し、ノートのプロジェクト ID を「development」プロジェクトに設定しています。
diff --git a/docs/ja/event-daemon/event-daemon-installation.md b/docs/ja/event-daemon/event-daemon-installation.md
deleted file mode 100644
index 35d05ebde..000000000
--- a/docs/ja/event-daemon/event-daemon-installation.md
+++ /dev/null
@@ -1,151 +0,0 @@
----
-layout: default
-title: インストール
-pagename: event-daemon-installation
-lang: ja
----
-
-
-# インストール
-
-以下のガイドは、スタジオの {% include product %}Events をセットアップする場合に役に立ちます。
-
-
-## 動作環境
-
-デーモンは、Python がインストールされ、{% include product %} サーバにネットワーク アクセスできる任意のマシン上で実行できます。** サーバ上で実行する必要は** ありません{% include product %}。実際、ホストされているバージョンの {% include product %} を使用している場合、これはオプションではありません。ただし、必要に応じて {% include product %} サーバ上で実行することもできます。そうでなければ、任意のサーバで実行できます。
-
-* Python v2.6、v2.7 または 3.7
-* [{% include product %} Python API](https://github.com/shotgunsoftware/python-api)
- * Python v2.6 または v2.7 には v3.0.37 以降を使用し、Python 3.7 には v3.1.0 以降を使用します。
- * いずれの場合も、[最新の Python API バージョン](https://github.com/shotgunsoftware/python-api/releases)を使用し、この依存関係を継続して更新することを強くお勧めします。
-* {% include product %} サーバへのネットワーク アクセス
-
-
-## {% include product %} API のインストール
-
-Python が既にマシンにインストールされている場合は、{% include product %} Python API をインストールして、{% include product %} イベント デーモンが {% include product %} サーバに接続するために使用できるようにする必要があります。これを実行するにはいくつかの方法があります。
-
-- {% include product %} イベント デーモンと同じディレクトリに配置する
-- [`PYTHONPATH` 環境変数](http://docs.python.org/tutorial/modules.html)によって指定されたフォルダのいずれかに配置する
-
-{% include product %} API が正しくインストールされているかをテストするには、ターミナル ウィンドウで以下を確認します。
-
-```
-$ python -c "import shotgun_api3"
-```
-
-出力は表示されません。次のような出力が表示される場合は、`PYTHONPATH` が正しく設定されているか、{% include product %} API が現在のディレクトリに配置されていることを確認する必要があります。
-
-```
-$ python -c "import shotgun_api3"
-Traceback (most recent call last):
-File "", line 1, in
-ImportError: No module named shotgun_api3
-```
-
-
-## {% include product %}Events のインストール
-
-{% include product %}Events のインストール先は、ユーザが自由に選択できます。ここでも、Python と {% include product %} API がコンピュータにインストールされ、{% include product %} サーバへのネットワーク アクセス権がある限り、任意の場所から実行することができます。ただし、スタジオにとって論理的な場所にインストールすることが自然です。`/usr/local/shotgun/shotgunEvents` などは論理的であるため、ここからは、これを例として使用します。
-
-ソースとアーカイブは、[ https://github.com/shotgunsoftware/shotgunEvents]() の GitHub で入手できます。
-
-{% include info title="注" content="**Windows の場合:** Windows サーバを使用している場合は `C:\shotgun\shotgunEvents` を使用できますが、このドキュメントでは Linux パスを使用します。" %}
-
-
-### ソースのクローンの作成
-
-`git` がコンピュータにインストールされている場合にソースを取得する最も簡単な方法は、プロジェクトのクローンを作成することです。この方法では、コミットされた更新を簡単に取り込んで、常に最新のバグ修正と新機能を手に入れることができます。
-
-```
-$ cd /usr/local/shotgun
-$ git clone git://github.com/shotgunsoftware/shotgunEvents.git
-```
-
-{% include info title="警告" content="GitHub から更新を取得する前に、構成、プラグイン、および shotgunEvents に加えた変更を必ずバックアップして、何も失われないようにしてください。または、自分でプロジェクトをフォークして、自分自身で変更のリポジトリを維持することもできます。" %}
-
-
-### アーカイブのダウンロード
-
-コンピュータに `git` がない場合、またはソースのアーカイブをダウンロードするだけの場合は、次の手順を実行します。
-
-- [https://github.com/shotgunsoftware/shotgunEvents/archives/master]() に移動します。
-- 希望の形式でソースをダウンロードします。
-- コンピュータ上に保存します。
-- `/usr/local/shotgun` フォルダにファイルを解凍します。
-- `/usr/local/shotgun/shotgunsoftware-shotgunEvents-xxxxxxx` フォルダの名前を `/usr/local/shotgun/shotgunEvents` に変更します。
-
-#### アーカイブを `/usr/local/shotgun` に抽出します。
-
-.tar.gz アーカイブの場合:
-
-```
-$ tar -zxvf shotgunsoftware-shotgunEvents-v0.9-12-g1c0c3eb.tar.gz -C /usr/local/shotgun
-```
-
-.zip アーカイブの場合:
-
-```
-$ unzip shotgunsoftware-shotgunEvents-v0.9-12-g1c0c3eb.zip -d /usr/local/shotgun
-```
-
-次に、GitHub によって割り当てられたディレクトリ名を `shotgunEvents` に変更します。
-
-```
-$ mv shotgunsoftware-shotgunEvents-1c0c3eb shotgunEvents
-```
-
-次のように表示されます。
-
-```
-$ ls -l /usr/local/shotgun/shotgunEvents
-total 16
--rw-r--r-- 1 kp wheel 1127 Sep 1 17:46 LICENSE
--rw-r--r-- 1 kp wheel 268 Sep 1 17:46 README.mkd
-drwxr-xr-x 9 kp wheel 306 Sep 1 17:46 docs
-drwxr-xr-x 6 kp wheel 204 Sep 1 17:46 src
-```
-
-
-### インストール要件
-
-`requirements.txt` ファイルはリポジトリのルートに配置されています。必要なパッケージをインストールするには、これを使用する必要があります
-
-```
-$ pip install -r /path/to/requirements.txt
-```
-
-
-
-### Windows の場合
-
-Windows システムでは、次のいずれかが必要です。
-
-* [PyWin32](http://sourceforge.net/projects/pywin32/) がインストールされた Python
-* [Active Python](http://www.activestate.com/activepython)
-
-Active Python には {% include product %} イベント デーモンと Windows のサービス アーキテクチャを統合するために必要な PyWin32 モジュールが付属しています。
-
-次のコマンドを実行して、デーモンをサービスとしてインストールすることができます(`C:\Python27_32\python.exe` は Python 実行可能ファイルへのパスですが、必要に応じて調整が必要です)。
-
-```
-> C:\Python27_32\python.exe shotgunEventDaemon.py install
-```
-
-または、以下を使用して削除します。
-
-```
-> C:\Python27_32\python.exe shotgunEventDaemon.py remove
-```
-
-サービスの開始と停止は、通常のサービス管理ツールを使用するか、次のコマンド ラインを使用して実行できます。
-
-```
-> C:\Python27_32\python.exe shotgunEventDaemon.py start
-> C:\Python27_32\python.exe shotgunEventDaemon.py stop
-```
-
-ほとんどの場合、システムの管理者ユーザとしてリストされている各コマンドを実行していることを確認する必要があります。それには、cmd アプリケーションを右クリックして[管理者として実行]を選択します。
-
-{% include info title="注" content="ネットワーク上の Windows にデーモンをインストールした場合、またはネットワーク上の場所からログやその他のリソースを読み書きするように設定した場合は、サービスのプロパティを編集して、サービスを実行するユーザをローカル マシン アカウントからネットワーク リソースへのアクセス権を持つドメイン アカウントに変更する必要があります。" %}
diff --git a/docs/ja/event-daemon/event-daemon-plugins.md b/docs/ja/event-daemon/event-daemon-plugins.md
deleted file mode 100644
index a38814abc..000000000
--- a/docs/ja/event-daemon/event-daemon-plugins.md
+++ /dev/null
@@ -1,90 +0,0 @@
----
-layout: default
-title: プラグイン
-pagename: event-daemon-plugins
-lang: ja
----
-
-# プラグインの概要
-
-プラグイン ファイルは、環境設定ファイルで指定されたプラグイン パス内の *.py* ファイルです。
-
-コードのダウンロード先の `src/examplePlugins` フォルダには、サンプル プラグインがいくつか用意されています。これらは、生成された特定のイベントを検索して処理し、{% include product %} インスタンスの他の値を変更するための独自のプラグインを構築する方法の簡単な例を示します。
-
-プラグインを更新するたびにデーモンを再起動する必要はありません。デーモンは、プラグインが更新されたことを検出して自動的に再ロードします。
-
-プラグインがエラーを生成しても、デーモンがクラッシュすることはありません。プラグインは、再度更新されるまで無効になります(修正した場合も同様に動作するようリクエスト中)。その他のプラグインは引き続き実行され、イベントが処理されます。デーモンは、中断されたプラグインが正常に処理された最後のイベント ID を追跡します。プラグインが更新(および修正)されると、デーモンはプラグインを再ロードし、プラグインが終了した時点からイベントを処理しようとします。すべて正常に実行されると、デーモンは現在のイベントまでのプラグインを捕捉し、すべてのプラグインを通常のものとして使用してイベントを処理し続けます。
-
-{% include product %} イベント処理プラグインは、コールバック登録関数と任意の数のコールバックという 2 つの主要な部分で構成されます。
-
-
-## registerCallbacks 関数
-
-フレームワークによってロードするには、プラグインは少なくとも次の関数を実装する必要があります。
-
-```python
-def registerCallbacks(reg):
- pass
-```
-
-この関数は、イベントを処理するために呼び出す関数をイベント処理システムに通知するために使用されます。
-
-この関数は、1 つの引数を取る必要があり、それは [`Registrar`](./event-daemon-api.md#Registrar) オブジェクトです。
-
-[`Registrar`](./event-daemon-api.md#Registrar) には非常に重要なメソッドが 1 つあります: [`Registrar.registerCallback`](./event-daemon-api.md#registercallback)
-
-{% include product %} イベントを処理する必要がある関数ごとに、[`Registrar.registerCallback`](./event-daemon-api.md#registerCallback) を、適切な引数で 1 回ずつ呼び出します。
-
-関数は必要な数だけ登録できます。また、ファイル内のすべての関数をイベント処理コールバックとして登録する必要はありません。
-
-
-## コールバック
-
-システムに登録されるコールバックは、次の 4 つの引数を取る必要があります。
-
-- 追加情報について {% include product %} にクエリーする必要がある場合の {% include product %} 接続インスタンス。
-- レポートに使用する必要がある Python Logger オブジェクト。エラー メッセージと極めて重要なメッセージは、設定された任意のユーザに電子メールで送信されます。
-- 処理する {% include product %} イベント。
-- コールバックの登録時に渡される `args` 値。([`Registrar.registerCallback`](./event-daemon-api.md#wiki-registerCallback) を参照)
-
-{% include info title="警告" content="プラグインでは必要なすべての処理を実行できますが、例外がフレームワークに戻った場合、問題のあるコールバック(および含まれているすべてのコールバック)が存在するプラグインは、ディスク上のファイルが変更されるまで非アクティブ化されます(読み取り: 修正)。" %}
-
-
-## ログ記録
-
-イベント プラグインで print 文を使用することはお勧めしません。Python 標準ライブラリの標準ロギング モジュールを使用することをお勧めします。ロガー オブジェクトは、さまざまな関数に提供されます。
-
-```python
-def registerCallbacks(reg):
- reg.setEmails('root@domain.com', 'tech@domain.com') # Optional
- reg.logger.info('Info')
- reg.logger.error('Error') # ERROR and above will be sent via email in default config
-```
-
-および
-
-```python
-def exampleCallback(sg, logger, event, args):
- logger.info('Info message')
-```
-
-イベント フレームワークがデーモンとして実行されている場合、これはファイルに記録されます。それ以外の場合は stdout に記録されます。
-
-
-## 堅牢なプラグインの構築
-
-デーモンは {% include product %} に対してクエリーを実行しますが、find() コマンドが失敗した場合に再試行する機能が組み込まれているため、デーモン自体には一定の堅牢性があります。
-
-[https://github.com/shotgunsoftware/shotgunEvents/blob/master/src/shotgunEventDaemon.py#L456](https://github.com/shotgunsoftware/shotgunEvents/blob/master/src/shotgunEventDaemon.py#L456)
-
-プラグインにネットワーク リソース({% include product %} または他のリソース)が必要な場合は、独自の再試行メカニズムや堅牢性を提供する必要があります。{% include product %} アクセスの場合、デーモンの内容を確認して、プラグインにその機能を提供できるヘルパー関数またはクラスを作成することができます。
-
-{% include product %} Python API は既にネットワークの問題に対してあるレベルの再試行を実行できますが、数分間実行される {% include product %} のメンテナンス ウィンドウのタイミングにぶつかったり、ネットワーク障害が発生した場合、これでは十分ではない場合があります。
-
-[https://github.com/shotgunsoftware/python-api/blob/master/shotgun_api3/shotgun.py#L1554](https://github.com/shotgunsoftware/python-api/blob/master/shotgun_api3/shotgun.py#L1554)
-
-プラグインの機能に応じて、イベントの処理中に問題が発生した場合に追跡を続けるために登録することもできます。registerCallback 関数の stopOnError 引数を参照してください。
-
-[https://github.com/shotgunsoftware/shotgunEvents/wiki/API#wiki-registerCallback](https://github.com/shotgunsoftware/shotgunEvents/wiki/API#wiki-registerCallback)
-
-{% include info title="注" content="プラグインは停止しませんが、失敗した試行は再試行されません。" %}
diff --git a/docs/ja/event-daemon/event-daemon-technical-details.md b/docs/ja/event-daemon/event-daemon-technical-details.md
deleted file mode 100644
index 45aba96d9..000000000
--- a/docs/ja/event-daemon/event-daemon-technical-details.md
+++ /dev/null
@@ -1,120 +0,0 @@
----
-layout: default
-title: 技術の詳細
-pagename: event-daemon-technical-details
-lang: ja
----
-
-# 技術的な概要
-
-
-## イベント タイプ
-
-トリガを登録して通知するイベント タイプは、通常、次の `Shotgun_[entity_type]_[New|Change|Retirement|Revival]` 形式を使用します。以下に、この形式の例をいくつか示します。
-
- Shotgun_Note_New
- Shotgun_Shot_New
- Shotgun_Task_Change
- Shotgun_CustomEntity06_Change
- Shotgun_Playlist_Retirement
- Shotgun_Playlist_Revival
-
-エンティティの記録アクティビティには関連せず、アプリケーション動作のキー ポイントに関連するイベントに対しては、これらの通常の形式とは異なるものが使用されます。
-
- CRS_PlaylistShare_Create
- CRS_PlaylistShare_Revoke
- SG_RV_Session_Validate_Success
- Shotgun_Attachment_View
- Shotgun_Big_Query
- Shotgun_NotesApp_Summary_Email
- Shotgun_User_FailedLogin
- Shotgun_User_Login
- Shotgun_User_Logout
- Toolkit_App_Startup
- Toolkit_Desktop_ProjectLaunch
- Toolkit_Desktop_AppLaunch
- Toolkit_Folders_Create
- Toolkit_Folders_Delete
-
-このリストはすべてを網羅しているわけではありませんが、糸口にしてください。{% include product %} サイトのアクティビティやイベントのタイプに関する詳細を確認したい場合は、他のエンティティ タイプの他のグリッド ページのようにフィルタや検索が可能な EventLogEntries のページを参照してください。
-
-### サムネイルのイベント ログ エントリ
-エンティティの新しいサムネイルをアップロードすると、``` `Type` == `Shotgun__Change` ``` でイベント ログ エントリが作成されます(例: `Shotgun_Shot_Change`)。
-1. ```‘is_transient’``` フィールドの値は true に設定されています。
-```
-{ "type": "attribute_change","attribute_name": "image",
- "entity_type": "Shot", "entity_id": 1286, "field_data_type": "image",
- "old_value": null, "new_value": 11656,
- "is_transient": true
-}
-```
-2. サムネイルが使用できるようになると、```‘is_transient’``` フィールドの値が false に設定された新しいイベント ログ エントリが作成されます。
-```
-{ "type": "attribute_change", "attribute_name": "image",
- "entity_type": "Shot", "entity_id": 1286, "field_data_type": "image",
- "old_value": null, "new_value": 11656,
- "is_transient": false
-}
-```
-3. サムネイルをもう一度更新すると、次のような新しいイベント ログ エントリが取得されます。
-```
-{ "type": "attribute_change", "attribute_name": "image",
- "entity_type": "Shot", "entity_id": 1286, "field_data_type": "image",
- "old_value": 11656, "new_value": 11657,
- "is_transient": true
-}
-{ "type": "attribute_change", "attribute_name": "image",
- "entity_type": "Shot", "entity_id": 1286, "field_data_type": "image",
- "old_value": null, "new_value": 11657,
- "is_transient": false
-}
-```
-4. 添付ファイルのサムネイルがプレースホルダのサムネイルである場合、```‘old_value’``` フィールドは null に設定されることに注意してください。
-
-
-
-## プラグインの処理順序
-
-各イベントは常に同じ予測可能な順序で処理されるため、プラグインやコールバックが共依存している場合は、処理を支障なく整理することができます。
-
-環境設定ファイルで、1 つまたは複数のプラグインの場所を含む `paths` 設定を指定します。リスト内での順番が早い場所ほど、含まれているプラグインが早く処理されます。
-
-プラグイン パス上の各プラグインは、アルファベットの昇順で処理されます。
-
-{% include info title="注" content="内部処理として、ファイル名がリストに登録されてソートされます。"%}
-
-最終的に、プラグインによって登録された各コールバックが登録順に呼び出されます。最初に登録されたコールバックが、最初に実行されます。
-
-1 つまたは複数のコールバックと同じプラグインで状態を共有する必要がある機能を保持することをお勧めします。
-
-
-## 状態を共有する
-
-状態を共有する必要がある複数のコールバックに設定できる多くのオプションがあります。
-
-- グローバル変数。これは適切ではありません。使用しないでください。
-- 読み込んだモジュール。状態の情報を保持します。適切ではありませんが、単純なグローバル変数よりは適しています。
-- [`Registrar.registerCallback`](https://github.com/shotgunsoftware/shotgunEvents/wiki/API#registerCallbacks) を呼び出すときに `args` 引数で渡される可変値。設計の状態オブジェクト、または `dict` のような単純な関数。推奨します。
-- オブジェクト インスタンスで `__call__` などのコールバックを使用して、コールバック オブジェクトの初期化時に共有状態オブジェクトをいくつか指定します。最も強力な方法ですが、最も複雑な方法でもあります。上記の args 引数メソッドと比較すると、煩雑になる場合があります。
-
-
-
-## イベント バックログ
-
-フレームワークの仕様により、すべてのプラグインは、対象のすべてのイベントそれぞれを例外なく 1 回のみ処理します。必ずこのように処理されるように、フレームワークは各プラグインの未処理イベントのバックログを保存し、各プラグインが提供された最後のイベントを記憶します。バックログが発生する可能性のある状況は、以下のとおりです。
-
-### イベント ログ エントリ シーケンスのずれによるバックログ
-
-{% include product %} で発生する各イベント(フィールド更新、エンティティの作成、エンティティの廃棄など)には、そのイベント ログ エントリの一意の ID 番号が割り当てられます。ID 番号シーケンスにずれが生じることがあります。このようなずれは、大規模なデータベース トランザクションが完了していない場合など、さまざまな理由で発生する可能性があります。
-
-イベント ログ シーケンスにずれが生じると、「不明」なイベント ID はバックログに記録され、後で処理されます。これにより、イベント デーモンは、時間がかかるデータベース トランザクションの終了後に、このようなイベントを処理できます。
-
-トランザクションが失敗した場合やページ設定の変更を元に戻した場合など、イベント ログ シーケンスのずれを埋められない場合もあります。この場合、5 分のタイムアウト後に、イベント ログ エントリの ID 番号の割り当て待機は停止され、バックログから削除され、「バックログのイベント ID 番号のタイムアウト時間が経過しました」というメッセージが表示されます。イベント シーケンスのずれが初めて発生し、既にタイムアウト時間が経過したと判断された場合、「イベント番号は割り当てられません: 無視されます」というメッセージが表示され、そもそもバックログに記録されません。
-
-### プラグイン エラーによるバックログ
-
-通常の操作中、フレームワークは常に各プラグインによって処理された最後のイベントをトラッキングします。何らかの理由でプラグインが処理に失敗した場合、以降のイベントの処理は停止されます。バグの修正などによってプラグインを修正すると、フレームワークは、修正されたプラグインに保存された最後のイベントでイベントの処理を開始します。これにより、修正されたプラグインが、エラーが発生してから修正するまでの過去に発生したイベントなど、すべてのイベントを確実に処理できます。エラーがかなり前に発生した場合は、多くのイベントをやり直す必要があり、修正したプラグインが、正常に機能していた他のプラグインの処理に追い付くまでにしばらく時間がかかる可能性があります。
-
-修正したプラグインが遅れを取り戻している間、他のプラグインはこれらのイベントを無視し、同じプラグインで 1 つのイベントが 2 回処理されないようにします。その場合、「イベント X は古いイベントです。最後に処理されたイベントは(Y)です」というメッセージが表示されます。これはデバッグ メッセージです。無視しても問題ありません。
-
-このメッセージの表示を回避する正式な方法はありません。フレームワークの仕様により、すべてのプラグインそれぞれは、すべてのイベントを 1 回のみ処理します。ただし、Python とその pickle データ形式に慣れている場合は、デーモンを停止し、Python インタプリタ/インタラクティブ シェルで .id ファイルを開き、pickle モジュールで内容をデコードし、保存されている ID を削除して内容を編集します。このようにして、作成されているバックログを省略できます。この操作はサポートされていないため、ご自身の責任において行ってください。この操作を行う場合は、まず `.id` ファイルを適切にバックアップしてください。
diff --git a/docs/ja/event-daemon/event-daemon.md b/docs/ja/event-daemon/event-daemon.md
deleted file mode 100644
index d24b214c9..000000000
--- a/docs/ja/event-daemon/event-daemon.md
+++ /dev/null
@@ -1,102 +0,0 @@
----
-layout: default
-title: イベント駆動型トリガを記述する
-pagename: event-daemon
-lang: ja
----
-
-# {% include product %} イベント フレームワーク
-このソフトウェアは、[Rodeo Fx](http://rodeofx.com) と Oblique のサポートを受けて [Patrick Boucher](http://www.patrickboucher.com) により開発されました。これは現在、[{% include product %}ソフトウェア](http://www.shotgridsoftware.com)の[オープン ソース イニシアチブ](https://github.com/shotgunsoftware)の一部になっています。
-
-このソフトウェアは、LICENSE ファイルまたは[オープン ソース イニシアチブ](http://www.opensource.org/licenses/mit-license.php)の Web サイトにある MIT ライセンスの下で提供されます。
-
-**目次:**
-
-- [概要](#overview)
-- [フレームワークの利点](#advantage-of-the-framework)
-- [イベント駆動型トリガを書き込む](#writing-event-driven-triggers)
- - [使用例](#example-use-cases)
- - [イベント駆動型トリガの仕組み](#how-event-driven-triggers-work)
- - [EventLog のポーリングとトリガの比較](#polling-the-eventLog-versus-triggers)
- - [イベント タイプ](#event-types)
- - [トランザクションと欠落の可能性があるイベント](#transactions-and-potentially-missing-events)
-
-## 概要
-
-{% include product %} イベント ストリームにアクセスする場合の望ましい方法として、イベント テーブルを監視し、新しいイベントを取得し、イベントを処理して、また同じ手順を繰り返します。
-
-このプロセスを成功させるためには多くの要素が必要ですが、それらの中には、適用すべきビジネス ルールに直接関係しないものがあります。
-
-フレームワークの役割は、退屈な監視タスクをビジネス ロジックの実装作業から分離することです。
-
-フレームワークはサーバ上で動作し、{% include product %} のイベント ストリームを監視するデーモン プロセスです。イベントが見つかったら、デーモンはイベントを一連の登録済みのプラグインに渡します。各プラグインは、意図したとおりにイベントを処理できます。
-
-デーモンは次を処理します:
-
-- 1 つまたは複数の指定したパスからプラグインを登録する。
-- クラッシュするプラグインを非アクティブ化する。
-- プラグインがディスク上で変更された場合に再ロードする。
-- {% include product %} のイベント ストリームを監視する。
-- 最後に処理されたイベント ID とバックログを記憶する。
-- デーモンの起動時に、最後に処理されたイベント ID から開始する。
-- 接続エラーを検出する。
-- 必要に応じて、stdout、ファイル、または電子メールに情報を記録する。
-- コールバックによって使用される {% include product %} への接続を作成する。
-- 登録されたコールバックにイベントを渡す。
-
-プラグイン ハンドル:
-
-- 任意の数のコールバックをフレームワークに登録する。
-- フレームワークによって提供された 1 つのイベントを処理する。
-
-
-## フレームワークの利点
-
-- スクリプトごとに 1 つではなく、すべてのスクリプトに対して単一の監視メカニズムのみを扱います。
-- ネットワークおよびデータベースのロードを最小限に抑えます(多くのイベント処理プラグインにイベントを提供するただ 1 つのモニタ)。
-
-# イベント駆動型トリガを書き込む
-
-**注:** イベント駆動型トリガの詳細については、[https://github.com/shotgunsoftware/shotgunEvents](https://github.com/shotgunsoftware/shotgunEvents) にあるオートデスクのドキュメントを参照してください。
-
-{% include product %} は、{% include product %} で行われるすべてのアクションについて[イベント ログ エントリ](https://help.autodesk.com/view/SGSUB/JPN?guid=SG_Administrator_ar_data_management_ar_event_logs_html)を作成します。 これらのイベントは {% include product %} サイトだけでなく、{% include product %} API からも確認できます。
-
-{% include product %} にイベントの詳細な履歴が表示されるだけでなく、独自のイベント リスナー スクリプトを作成して EventLog をポーリングし、関心のある特定のイベントに対処することができます。独自のスクリプトでパイプラインの他の内部スクリプトを実行したり、{% include product %} API を使用して {% include product %} の他の情報を更新したりできます。
-
-## 使用例
-
-イベント駆動型トリガの使用例をいくつか示します。
-
-* ショットの「Layout」タスクのステータスが「最終(Final)」としてマークされると、自動的に「Animation」タスクのステータスを「開始の準備完了(Ready to Start)」に設定して、アニメータがショットで作業を開始することを把握できるようにする。
-* 新しいショットが {% include product %} で作成されるたびにファイルシステム上で適切なショット フォルダを作成する。
-* 「保留中(On Hold)」の場合にショットに割り当てるアーティストを通知する。
-* アセットの作成が完了したらフォルダを読み取り専用にする。
-* バージョンが {% include product %} のレビューに追加されたら、関連するバージョン(テイク)の情報をデイリー システムにコピーする。
-* シーンのショットが 25 個になったら、シーンの説明フィールドの 3 番目の文字と同じ文字で始まる任意の引用をツイートする。
-
-## イベント駆動型トリガの仕組み
-
-次に、{% include product %} で生成される EventLogEntries を簡単な図で説明します。スクリプトは API を使用して、指定後に発生したイベントのリストを取得します。次に、各イベント タイプ({% include product %}_Task_Change など)を調べて、イベント駆動の対象であるかを確認します。
-
-候補のイベントが見つかると、イベントの詳細をさらに調べます(変更されたフィールドや変更された値など)。このときに API を使用してエンティティの詳細情報を要求することもできます)。
-
-イベントがイベント駆動の対象だと判断されると、スクリプトはそのイベントに従い、{% include product %} API、パイプラインの他のコード、またはその両方を使用するかにかかわらず、実行する必要があるコードを実行します。チェックするイベントがなくなると、プロセスを繰り返し、API を使用して先ほどチェックした後に発生したイベントのリストを取得します。
-
-
-
-## EventLog のポーリングとトリガの比較
-
-{% include product %} はイベント情報を絶えず提供し続けます。ユーザはその情報をすべて確認し、任意のイベントに対してのみ操作を実行できます。これは、{% include product %} 自体でトリガをコントロールするよりも次のような利点があります。
-
-* **柔軟性**: トリガ スクリプトは {% include product %} とは関係なく実行することができます。このため、スクリプトは任意の方法で {% include product %} とパイプラインの両方とやり取りできます。何の制約も受けずに任意のルールとアクションを定義します。{% include product %} 側では、指定したイベント トリガについて何も把握する必要はありません。Shotgun に必要なのは、EventLogEntries を生成し続けることです。それ以外のことはすべてユーザが管理します。
-* **リモート**: スクリプトは、{% include product %} サーバにネットワーク アクセスできる任意の場所から実行できます。スクリプトの実行に必要なのは API アクセスだけです。
-* **多様性**: 複数のスクリプトを同時に実行できます。 それぞれの部門でニーズは異なるため、異なるイベントを待機します。すべてのトリガが同じスクリプトから実行されなければならない、というような制限はありません。トリガを個別の論理的スクリプトに分割できる場合もあります。ポーリングのクエリーは非常に軽量であるため、パフォーマンスにはほとんど影響しません。
-* **説明責任**: スクリプトで {% include product %} を変更した場合は、このスクリプトによる変更内容を正確に記録する独自のイベントも生成されます。
-
-## イベント タイプ
-
-すべての内部イベント タイプは、**`Shotgun_[entity_type]_[New|Change|Retirement]`** の形式に従います。例として、`Shotgun_Shot_New` と `Shotgun_Asset_Change` があります。詳細については、[イベント タイプのドキュメント](https://github.com/shotgunsoftware/shotgunEvents/wiki/Technical_Overview#event-types)を参照してください。
-
-## トランザクションと欠落の可能性があるイベント
-
-{% include product %} はトランザクションで破壊的データベース クエリーを実行し、トランザクション終了時に EventLog にのみ書き込みます。 このため、「ID の最大値」メソッドを使用すると、イベントを見落としてしまう可能性があります。ただし、[GitHub サイトのイベント トリガ フレームワーク](https://github.com/shotgunsoftware/shotgunEvents)には、この状況を処理できるコードがあります。
\ No newline at end of file
diff --git a/docs/ja/event-daemon/images/dv-writing-event-triggers-event-log-polling-01.png b/docs/ja/event-daemon/images/dv-writing-event-triggers-event-log-polling-01.png
deleted file mode 100644
index c0b8cad4c..000000000
Binary files a/docs/ja/event-daemon/images/dv-writing-event-triggers-event-log-polling-01.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/create_webhook_button.png b/docs/ja/guides/images/webhooks/create_webhook_button.png
deleted file mode 100644
index afd839597..000000000
Binary files a/docs/ja/guides/images/webhooks/create_webhook_button.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/create_webhook_dialog.png b/docs/ja/guides/images/webhooks/create_webhook_dialog.png
deleted file mode 100644
index b9ef0fa23..000000000
Binary files a/docs/ja/guides/images/webhooks/create_webhook_dialog.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/delivery_details.png b/docs/ja/guides/images/webhooks/delivery_details.png
deleted file mode 100644
index 569eb8f41..000000000
Binary files a/docs/ja/guides/images/webhooks/delivery_details.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/delivery_status.png b/docs/ja/guides/images/webhooks/delivery_status.png
deleted file mode 100644
index 9dce1d8e4..000000000
Binary files a/docs/ja/guides/images/webhooks/delivery_status.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/webhook_selected_status.png b/docs/ja/guides/images/webhooks/webhook_selected_status.png
deleted file mode 100644
index 7d3de38a2..000000000
Binary files a/docs/ja/guides/images/webhooks/webhook_selected_status.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/webhook_status_active.png b/docs/ja/guides/images/webhooks/webhook_status_active.png
deleted file mode 100644
index 7115ba381..000000000
Binary files a/docs/ja/guides/images/webhooks/webhook_status_active.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/webhook_status_disabled.png b/docs/ja/guides/images/webhooks/webhook_status_disabled.png
deleted file mode 100644
index 6a3c9c8ed..000000000
Binary files a/docs/ja/guides/images/webhooks/webhook_status_disabled.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/webhook_status_failed.png b/docs/ja/guides/images/webhooks/webhook_status_failed.png
deleted file mode 100644
index d22ee39f9..000000000
Binary files a/docs/ja/guides/images/webhooks/webhook_status_failed.png and /dev/null differ
diff --git a/docs/ja/guides/images/webhooks/webhook_status_unstable.png b/docs/ja/guides/images/webhooks/webhook_status_unstable.png
deleted file mode 100644
index 4acb74217..000000000
Binary files a/docs/ja/guides/images/webhooks/webhook_status_unstable.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations.md b/docs/ja/guides/pipeline-integrations.md
deleted file mode 100644
index 9103d5acf..000000000
--- a/docs/ja/guides/pipeline-integrations.md
+++ /dev/null
@@ -1,12 +0,0 @@
----
-layout: default
-title: パイプライン統合
-pagename: toolkit-pipeline-integrations
-lang: ja
----
-
-# パイプライン統合
-
-{% include product %} のパイプライン統合により、アーティストは {% include product %} データを使用できるようになります。一般的なコンテンツ作成ソフトウェア内のカスタマイズ可能な UI を使用すれば、アーティストは自分のタスクに関する情報の表示、ノートの参照や追加、およびチームメンバーとのファイルの共有を設定なしで行うことができます。パイプライン統合は {% include product %} Toolkit プラットフォーム上に構築されます。開発者は Toolkit API を使用して機能を拡張したり、カスタム Toolkit アプリを作成したりできます。
-
-このセクションでは、{% include product %} パイプラインの管理作業を開始するときに役立つ学習資料について説明します。パイプラインの設定とプロダクション ファイル システムの管理に関するガイド、基本的な vfx パイプラインの構築に関するチュートリアル、および独自のパイプライン ツールを作成するためのリソースが示されています。
diff --git a/docs/ja/guides/pipeline-integrations/administration.md b/docs/ja/guides/pipeline-integrations/administration.md
deleted file mode 100644
index 7dbe33d65..000000000
--- a/docs/ja/guides/pipeline-integrations/administration.md
+++ /dev/null
@@ -1,12 +0,0 @@
----
-layout: default
-title: 管理
-pagename: toolkit-administration
-lang: ja
----
-
-# 管理
-
-{% include product %} のパイプライン統合により、幅広いカスタマイズ オプションが提供されます。スタジオが必要とするパイプラインを稼働させるには、設定を行い、コマンドライン ツールを実行し、スタジオ環境で {% include product %} ツールが動作することを確認する必要があります。
-
-このセクションには、スタジオの {% include product %} Toolkit パイプラインの管理に関する情報が記載されています。
diff --git a/docs/ja/guides/pipeline-integrations/administration/advanced-toolkit-administration.md b/docs/ja/guides/pipeline-integrations/administration/advanced-toolkit-administration.md
deleted file mode 100644
index 67e88584c..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/advanced-toolkit-administration.md
+++ /dev/null
@@ -1,1525 +0,0 @@
----
-layout: default
-title: 高度な Toolkit 管理
-pagename: advanced-toolkit-administration
-lang: ja
----
-
-# 高度な Toolkit 管理
-
-ここでは、高度な設定用に Toolkit を管理および設定する方法について紹介します。
-
-このトピックの内容:
-- [はじめに](#introduction)
-- [Tank コマンドを使用する](#using-the-tank-command)
- - [デバッグ モードで実行する](#running-in-debug-mode)
- - [Tookit API を使用して Tank コマンドを実行する](#running-tank-commands-via-the-tookit-api)
- - [役に立つ Tank コマンド](#useful-tank-commands)
- - [setup_project](#setup_project)
- - [core](#core)
- - [configurations](#configurations)
- - [updates](#updates)
- - [install_app, install_engine](#install_app-install_engine)
- - [app_info](#app_info)
- - [folders, preview_folders](#folders-preview_folders)
- - [shell](#shell)
- - [dump_config](#dump_config)
- [高度な Tank コマンド](#advanced-tank-commands)
-- [Toolkit Python API](#the-toolkit-python-api)
-- [パイプライン設定とサンドボックス](#pipeline-configurations-and-sandboxes)
- - [サンドボックス用に Tank コマンドを実行する](#running-the-tank-command-for-a-sandbox)
- - [サンドボックスの Core API を使用する](#using-the-core-api-from-a-sandbox)
- - [サンドボックスにアクセスする](#accessing-a-sandbox)
- - [パイプライン設定をローカライズする](#localizing-a-pipeline-configuration)
- - [クローン作成した環境設定を削除する](#deleting-a-cloned-configuration)
-- [更新を確認する](#checking-for-updates)
- - [ステージング サンドボックスを作成する](#creating-a-staging-sandbox)
-- [アプリの起動方法を設定する](#configuring-how-apps-are-launched)
-- [ディスク上にフォルダを作成する](#creating-folders-on-disk)
- - [ファイル システムの場所](#filesystem-locations)
- - [Toolkit のフォルダの名前を変更する](#renaming-toolkit-folders)
- - [遅延作成とユーザ サンドボックス](#deferred-creation-and-user-sandboxes)
-- [テンプレートを設定する](#configuring-templates)
- - [テンプレート ファイルの @include 構文](#include-syntax-in-the-template-file)
- - [テンプレート ファイルに外部ファイルを含める](#including-external-files-in-your-template-file)
- - [フォルダ作成とテンプレート](#folder-creation-and-templates)
-- [フック](#hooks)
- - [アプリ レベル フック](#app-level-hooks)
- - [コア レベル フック](#core-level-hooks)
- - [スタジオ レベル フック](#studio-level-hooks)
- - [プロジェクト名フック](#project-name-hook)
- - [接続フック](#connection-hook)
-- [アプリとエンジンを設定する](#configuring-apps-and-engines)
- - [アプリごとの場所の設定](#each-app-has-a-location-setting)
- - [ファイルをインクルードする](#including-files)
- - [テンプレート設定(ファイル パス)を設定する](#configuring-template-settings---file-paths)
- - [フックを使用してアプリの動作をカスタマイズする](#using-hooks-to-customize-app-behaviour)
-
-
-
-
-# はじめに
-
-{% include product %} Toolkit 管理者ガイドへようこそ。このドキュメントでは、管理者から見た {% include product %} Pipeline Toolkit との連携方法、アプリのインストールと更新、新しいプロジェクトのセットアップ、スタジオ設定の管理について説明します。Toolkit はある程度技術的であるため、設定と管理の担当者はシステム管理者、パイプラインやツールの開発者、または TD である必要があります。詳細を説明する前に、以下のドキュメントをまだ確認していない場合は先に確認することをお勧めします。数多くの基本的なコンセプトと、設定管理と更新の概要について説明されています。
-
-[ Pipeline Toolkit の基本的なコンセプトの概要{% include product %}](https://developer.shotgridsoftware.com/ja/e95205a8/)
-
-{% include product %} Toolkit をまだセットアップしていない場合は、『[統合ユーザ ガイド](https://developer.shotgridsoftware.com/ja/d587be80/)』を参照してください。
-
-# Tank コマンドを使用する
-
-{% include product %} Toolkit を管理して Toolkit を一般的に使用する場合は、`tank` コマンドを使用することになります。`tank` コマンドを使用すると、コマンド シェルから管理コマンドと実際のアプリの両方をすばやく簡単に実行できます。
-
-既定では、新しいプロジェクトごとに独自の Core API とその独自の `tank` コマンドを作成します。プロジェクト設定の場所に移動して `tank` コマンドを実行すると、このプロジェクトに適用可能なすべてのコマンドが表示されます。
-
-```
-cd /mnt/software/{% include product %}/big_buck_bunny
-./tank
-```
-Tank コマンドはさまざまな方法で使用することができます。基本的な考え方としては、まず動作させる場所を Tank コマンドに指示し、次に実行する内容を指示します。 実行する内容を指示しない場合は、利用可能なすべてのコマンドのリストが表示されます。 動作させる場所を指示しない場合は、現在のディレクトリが使用されます。 また、Tank コマンドを使用すると、{% include product %} で項目をリスト表示することもできます。
-
-Tank コマンドの使用方法の基本的な概要を次に示します。
-
-```python
-# Show all tank commands for an asset named 'piano'
-> tank Asset piano
-
-# We can also list all assets containing the phrase 'pi'
-> tank Asset pi
-
-# We can execute the built-in folder creation command for
-# the piano
-> tank Asset piano folders
-
-# If the application launcher app is installed, we can launch maya
-# and set the work area to the piano
-> tank Asset piano launch_maya
-
-# Alternatively, we can specify a path on disk instead of a {% include product %} entity
-> tank /mnt/projects/hero/assets/piano launch_maya
-
-# Or we can change our work directory and run tank like this
-> cd /mnt/projects/hero/assets/piano launch_maya
-> tank launch_maya
-```
-## デバッグ モードで実行する
-
-内部で何が起こっているかを確認すると役立つことがあります。`tank` コマンドに `--debug` フラグを渡すと、詳細な出力とタイミング設定が有効になるため、問題を簡単にトラックしたり、予想外の動作の理由を把握したりできます。
-
-## Tookit API を使用して Tank コマンドを実行する
-
-ほとんどの Tank コマンドの実行も API を使用して完全にサポートされています。このため、幅広いスクリプト作成ワークフローの一部として、Toolkit に関連するメンテナンス操作を簡単に実行できます。この詳細については、「[Core API リファレンス](https://developer.shotgridsoftware.com/tk-core/)」を参照してください。
-
-## 役に立つ Tank コマンド
-
-次に、{% include product %} Toolkit の管理に役立つ Tank コマンドの簡単なリストを示します。
-
-### setup_project
-
-{% include product %} Desktop にあるセットアップ プロジェクト ウィザードのコマンド ライン バージョンです。{% include product %} Toolkit を使用して新しいプロジェクトを設定します。{% include product %} 内にプロジェクトがあり、このプロジェクトを拡張して Toolkit を使用する場合は、ここから開始します。コマンドに従ってプロセスを進めると、使用する設定やセットアップするプロジェクトなど、さまざまな情報の入力が求められます。
-
-**同一プロジェクトで setup_project を再実行する**
-
-既定では、setup_project はまだセットアップされていないプロジェクトのみを表示します。ただし、多くの場合、特にテスト中は同一プロジェクトで setup_project を再実行する必要があります。このためには、以前にセットアップされているプロジェクトを特定するメモを使用して、すべてのプロジェクトを表示する --force フラグを指定します。
-
-```python
-> tank setup_project --force
-
-Welcome to SGTK!
-For documentation, see https://support.shotgunsoftware.com
-- Running setup_project...
-
-force mode: Projects already set up with Toolkit can be set up again.
-
-Welcome to SGTK Project Setup!
-
-Connecting to {% include product %}...
-Connecting to the App Store...
-
-------------------------------------------------------------------
-Which configuration would you like to associate with this project?
-
-You can use the configuration from an existing project as a template for this
-new project. All settings, apps and folder configuration settings will be
-copied over to your new project. The following configurations were found:
-
- big_buck_bunny: '/mnt/software/sgtk/big_buck_bunny'
- ghosts: '/mnt/software/sgtk/ghosts'
- chasing_perfection: '/mnt/software/sgtk/chasing_perfection'
-
-If you want to use any of the configs listed about for your new project, just
-type in its path when prompted below.
-
-You can use the Default Configuration for your new project. The default
-configuration is a good sample config, demonstrating a typical basic setup of
-the {% include product %} Pipeline Toolkit using the latest apps and engines. This will be
-used by default if you just hit enter below.
-
-If you have a configuration stored somewhere on disk, you can just enter the
-path to this config it will be used for the new project.
-
-[tk-config-default]:
-Downloading Config tk-config-default v0.4.15 from the App Store...
-
-This is the 'Default Config' config.
-
-Below are all active projects, including ones that have been set up:
---------------------------------------------------------------------
-
-[ 4] Demo Project
- Fubar is an epic story of an on-going political wa...
-
-[ 5] Big Buck Bunny
-Note: This project has already been set up.
- A killer bunny movie
-
-[ 6] The Ghosts of Pere Lachaise
-Note: This project has already been set up.
- De Films en Aiguille and ChezEddy present this year...
-
-[ 7] Chasing Perfection
-Note: This project has already been set up.
- You've seen the car commercials, the car races, and...
-
-[ 8] What Happened to My Headphones?
- The Ryan Mayeda story
-
-Please type in the id of the project to connect to or ENTER to exit:
-```
-
-Toolkit は、プロジェクト セットアップ プロセスの一部としてプロジェクト名を提案します。その名前に問題がない場合は、[Enter]キーを押して続行するか、手動で別の名前を入力できます。
-
-プロジェクト用に特別な独自の命名規則がある場合は、セットアップ プロジェクト プロセスで提案される既定値を制御することもできます。それには高度なスタジオ レベルのフックを使用します。本ドキュメントのスタジオ レベルのフック セクションを参照してください。
-
-### core
-
-Core API の更新をチェックします。アプリ ストアに接続し、最新バージョンの Core API が利用可能かどうかを確認します。利用可能な場合、更新するかどうかを尋ねられます。
-
-このコマンドの出力例:
-
-```python
-> tank core
-
-Welcome to Sgtk!
-Starting Sgtk for your current directory '/private/tmp'
-- Running core...
-
-WARNING: You are potentially about to update the Core API for multiple
-projects.
-
-Welcome to the Sgtk update checker!
-This script will check if the Sgtk Core API
-installed in /mnt/software/sgtk/studio
-is up to date.
-
-You are currently running version v0.13.22 of the Sgtk Platform
-No need to update the Sgtk Core API at this time!
-```
-
-### configurations
-
-プロジェクトの全環境設定の概要を表示します。プロジェクトの現在のアクティビティの概要を取得する場合に便利です。
-
-このコマンドの出力例:
-
-```python
-> tank Project Bunny configurations
-
-Welcome to Sgtk!
-Will search across all {% include product %} Projects.
-- Found Project Big Buck Bunny
-- Starting Sgtk v0.13.22 using configuration
-/mnt/software/sgtk/big_buck_bunny.
-- Setting the Context to Big Buck Bunny.
-- Running configurations...
-
-Fetching data from {% include product %}...
-
-======================================================================
-Available Configurations for Project 'Big Buck Bunny'
-======================================================================
-
-Configuration 'Primary' (Public)
--------------------------------------------------------
-
-This is the Project Master Configuration. It will be used whenever this
-project is accessed from a studio level sgtk command or API constructor.
-
-Linux Location: /mnt/software/sgtk/big_buck_bunny
-Winows Location: z:\mnt\software\sgtk\big_buck_bunny
-Mac Location: /mnt/software/sgtk/big_buck_bunny
-
-This configuration is using a shared version of the Core API.If you want it to
-run its own independent version of the Toolkit Core API, you can run:
-> /mnt/software/sgtk/big_buck_bunny/tank localize
-
-If you want to check for app or engine updates, you can run:
-> /mnt/software/sgtk/big_buck_bunny/tank updates
-
-If you want to change the location of this configuration, you can run:
-> /mnt/software/sgtk/big_buck_bunny/tank move_configuration
-
-This is a public configuration. In {% include product %}, the actions defined in this
-configuration will be on all users' menus.
-
-Configuration 'Dev Area' (Private)
--------------------------------------------------------
-
-Linux Location: /Users/manne/sgtk_dev
-Winows Location: z:\Users\manne\sgtk_dev
-Mac Location: /Users/manne/sgtk_dev
-
-This configuration is using a shared version of the Core API.If you want it to
-run its own independent version of the Toolkit Core API, you can run:
-> /Users/manne/sgtk_dev/tank localize
-
-If you want to check for app or engine updates, you can run:
-> /Users/manne/sgtk_dev/tank updates
-
-If you want to change the location of this configuration, you can run:
-> /Users/manne/sgtk_dev/tank move_configuration
-
-This is a private configuration. In {% include product %}, only Admin 3 will see the actions
-defined in this config. If you want to add additional members to this
-configuration, navigate to the SG Pipeline Configuration Page and add
-them to the Users field.
-```
-
-### updates
-
-このコマンドはプロジェクトに関連付けられているすべての環境を表示し、最新バージョンのアプリやエンジンが利用可能かどうかを確認します。アプリとエンジンのインストール方法に応じて異なりますが、ローカルの git リポジトリ、Github、または {% include product %} Toolkit アプリ ストアが確認されます。最新バージョンが検出された場合は、セットアップを更新するかどうかが尋ねられます。新しい設定パラメータが最新バージョンのアプリで導入されている場合は、値についてプロンプトが表示されることがあります。
-
-一般的な構文:
-
-```
-> tank updates [environment_name] [engine_name] [app_name]
-```
-
-特別なキーワードである ALL を使用すると、カテゴリ内のすべての項目を指定できます。以下に例を示します。
-
-- すべてをチェックする: `tank updates`
-- ショット環境をチェックする: `tank updates Shot`
-- すべての環境内のあらゆる Maya アプリをチェックする: `tank updates ALL tk-maya`
-- ショット環境内のあらゆる Maya アプリをチェックする: `tank updates Shot tk-maya`
-- Loader アプリが常に最新の状態を維持するようにする: `tank updates ALL ALL tk-multi-loader`
-- Loader アプリが Maya で最新の状態を維持するようにする: `tank updates ALL tk-maya tk-multi-loader`
-
-### install_app、install_engine
-
-プロジェクトに関連付けられた環境の 1 つに新しいエンジンまたはアプリをインストールします。このコマンドを使用すると、Toolkit アプリまたは git のいずれかからインストールできます。
-
-### app_info
-
-すべてのアプリとその主な環境設定の概要が表示されます。
-
-### folders、preview_folders
-
-ディスク上で項目のフォルダを作成します。
-
-このコマンドの出力例
-
-```python
-Welcome to Sgtk!
-Will search across all {% include product %} Projects.
-- Found Asset Squirrel (Project 'Big Buck Bunny')
-- Starting Sgtk v0.13.22 using configuration
-/mnt/software/sgtk/big_buck_bunny.
-- Setting the Context to Asset Squirrel.
-- Running folders...
-
-Creating folders, stand by...
-
-The following items were processed:
- - /mnt/projects/big_buck_bunny
- - /mnt/projects/big_buck_bunny/reference
- - /mnt/projects/big_buck_bunny/reference/artwork
- - /mnt/projects/big_buck_bunny/reference/footage
- - /mnt/projects/big_buck_bunny/sequences
- - /mnt/projects/big_buck_bunny/assets
- - /mnt/projects/big_buck_bunny/assets/Character
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/sgtk_overrides.yml
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/publish
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/publish/elements
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/publish/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/publish/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/publish/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/publish/photoshop/jpg
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/publish/photoshop/psd
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/reference
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/reference/artwork
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/reference/footage
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/review
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/images
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/maya/workspace.mel
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/maya/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/nuke/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Art/work/photoshop/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/publish
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/publish/elements
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/publish/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/publish/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/publish/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/publish/photoshop/jpg
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/publish/photoshop/psd
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/reference
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/reference/artwork
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/reference/footage
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/review
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/images
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/maya/workspace.mel
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/maya/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/nuke/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Model/work/photoshop/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/publish
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/publish/elements
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/publish/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/publish/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/publish/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/publish/photoshop/jpg
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/publish/photoshop/psd
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/reference
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/reference/artwork
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/reference/footage
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/review
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/images
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/maya/workspace.mel
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/maya/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/nuke/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Rig/work/photoshop/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/publish
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/publish/elements
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/publish/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/publish/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/publish/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/publish/photoshop/jpg
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/publish/photoshop/psd
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/reference
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/reference/artwork
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/reference/footage
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/review
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/images
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/maya
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/maya/workspace.mel
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/maya/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/nuke
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/nuke/snapshots
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/photoshop
- - /mnt/projects/big_buck_bunny/assets/Character/Squirrel/Surface/work/photoshop/snapshots
-
-In total, 93 folders were processed.
-```
-### shell
-
-現在選択しているコンテキストでインタラクティブな Python シェルを開始します。初期化済み API、コンテキスト、エンジン オブジェクトに関する便利なリファレンスをセットアップします。`./tank shell` を使用すると、Toolkit と {% include product %} API のコード例を試してみることができます。Tank の実行可能ファイルはローカル マシン上の**パイプライン設定ルート**に格納されており、次のようなコードになります。
-
-```
-> cd /my_tank_configs/project_foobar
-```
-
-このコマンドの出力例:
-
-```python
-Welcome to SGTK!
-For documentation, see https://support.shotgunsoftware.com
-You are running a tank command associated with {% include product %} Project 'Chasing the
-Light'. Only items associated with this project will be considered.
-- Found Shot moo87 (Project 'Chasing the Light')
-- Starting the SG pipeline toolkit v0.15.14.
-- Setting the Context to Shot moo87.
-- Started Shell Engine version v0.3.3
-- Environment: /mnt/software/tank/chasing_the_light/config/env/shot.yml.
-- Running shell...
-
-Welcome to SG Pipeline Toolkit Python!
-2.7.1 (r271:86832, Jul 31 2011, 19:30:53)
-[GCC 4.2.1 (Based on Apple Inc. build 5658) (LLVM build 2335.15.00)]
-Running on darwin
-
-- A tk API handle is available via the tk variable
-- A Shotgun API handle is available via the Shotgun variable
-- Your current context is stored in the context variable
-- The shell engine can be accessed via the engine variable
->>>
->>> tk
-
->>>
->>> context
-
->>>
->>> Shotgun
-
->>>
->>> engine
-
->>>
-```
-
-上記の例では、`./tank` は Python シェルを開始し、必要に応じていくつかの変数をセットアップしています。このため、上記変数にこのようなハンドルとコンテキストを指定すると、認証とユーザ セッションのセットアップや {% include product %} サイトへの接続の開始など、基本的な作業が省略されます。
-
-- 変数 `tk` には [Toolkit API](https://developer.shotgridsoftware.com/tk-core/core.html?highlight=context#the-toolkit-core-api) にアクセスできるハンドルがあります。
-- 変数 `{% include product %}` には、サイトに既に接続され、[{% include product %} サイト]のデータベースや他の項目をクエリーする準備が完了した [{% include product %} API](https://developer.shotgridsoftware.com/python-api/) のハンドルがあります。
-- コンテキスト変数は現在のコンテキスト(プロジェクト、ショット、アセット、パイプライン ステップ、ユーザなど)を読み込みます。アクティブなコンテキストの例については、[こちら](https://developer.shotgridsoftware.com/tk-core/core.html?highlight=context#sgtk.Context)を参照してください。この例では、コンテキスト インスタンスを使用して現在のコンテキストを定義する主なフィールド セットを収集します。コンテキストは現在の作業領域として参照することがあります。通常、これは誰かが作業している現在のショットまたはアセットになります。この例で、プロジェクトは「Chasing the Light」、ID は 1184、ショットは「moo87」です。割り当てられたパイプライン ステップやタスクはありませんが、ユーザは Manne です。Toolkit API のスクリプトを作成する場合にこの情報が必要になる場合がありますが、すべての情報はこの便利なコンテキスト変数から入手できます。
-
-```python
-
-```
-
-変数 `engine` は、現在動作中の[シェル エンジン](https://developer.shotgridsoftware.com/ja/2ad59ee8/)のインスタンスを指しています。
-
-### dump_config
-
-Core `v0.18` で利用可能です。
-
-既存の環境設定を `STDOUT` または別のファイルにダンプします。環境設定の完全表現または簡易表現をダンプする機能があります。完全表現にはすべての設定の既定値が含まれ、簡易表現には設定の既定値とは異なる値のみが含まれます。既定では、コマンドの出力には、既定値を見つけた場所のマニフェストと設定とは異なる既定値を記録する各設定のコメントが含まれます。このコマンドは、安全対策として既存のファイルへの環境設定のダンプを許可していません。
-
-使用方法:
-
-```
-./tank dump_config env_name [--sparse | --full] [--no_debug-comments] [--file=/path/to/output/file.yml]
-```
-
-このコマンドの出力例:
-
-```python
-> ./tank dump_config shot_step --sparse --file=/tmp/shot_step.yml
-
-Welcome to SGTK!
-For documentation, see https://support.shotgunsoftware.com
-Starting toolkit for path '/Shotgun/configs/sparse34913'
-- The path is not associated with any SG object.
-- Falling back on default project settings.
-- Running as user 'Toolkit'
-- Using configuration 'Primary' and Core HEAD
-- Setting the Context to sparse34913.
-- Running command dump_config...
-
-----------------------------------------------------------------------
-Command: Dump config
-----------------------------------------------------------------------
-
-Dumping config...
-```
-
-上記のコマンドを実行すると、`/tmp/shot_step.yml` に現在のプロジェクトの環境ファイル `shot_step` の簡易表現のコピーが書き込まれます。
-
-追加のデバッグ コメントを除外するには、`--no_debug_comments` フラグを使用します。
-
-### 高度な Tank コマンド
-
-次に、{% include product %} Toolkit の管理に使用できる高度な Tank コマンドの簡単なリストを示します。
-
-- `tank share_core`: 新しいプロジェクトを作成すると、多くの場合、各プロジェクトで Core API のコピーを独自に管理するように新しいプロジェクトが作成されます。このコマンドを使用すると、このようなプロジェクトの Core API を取り込み、ディスク上の別の場所に移動することができます。これにより、複数のプロジェクトで Core API の 1 つのコピーが共有されるように共有コアを作成できます。
-
-- `tank attach_to_core`: 新しいプロジェクトを作成すると、多くの場合、各プロジェクトで Core API のコピーを独自に管理するように新しいプロジェクトが作成されます。このコマンドを使用すると、独自の組み込みバージョンの Core API を維持するのではなく、既存の Core API インストールに設定を追加できます。
-
-- `tank localize`: このコマンドは、特定のパイプライン設定の場所に Core API をダウンロードします。これは、Toolkit のステージング領域内で新しいバージョンの Core API をテストする場合に役立ちます。このプロセスの詳細はこの文書の後半で説明します。
-
-- `tank clear_cache`: Toolkit の一部のキャッシュをクリアします。これは、メニュー項目が何らかの理由で {% include product %} 内に表示されない場合に役立ちます。
-
-- `tank validate`: プロジェクト設定を検証します
-
-- `tank cache_apps`: 必要なすべてのアプリ、エンジン、およびフレームワークのバージョンがディスク上に保存されていることを確認します。
-
-- `tank switch_app`: 開発に役立ちます。アプリ ストア モードからローカル モードや git モードにアプリを切り替えたり、またはその逆の切り替えを行います。
-
-- `tank push_configuration`: 現在のパイプライン設定に含まれる環境設定を別のパイプライン設定に送信します。
-
-# Toolkit Python API
-
-{% include product %} Desktop、`tank` コマンド、または {% include product %} を使用してアプリケーションを起動する場合、Toolkit は `PYTHONPATH` に自動的に追加されて、初期化されます。Toolkit API を手動で取得して実行する場合に役立つことがあります。このためには、Toolkit Core API を Python パスに追加して読み込みます。
-
-各プロジェクト設定の `project_config_root/install/core/python` 内に `python` フォルダがあります。この場所を Python パスに追加するだけで `sgtk` API を読み込むことができます。
-
-```python
-import sgtk
-
-# create a Sgtk API object for a {% include product %} entity
-tk = sgtk.sgtk_from_entity("Shot", 123)
-
-# Create a Sgtk API object based on a file system location
-tk = sgtk.sgtk_from_path("/mnt/projects/hero/assets/chair")
-```
-
-# パイプライン設定とサンドボックス
-
-パイプライン設定の基本構造はスタジオのインストールと同じです。最も重要なのは、`tank` コマンドと `install/core/python` 内の Toolkit API の両方が含まれることです。API と Tank コマンドが各設定で複製される理由は、プロダクション環境以外で開発と作業を簡単に行うことができるようにするためです。
-
-新しいプロジェクトを {% include product %} Toolkit でセットアップすると、プロジェクトの***プライマリ パイプライン設定***が作成されます。これは常に「プライマリ」と呼ばれ、プロジェクトの主要な設定を表します。プロジェクトのパイプライン設定エンティティの形式で {% include product %} 内に表示される環境設定を確認できます。開発時や環境設定の変更を行う場合、通常はプライマリ環境設定で作業は行いません。何かを偶然壊した場合、そのプロジェクトで作業するすべてのユーザが影響を受けるからです。代わりに、{% include product %} 内の環境設定の「クローン」を作成できます。これで、独自の並列設定を使用して、他のユーザに影響を与えずに変更を加えることができます。
-
-## サンドボックス用に Tank コマンドを実行する
-
-スタジオ レベルの `tank` コマンドを使用してアプリを実行する場合は、プロジェクトに対して常にプライマリ環境設定が使用されます。そのため、`tank Shot ABC123 launch_maya` と入力するだけで、{% include product %} Toolkit はこのショット ABC123 が属するプロジェクトを探し、そのプライマリ パイプライン設定を見つけ、Maya の起動時にその設定が使用されます。あるいは、開発サンドボックスで実験的な設定を使用する必要がある場合は、Maya を起動するために開発サンドボックス内で特定の Tank コマンド(`~/sgtk_dev_sandbox/tank Shot ABC123 launch_maya`)を使用します。Toolkit はプロジェクトのプライマリ環境設定の代わりに開発サンドボックスで実験的な設定を使用できるようになります。
-
-## サンドボックスの Core API を使用する
-
-同様に、スタジオのインストール場所ではなく、パイプライン設定内から Toolkit API を実行する場合は、スタジオの Python API ではなく、`PYTHONPATH` に開発サンドボックスを追加できます。
-
-## サンドボックスにアクセスする
-
-{% include product %} 内ではさらに簡単です。プロジェクトの各パイプライン設定にはこの設定を表示できるユーザのリストがあります。このフィールドを空のままにすると、すべてのユーザにこの設定が表示されます。
-
-
-
-環境設定のクローンを作成すると({% include product %} で右クリックして実行)、この設定と自動的に関連付けられるため、実質的に、この設定は作成者にのみ表示されるようになります。Maya で新しいツールを開発し、アーティストにこのツールをテストしてもらう場合は、パイプライン設定の開発サンドボックスにアーティストを追加するだけで、アーティストがサンドボックスから Maya を起動し、拡張ツールで作業にアクセスできるようになります。
-
-## パイプライン設定をローカライズする
-
-既定では、パイプライン設定はそのコードを、インストールした {% include product %} Toolkit Studio から選択します。Toolkit Studio のインストールには、{% include product %} Toolkit が使用しているすべてのアプリとエンジンのコードのキャッシュと、Toolkit Core API インストールが含まれます。各パイプライン設定は、スタジオの場所にある Core API とアプリ キャッシュを共有します。これは、すべてのプロジェクトに Core API を同時に適用することができるため便利です。スタジオの場所を更新するだけで、すべてのプロジェクトに反映されます。
-
-ただし、パイプライン設定を中断して独立できるようにする際に役立つ場合があります。次にその例を示します。
-
-- もうすぐ完了するプロジェクトがあり、更新を中断して何も変更されないようにする場合。
-- パイプライン設定があり、そこで新しいバージョンの Toolkit Core API をテストする場合。
-- 自宅で作業する場合に使用する Toolkit 最小バンドルを組み立てる場合。
-
-スタジオ インストールから完全に独立したパイプライン設定を作成するこのプロセスは設定の***ローカライズ***と呼ばれ、基本的には Core API をパイプライン設定にコピーすることを意味します。それには `tank localize` コマンドを実行します。
-
-設定をローカライズすると、必然的にスタジオの Tank コマンドを実行できなくなります。基本的に、プロジェクトがローカライズされると、そのローカルにある Tank コマンドと Python API を使用する必要があります。
-
-## クローン作成した環境設定を削除する
-
-クローン作成した環境設定または開発領域がこれ以上必要ない場合は、レコードを削除して、ディスクから削除するだけです。
-
-# 更新を確認する
-
-アプリやエンジンの更新の確認は簡単です。プロジェクトで `tank updates` コマンドを実行するだけです。{% include product %} Toolkit により更新がチェックされ、更新するかどうかが確認されます。既定値が設定されていない新しいパラメータがある場合、更新スクリプトが値の入力を求めるプロンプトを表示します。変更内容の詳細を確認する場合のために、各更新にはリリース ノート ページへの URL リンクが表示されます。このプロセスはいつでも終了できます。
-
-Toolkit Core API の更新は同じくらい簡単です。`tank core` コマンドを実行するだけです。
-
-## ステージング サンドボックスを作成する
-
-プライマリ環境設定で `tank updates` を実行するだけならほとんど問題ありませんが、この環境設定をプロダクション環境に適用する前にテストした方がよい場合があります。この場合、単純にプライマリ パイプライン設定のクローンを作成し、ここで更新コマンドを実行します。Core API をアップグレードする場合、`core` コマンドを実行する前にサンドボックスをローカライズしているかを確認します(ローカライズの詳細については上記を参照)。更新の動作を確認したら、プライマリ環境設定で更新を再び実行します。この方法の詳細については、「[設定を管理する](https://developer.shotgridsoftware.com/ja/60762324/)」を参照してください。
-
-# アプリの起動方法を設定する
-
-インストール直後に設定する必要のある Toolkit 設定の一部にアプリの起動設定があります。これはスタジオが既にカスタマイズしてツールを展開していることの多い領域であるため、柔軟にカスタマイズできるようにしました。
-
-{% include product %} 内からまたは Tank コマンドを使用してアプリケーション(Maya や Nuke など)を起動する場合は、アプリケーションの起動と Toolkit の初期化を管理するアプリを実行します。このアプリは、`tk-multi-launchapp`と呼ばれます。
-
-Toolkit のスターター設定のいずれかを使用して新しいプロジェクトをセットアップする場合は、起動アプリケーションで使用するアプリケーション パスの変更方法に関する手順が表示されます。別のシステムが導入され、同様に機能している場合は、このアプリを使用する必要はありません。通常、ランチャー アプリケーションは次の手順を実行します。
-
-1. 使用するコンテキストを特定します。コンテキストは現在の作業領域を表します。{% include product %} 内のタスク、アセット、またはショットを右クリックすると、クリック対象に基づいてコンテキストが作成されます。Tank コマンドを使用している場合は、コマンド ラインの一部として指定するか、現在のディレクトリから選択します。
-
-2. 次に、アプリケーションの環境設定に基づいてアプリケーションが起動されます。起動アプリケーションは、アプリケーションへのパス、渡すコマンド ライン引数、アプリケーションの起動前に設定する必要があるアプリケーションと環境変数を実行する実際のコードなど、複数の方法で設定できます。
-
-3. 後で Toolkit API が初期化されるように PYTHONPATH が設定されます。
-
-4. アプリケーションを起動すると、Toolkit API が読み込まれて初期化されます。
-
-5. 最後にエンジンが起動します。
-
-**例: {% include product %} Toolkit の起動方法の詳細なサンプル**
-
-Toolkit の通常のブートストラップはいくつかのフェーズで発生します。
-
-- メインのホスト アプリケーションが起動します。これには Python インタプリタが含まれます。最も単純なものとして、標準シェルで実行される CPython インタプリタがあります。また、Maya や Nuke または Python インタプリタが組み込まれたアプリもあります。
-
-- Toolkit Core API が `PYTHONPATH` に追加されて読み込まれます(`import sgtk`)。
-
-- ここで、コンテキストを特定する必要があります。これにはディスク上のパスまたは {% include product %} オブジェクトを指定できます。ファクトリ メソッド `tk = sgtk.sgtk_from_path("/mnt/projects/hero/assets/chair01/lighting")` を使用して Toolkit API インスタンスを作成できるようになりました。または、{% include product %} エンティティ `tk = sgtk.sgtk_from_entity("Shot", 123)` を使用できます。エンティティを使用する場合、上記のコードは {% include product %} に接続し、このショットのパイプライン設定を解決して、ディスク上のパイプライン設定を特定し、ファイル システム テンプレートなどの Sgtk の基本設定をロードします。この時点でロードされるアプリまたはエンジンはありません。パスを参照する場合、ファイル システムを使用してパイプライン設定を特定します。
-
-- ここで、現在の作業領域を表すコンテキスト オブジェクトを作成します。これにはエンティティ `ctx = tk.context_from_entity("Shot", 123)` またはパス `ctx = tk.context_from_path("/mnt/projects/hero/assets/chair01/lighting")` を使用します。
-
-- 最後にエンジンを起動します。Maya を起動していると仮定した場合、Maya の Python インタプリタでこのコマンドを実行すると、`sgtk.platform.start_engine('tk-maya', tk, ctx)` のようになります。これにより、次の操作を実行します。
-
- - コンテキストの選択環境フックを実行します。選択環境フックは使用する環境設定を返します。環境設定には、ロードするすべてのアプリのリストとその設定値が含まれます。
-
- - 環境ファイルが決定されると、エンジンがメモリにロードされます。これにより、エンジン ベースのオブジェクトが自動的にロードされ、その初期化メソッドが実行されます。エンジンがロードされると、すべてのアプリが同じ方法でロードされます。通常、この一環として、エンジンはアプリケーション内に「{% include product %}」メニューを登録し、各アプリは一連のコマンドをエンジンに登録します。このコマンドは後で実行する際のエントリ ポイントになります。ユーザが {% include product %} メニューのどれかをクリックすると、アプリの実行がトリガされます。
-
-完全なサンプルでは次のような行が含まれます。
-
-```python
-# starting up sgtk when your context is based on a path
-import sgtk
-path = "/mnt/projects/hero/assets/chair01/lighting"
-# create a sgtk api handle
-tk = sgtk.sgtk_from_path(path)
-# create a context object
-ctx = tk.context_from_path(path)
-# start the tank engine
-sgtk.platform.start_engine('tk-maya', tk, ctx)
-
-# starting up sgtk when your context is based on a {% include product %} object
-import sgtk
-entity_type = "Shot"
-entity_id = 123
-# create a sgtk api handle
-tk = sgtk.sgtk_from_entity(entity_type, entity_id)
-# create a context object
-ctx = tk.context_from_entity(entity_type, entity_id)
-# start the sgtk engine
-sgtk.platform.start_engine('tk-maya', tk, ctx)
-```
-
-# ディスク上にフォルダを作成する
-
-Toolkit 設定の主な要素の 1 つにファイル システム設定があります。{% include product %} Toolkit は一貫した方法でディスク上にフォルダを作成することができ、作成プロセスは {% include product %} によって決定されます。次に、設定内のコア フォルダの概要を示します。
-
-
-
-フォルダ設定のセットアップは比較的簡単です。この設定の基本は、フォルダがアセットやショットなどを表すことを示すいくつかの設定ファイルを使用して作成する、テンプレート フォルダ構造です。ファイル システム構造を設定する場合、***フォルダ プレビュー***機能を使用すると、作成内容のリストを確認できます。このコマンドは {% include product %} と Tank コマンドの両方で使用できます。
-
-最初に標準フォルダを使用するスキャフォールディングを定義します。アセット、ショット、またはパイプラインの手順などを表現する動的フォルダがスキャフォールディングにある程度作成されている場合、この時点では無視します。結果に問題がなければ、各動的フォルダに動的機能を段階的に追加します。このためには、各フォルダと同じ名前の yml ファイルを追加します。
-
-yml ファイル内で、特殊な構文を使用してフォルダの作成方法を定義します。{% include product %} Toolkit は幅広い動的な動作を数多くサポートしますが、通常の動作は {% include product %} エンティティを表す動的ノードです。この場合、設定ファイルは次のようになります。
-
-```python
-# the type of dynamic content
-type: "Shotgun_entity"
-
-# the Shotgun field to use for the folder name
-name: "{code}_{sg_prefix}"
-
-# the Shotgun entity type to connect to
-entity_type: "Asset"
-
-# Shotgun filters to apply when getting the list of items
-# this should be a list of dicts, each dict containing
-# three fields: path, relation and values
-# (this is std Shotgun API syntax)
-# any values starting with $ are resolved into path objects
-filters:
- - { "path": "project", "relation": "is", "values": [ "$project" ] }
- - { "path": "sg_asset_type", "relation": "is", "values": [ "$asset_type"] }
-
-```
-
-これは、動的フォルダでアセット エンティティの 2 つの {% include product %} フィールドを使用する名前のフォルダを作成する必要があることを示します。標準的な {% include product %} API クエリー構文を使用することで、制限事項の定義も親フォルダに基づいて行われます。考慮する必要があるのは、現在のプロジェクトのアセットとアセット タイプのみです。
-
-サポート対象のノード タイプの完全なリファレンスについては、[リファレンス ドキュメント](https://developer.shotgridsoftware.com/ja/82ff76f7/)を参照してください。
-
-## ファイル システムの場所
-
-Toolkit フォルダ作成システムを使用してディスク上にフォルダを作成した場合、このフォルダは {% include product %} 内で保存およびトラックされます。フォルダは、管理者メニューの下にある、{% include product %} の**[ファイルシステムの場所] (Filesystem Location)**エンティティとして表示されます。通常このデータは Toolkit によってシーンの背後でトラックされるため、ユーザは何も確認する必要がありません。この[ファイルシステムの場所] (Filesystem Location)エンティティはディスク上のフォルダを同期およびトラックするために Toolkit によって使用され、このエンティティを使用すると、最初にフォルダ作成を実行して作成したときと同じようにディスク上にフォルダ構造を再作成できます。[ファイルシステムの場所] (Filesystem Location)エンティティ データは、ディスク上の特定のパスに関連付けられた {% include product %} エンティティを特定する場合に主に使用されます。
-
-パフォーマンス上の理由から、[ファイルシステムの場所] (Filesystem Location)テーブルの内容はユーザのローカル マシン上にキャッシュ化されます。これはフォルダ/エンティティの参照スピードを上げるためです。エキスパート ユーザの場合は、`cache_location` コア フックを変更してこのキャッシュの場所をカスタマイズできます。キャッシュ化されたローカル フォルダ表現は、ディスク上へのフォルダ作成時とアプリケーションの起動時に同期されます。
-
-## Toolkit のフォルダの名前を変更する
-
-Toolkit のフォルダ作成を実行すると、{% include product %} のエンティティとディスク上のフォルダ間の接続が確立されます。Toolkit はそのフォルダ スキーマ設定を使用して、ディスク上に一連のフォルダを生成します。各フォルダは {% include product %} に `Filesystem Location` エンティティとして登録されます。これは、{% include product %} データ(ショットやアセット名など)と設定がディスクの実際のフォルダおよび {% include product %} に「ベイク処理」されていると考えることができます。
-
-フォルダが作成されると、{% include product %} のエンティティの名前を自由に変更できなくなります。エンティティの名前を変更しようと Toolkit を起動すると、エラー メッセージが表示されます。これは、特定のエンティティに関連付けられたフォルダのトラック情報を失わないようにするためです。
-
-Toolkit のフォルダの名前を変更するには、次の手順を実行します。
-
-- 最初に {% include product %} のエンティティ(アセットまたはショット)の名前を変更します。
-- `tank unregister_folders` コマンドを実行して登録されているフォルダを登録解除します。これにより、ディスク上のエンティティと場所の関係をトラッキングする {% include product %} の[ファイルシステムの場所] (Filesystem Location)エンティティが削除されます。このコマンドはディスク上のコンテンツには影響せず、ディスク上の場所を示す {% include product %} の `Filesystem Location` エンティティにだけ影響します。たとえば、Plant という名前の付いたアセットのフォルダを登録解除するには、`tank Asset Plant unregister_folders` コマンドを実行します。登録解除するフォルダの概要が表示され、この操作を確定するように求められます。
-- フォルダを登録解除すると、基本的にはアセットを「リセット」したことになります。このアセットとフォルダの関連付けはなくなるため、{% include product %} で新しい名前を指定してフォルダ作成を実行すると、ディスク上に新しいフォルダが作成されます。
-- 最後に、ディスク上の以前の場所から新しい場所にデータを移動します。また、ファイル間のリンクが更新され、新しい場所をポイントすることを確認してください。
-
-## 遅延作成とユーザ サンドボックス
-
-Toolkit のフォルダ作成をセットアップして、フォルダ作成コマンドを実行したときとアプリケーションを起動する直前という 2 つのフェーズで実行されるようにすることもできます。これは Toolkit アプリケーション ランチャーに組み込まれた動作です(フォルダ作成を実行する標準的な API メソッドを呼び出すだけです)。遅延フォルダ作成を使用すると、次の状況に対応できます。
-
-- パイプラインに複数の異なるコンテンツ作成アプリケーションがあるが実際に必要になるまでどのアプリケーションにも完全なフォルダ スキャフォールディングを追加しない場合、各コンテンツ作成アプリケーションで設定内に独自の遅延サブツリーが設定されるようにフォルダ作成をセットアップできます。制作者または管理者がショット用のフォルダを作成する場合、Maya、Nuke、Mari などの作業領域を作成する直前に停止します。その後、アプリケーションを起動すると、このフォルダはアプリケーションの起動直前に作成されます。
-- ファイル システム内のユーザ ベースのサンドボックスを作成する場合は、作業を開始する直前に作成する必要があります。遅延フォルダ作成を使用すると、このプロセスを簡単にする特別なユーザ ノードを追加できます。テンプレート設定でユーザ ノードを参照する場合は、{% include product %} API での表記方法である HumanUser を使用します。
-
-遅延作成の詳細については、[リファレンス ドキュメント](https://developer.shotgridsoftware.com/ja/82ff76f7/)を参照してください。
-
-# テンプレートを設定する
-
-ファイル システム構造を作成したら、上記のフォルダ構造に基づいて一連のファイル システムの場所を設定することをお勧めします。この場所は「テンプレート」と呼ばれ、{% include product %} Toolkit に不可欠なものです。テンプレート ファイルには 3 つのセクションがあります。各フィールドの意味を定義できるキー セクション、テンプレート パスを定義できるパス セクション、文字列式を定義できる文字列セクションです。 ファイルでは 2 つの構文を使用できます。1 つのストレージ ルートを持つ設定に使用できるシンプルな形式の構文と、マルチルート設定に使用できる高度な構文です。
-
-**例: 単一のルート テンプレート形式**
-
-```yml
-# The keys section contains the definitions for all the different keys that are being
-# used in the Toolkit. A key is a magic token that is replaced by a value at runtime, for example
-# {Shot}. The section below tells the Toolkit which data types and formats to expect for each key.
-keys:
- Sequence:
- type: str
- Shot:
- type: str
- Step:
- type: str
- sg_asset_type:
- type: str
- Asset:
- type: str
- name:
- type: str
- filter_by: alphanumeric
- iteration:
- type: int
- version:
- type: int
- format_spec: '03'
- version_four:
- type: int
- format_spec: '04'
- alias: version
- timestamp:
- type: str
- width:
- type: int
- height:
- type: int
- channel:
- type: str
- filter_by: alphanumeric
- SEQ:
- type: sequence
- format_spec: '04'
- eye:
- type: str
-
-# The paths section contains all the the key locations where files are to be stored
-# by the Toolkit Apps. Each path is made up of several keys (like {version} or {shot}) and
-# these are defined in the keys section above.
-#
-# Toolkit apps use these paths as part of their configuration to define where on disk
-# different files should go.
-paths:
-
- ##########################################################################################
- # Shot pipeline / maya
-
- shot_root: 'sequences/{Sequence}/{Shot}/{Step}'
-
- # define the location of a work area
- shot_work_area_maya: '@shot_root/work/maya'
-
- # define the location of a publish area
- shot_publish_area_maya: '@shot_root/publish/maya'
-
- # The location of WIP files
- maya_shot_work: '@shot_root/work/maya/{name}.v{version}.ma'
-
- # The location of backups of WIP files
- maya_shot_snapshot: '@shot_root/work/maya/snapshots/{name}.v{version}.{timestamp}.ma'
-
- # The location of published maya files
- maya_shot_publish: '@shot_root/publish/maya/{name}.v{version}.ma'
-
- ##########################################################################################
- # Asset pipeline / maya
-
- asset_root: 'assets/{sg_asset_type}/{Asset}/{Step}'
-
- # define the location of a work area
- asset_work_area_maya: '@asset_root/work/maya'
-
- # define the location of a publish area
- asset_publish_area_maya: '@asset_root/publish/maya'
-
- # The location of WIP files
- maya_asset_work: '@asset_root/work/maya/{name}.v{version}.ma'
-
- # The location of backups of WIP files
- maya_asset_snapshot: '@asset_root/work/maya/snapshots/{name}.v{version}.{timestamp}.ma'
-
- # The location of published maya files
- maya_asset_publish: '@asset_root/publish/maya/{name}.v{version}.ma'
-
-# The strings section is similar to the paths section - but rather than defining paths
-# on disk, it contains a list of strings. Strings are typically used when you want to be
-# able to configure the way data is written to {% include product %} - it may be the name field for a
-# review version or the formatting of a publish.
-strings:
-
- nuke_shot_version_name: '{Shot}_{name}_{channel}_v{version}.{iteration}'
- nuke_asset_version_name: '{Asset}_{name}_{channel}_v{version}.{iteration}'
-```
-
-**例: マルチ ルート テンプレート形式**
-
-```yml
-#
-# The keys section contains the definitions for all the different keys that are being
-# used in the Toolkit. A key is a magic token that is replaced by a value at runtime, for example
-# {Shot}. The section below tells the Toolkit which data types and formats to expect for each key.
-#
-keys:
- Sequence:
- type: str
- Shot:
- type: str
- Step:
- type: str
- sg_asset_type:
- type: str
- Asset:
- type: str
- name:
- type: str
- filter_by: alphanumeric
- iteration:
- type: int
- version:
- type: int
- format_spec: '03'
- version_four:
- type: int
- format_spec: '04'
- alias: version
- timestamp:
- type: str
- width:
- type: int
- height:
- type: int
- channel:
- type: str
- filter_by: alphanumeric
- SEQ:
- type: sequence
- format_spec: '04'
- eye:
- type: str
-
-# The paths section contains all the the key locations where files are to be stored
-# by the Toolkit Apps. Each path is made up of several keys (like {version} or {shot}) and
-# these are defined in the keys section above.
-# Toolkit apps use these paths as part of their configuration to define where on disk
-# different files should go.
-paths:
-
- ##########################################################################################
- # Shot pipeline / Maya
-
- shot_root: 'sequences/{Sequence}/{Shot}/{Step}'
-
- # define the location of a work area
- shot_work_area_maya:
- definition: '@shot_root/work/maya'
- root_name: primary
-
- # define the location of a publish area
- shot_publish_area_maya:
- definition: '@shot_root/publish/maya'
- root_name: primary
-
- # The location of WIP files
- maya_shot_work:
- definition: '@shot_root/work/maya/{name}.v{version}.ma'
- root_name: primary
-
- # The location of backups of WIP files
- maya_shot_snapshot:
- definition: '@shot_root/work/maya/snapshots/{name}.v{version}.{timestamp}.ma'
- root_name: primary
-
- # The location of published maya files
- maya_shot_publish:
- definition: '@shot_root/publish/maya/{name}.v{version}.ma'
- root_name: primary
-
- ##########################################################################################
- # Asset pipeline / Maya
-
- asset_root: 'assets/{sg_asset_type}/{Asset}/{Step}'
-
- # define the location of a work area
- asset_work_area_maya:
- definition: '@asset_root/work/maya'
- root_name: secondary
-
- # define the location of a publish area
- asset_publish_area_maya:
- definition: '@asset_root/publish/maya'
- root_name: secondary
-
- # The location of WIP files
- maya_asset_work:
- definition: '@asset_root/work/maya/{name}.v{version}.ma'
- root_name: secondary
-
- # The location of backups of WIP files
- maya_asset_snapshot:
- definition: '@asset_root/work/maya/snapshots/{name}.v{version}.{timestamp}.ma'
- root_name: secondary
-
- # The location of published maya files
- maya_asset_publish:
- definition: '@asset_root/publish/maya/{name}.v{version}.ma'
- root_name: secondary
-
-# The strings section is similar to the paths section - but rather than defining paths
-# on disk, it contains a list of strings. Strings are typically used when you want to be
-# able to configure the way data is written to {% include product %} - it may be the name field for a
-# review version or the formatting of a publish.
-
-strings:
-
- # when a review version in {% include product %} is created inside of nuke, this is the
- # name that is being given to it (the code field)
- nuke_shot_version_name: '{Shot}_{name}_{channel}_v{version}.{iteration}'
- nuke_asset_version_name: '{Asset}_{name}_{channel}_v{version}.{iteration}'
-```
-
-テンプレート ファイルに使用可能な設定オプションが数多くあります。完全なリファレンスについては、[こちら](https://developer.shotgridsoftware.com/ja/82ff76f7/)を参照してください。
-
-## テンプレート ファイルの @include 構文
-
-テンプレート ファイルで繰り返しを減らすために、フィールドを再利用することができます。
-
-```yml
-paths:
- asset_root: 'assets/{sg_asset_type}/{Asset}/{Step}'
- maya_asset_work: '@asset_root/work/maya/@maya_asset_file'
-
-strings:
- maya_asset_file: '{name}.v{version}.ma'
-```
-
-また、複数のファイル間でテンプレートを分割し、他のファイルにファイルを含めることもできます。詳細については、[リファレンス ドキュメント](https://developer.shotgridsoftware.com/ja/82ff76f7/)を参照してください。
-
-
-## テンプレート ファイルに外部ファイルを含める
-
-環境設定を複数のファイルに分割して他のファイルにファイルを含めるのと同じように、テンプレート ファイルをこの方法で管理することができます。これは、複数のプロジェクトで共有されるグローバル環境設定をセットアップする場合などに役立ちます。
-
-次のいずれかの include 構文を使用して、`templates.yml` ファイルに別のファイルを含めます。
-
-```yml
-# single include using a path local to the location of the current file
-include: './include_file.yml'
-# multiple incudes, processed in order
-includes: ['./include_file_1.yml', './include_file_2.yml']
-# you can also use absolute paths when including things:
-include:
-# files that are not recognized are skipped, so you can put paths for
-# windows and linux next to each other for multi platform support:
-includes: ['/foo/bar/hello.yml', 'z:\foo\bar\hello.yml']
-# you can use environment variables inside of full paths too
-includes: ['$STUDIO_ROOT/foo/bar/hello.yml', '%STUDIO_ROOT%\foo\bar\hello.yml']
-```
-
-含めるファイルにはメインの templates.yml ファイルと同じ構造が必要です。つまり、`paths`、`keys`、および `strings` セクションが含まれている必要があります。Toolkit が複数の include を処理する場合、降順かつ深さ優先で再帰的に読み込みを行い、`paths`、`keys`、および `paths` の 3 つの「バケット」にデータを個別に追加します。この処理中に値がバケット内に既に存在する場合は上書きされます。すべての include が処理されると、環境設定全体が検証されます。
-
-次に、簡単な例を示します。これはメインの `templates.yml` ファイルです。
-
-```yml
-include: ./global_defs.yml
-keys:
- name:
- type: str
- filter_by: alphanumeric
- version:
- type: int
- format_spec: "03"
-paths:
- maya_shot_work: '@shot_root/work/maya/{name}.v{version}.ma'
-```
-これは追加されたファイル `global_defs.yml` のコンテンツです。
-
-```yml
-keys:
- Sequence:
- type: str
- Shot:
- type: str
- Step:
- type: str
-paths:
- shot_root: sequences/{Sequence}/{Shot}/{Step}
-```
-
-各ファイルに必要なすべての情報が含まれるように、キーとパスを一緒に保管することをお勧めします(ただし、常に適切だとは限りません)。通常は、これで維持が簡単になります。
-
-## フォルダ作成とテンプレート
-
-フォルダ作成システムで作成されたフォルダを参照するテンプレートを作成する場合、「{% include product %} API」スタイルの表記を使用してフィールドを指定する必要があります。これは見逃してしまいがちな細かい設定です。上記の例はそのことを適切に示しています。フォルダ作成では、最初にアセット タイプとアセット名ごとに項目をグループ化する環境設定をセットアップします。以下に例を示します。
-
-```
-/mnt/projects/my_project/assets/character/Hero
-```
-
-その後、このパスに一致するテンプレートを Toolkit で作成します。パスとコンテキストが設定されたテンプレートと {% include product %} Toolkit を一致させるには、{% include product %} API を使用して名前を付けた場合と同じようにフィールドに名前を付けます。アセット タイプ フォルダ レベルは {% include product %} のこのフィールドのフィールド名であるため、`sg_asset_type` と名前を付ける必要があります。アセット レベル フォルダには `Asset` (大文字 A)と名前を付ける必要があります。これは {% include product %} API を使用する場合にアセット エンティティ タイプをこのように参照するからです。
-
-# フック
-
-フックは Toolkit 設定の中で柔軟性に優れた部分です。通常、アプリ、エンジン、または Core API を設定する場合は、何らかの動作を定義するパラメータのコレクションを指定します。しかし、これでは十分な強力さが得られない場合があります。そのときはフックを使用します。 フックは Python コードの小さなかたまりで、アプリ、エンジン、または実際の Core の特性をカスタマイズするために使用できます。フックは軽量でアトミックになるように設計されています。フックは Toolkit に 3 つの異なるレベルで表示されます。各レベルの詳細については、以下のセクションを参照してください。
-
-## アプリ レベル フック
-
-各 Toolkit アプリ(これに該当するエンジン)には一連の設定が含まれ、その一部はフックです。各アプリには既定のフック コレクションが設定されており、特別にオーバーライドしない限り自動的に使用されます。通常、フックはアプリケーション固有の動作をカスタマイズするために使用します。たとえば、Maya にイメージをロードする Toolkit の場合、UI コードとすべての相互作用ロジックはアプリ内に格納されていますが、実際にイメージを Maya にロードするビジネス ロジックの一部はフック内に格納されています。このため、スタジオで動作をカスタマイズすることができます。既定のフックは Maya で標準的なテクスチャ ノードを作成するだけですが、異なるノード タイプの使用を望むスタジオはこのフックをオーバーライドして、コードを再作成せずにアプリ全体の動作を簡単に変更できます。
-
-アプリのフックをカスタマイズする場合は、通常、アプリのフック フォルダ内の既定のフックをプロジェクトのフック フォルダにコピーします。次に、既定のフックではなく、新しいフックが読み込まれるように、環境ファイル内のアプリ設定を更新する必要があります。カスタム フックはアプリに含まれる既定のフックから自動的に継承されるため、既定のフックのビジネス ロジックの大部分を維持したまま簡単に微調整することができます。フックの継承の詳細については、「[環境設定リファレンス](https://developer.shotgridsoftware.com/ja/6d10dedf/)」を参照してください。
-
-## コア レベル フック
-
-コア フックを使用すると、Toolkit でシステム全体の動作をオーバーライドできます。コア レベル フックはプロジェクトごとにすべてオーバーライドされるため、各プロジェクトはオーバーライド値で個別にセットアップする必要があります (新しいプロジェクトのセットアップ時と同じ環境設定を再利用する場合は、通常はこの方法が簡単です)。
-
-コア設定領域には特別な `hooks` フォルダがあります。このフォルダには特定のコア フックの独自の実装を格納できます。コア フックはアプリ内のフックと似ており、Toolkit からコード スニペットを抽出してカスタマイズすることができます。Core API を使用すると、ファイル システム I/O、フォルダ作成、ファイル システム構造の検証など、数多くのさまざまなコアの動作をオーバーライドできます。
-
-
-
-既定では、Toolkit は API フォルダ自身から必要なコア フックを選択します。動作をカスタマイズする場合は、自分の環境設定の `config/core/hooks` 領域にフック ファイルをコピーします。次にコードを修正します。
-
-利用可能なコア フックのリストについては、Core API 内のフックのフォルダを確認してください。各フックには、その機能と修正方法に関する広範なドキュメントが含まれます。
-
-## スタジオ レベル フック
-
-「スタジオ レベル フック」と呼ばれるいくつかの非常に特殊なフックもあります。 このフックはグローバルであり、すべてに影響します。特定のプロジェクトには含まれない Toolkit の特性を制御します。
-
-## プロジェクト名フック
-
-プロジェクト セットアップ プロセスによりプロジェクトの「ディスク名」の入力を求めるプロンプトが表示され、{% include product %} でのプロジェクト名に基づいた名前が提示されます。スペースやファイル システム以外に対応した他の文字はアンダースコアに置き換えられます。ディスク名は、プロジェクト データと環境設定が格納されるフォルダの名前になります。
-
-ディスク名の指定にはスラッシュを使用できます。これにより、複数のフォルダ階層に渡るプロジェクト ルート ポイントが生成されます。スタジオで分野(コマーシャルや vfx など)に基づいてプロジェクトを整理する場合や、ファイル システムの 1 つのレベルで概要を表示できないほどスタジオのプロジェクト量が膨大になった場合に役立つことがあります。常にスラッシュ(「/」)を使用する必要があります。Windows では、Toolkit が必要な調整を行います。
-
-上記のマルチ レベルのフォルダを組み合わせると、Toolkit がセットアップ プロセスの一環として推奨する名前をカスタマイズすることもできます。これには特別なスタジオ レベルのフックを使用します。この動作をカスタマイズする場合は、`config/core` フォルダ内のスタジオの API の場所に `project_name.py` という名前のファイルを作成します。このフォルダには、`install_location.yml`、`app_store.yml`、`shotgun.yml` などのファイルが既に含まれています。
-
-`project_name.py` フック ファイルの表示例は次のとおりです。
-
-```python
-from tank import Hook
-import os
-
-class ProjectName(Hook):
-
- def execute(self, sg, project_id, **kwargs):
- """
- Gets executed when the setup_project command needs a disk name preview.
- """
-
- # example: create a name based on both the sg_type field and the name field
-
- sg_data = sg.find_one("Project", [["id", "is", project_id]], ["name", "sg_type"])
-
- # create a name, for example vfx/project_x or commercials/project_y
- name = "%s/%s" % ( sg_data["sg_type"], sg_data["name"] )
-
- # perform basic replacements
- return name.replace("_", "/").replace(" ", "/")
-```
-
-## 接続フック
-
-Toolkit には、関連付けられた {% include product %} インスタンスに接続できるように接続設定が保存されています。動的な方法でこの接続設定を制御すると便利な場合があります。この場合、`config/core` フォルダ内のスタジオの API の場所に `sg_connection.py` という名前のファイルを作成します。このフォルダには、`install_location.yml`、`app_store.yml`、`shotgun.yml` などのファイルが既に含まれています。
-
-{% include product %} 接続後に呼び出されるこのフックは設定ファイル `shotgun.yml` と `app_store.yml` から読み込まれます。一部の外部環境変数に依存するプロキシ サーバのセットアップなど、接続設定を段階的かつ簡単に修正できます。
-
-フックには次の 3 つのパラメータが渡されます。
-
-- `config_data` は、読み込まれた {% include product %} 設定ファイル内の設定を含むディクショナリです。通常、`host`、`api_script`、`api_key`、および `http_proxy` の各キーが含まれます。
-
-- `user` は、接続情報が関連付けられたユーザ プロファイルです。これはエキスパート設定で、通常は `defualt` に設定されています。
-
-- `cfg_path` は、`config_data` のロード元の設定ファイルのパスです。
-
-フックは、config_data と同じ形式のディクショナリを返す必要があります。
-
-プロキシ設定をカスタマイズする場合、プロキシ文字列は、123.123.123.123, 123.123.123.123:8888 や username:pass@123.123.123.123:8888 など、{% include product %} API の作成者が予期する形式と同じものを返す必要があります。
-
-次に、初めての使用に最適な実装例を示します。
-
-```python
-from tank import Hook
-import os
-
-class CustomShotunConnection(Hook):
- """
- Allows for post processing of {% include product %} connection data prior to connection
- """
- def execute(self, config_data, user, cfg_path, **kwargs):
-
- # explicitly set the proxy server setting
- config_data["http_proxy"] = "123.123.123.123"
- return config_data
-```
-
-# アプリとエンジンを設定する
-
-ここでは、ディスク上のすべてのキーの場所を定義するテンプレート ファイルをセットアップし、環境設定内に含めるアプリとエンジンの特定を開始します。導入用マニュアルの他の部分で説明したように、アプリとエンジンの設定は一連の***環境設定***に分けられています。環境設定の基本は代替設定です。これは、多くの場合、それぞれのアプリ スイートでショット作業やアセット作業ごとに設定を変える必要があるため便利です。複雑なパイプラインの場合、モデリングでリギングとは異なるセットアップを指定できるように、部門ごとに設定を分けることができます。これはすべて環境設定で処理されます。
-
-環境ファイルは数多くの利用可能なエンジンを定義します。実行するアプリケーションに応じて、このセクションのいずれかが使用されます。たとえば、Maya を実行する場合、Toolkit に「tk-maya」エンジンを起動するように指示します。{% include product %} Toolkit は使用する環境を(現在の作業領域に基づいて)最初に特定し、この環境内で `tk-maya` エンジンを探します。エンジンが見つかった場合は、このセクションで定義したすべてのアプリにロードします。
-
-各アプリには指定可能な設定が数多く用意されています。アプリをインストールまたはアップグレードする場合は、{% include product %} Toolkit によって、既定値が指定されていない設定を指定するように指示されます。多くの場合、Toolkit アプリは再利用可能であるため、セットアップ方法に応じて、さまざまな方法とワークフローで使用することができます。同じ環境で同じアプリを何回か定義することもできます。たとえば、Maya メニューに 2 つのパブリッシャを表示するとします。1 つがリグ パブリッシュ用、もう 1 つがモデル パブリッシュ用の場合、両方とも同じパブリッシュ アプリを使用して設定をそれぞれ変えられます。
-
-**例: 環境ファイル**
-
-```yml
-include: ./includes/app_launchers.yml
-
-engines:
-
- # 3dsmax engine
- tk-3dsmax:
- debug_logging: false
- location: {name: tk-3dsmax, type: app_store, version: v0.2.6}
-
- # all the registered apps for this engine
- apps:
-
- tk-multi-about:
- location: {name: tk-multi-about, type: app_store, version: v0.1.8}
-
- tk-multi-loader-texture:
- dependency_mode: false
- hook_add_file_to_scene: default
- location: {name: tk-multi-loader, type: app_store, version: v0.2.6}
- menu_name: Load Texture...
- publish_filters: []
- sg_entity_types:
- Asset: []
- single_select: true
- tank_types: [Diffuse Texture, Specular Texture]
-
- tk-multi-publish:
- display_name: Publish
- hook_copy_file: default
- hook_post_publish: default
- hook_primary_pre_publish: default
- hook_primary_publish: default
- hook_scan_scene: default
- hook_secondary_pre_publish: default
- hook_secondary_publish: default
- hook_thumbnail: default
- location: {name: tk-multi-publish, type: app_store, version: v0.2.5}
- primary_description: Publish and version up the current 3ds Max scene
- primary_display_name: 3ds Max Publish
- primary_icon: icons/publish_3dsmax_main.png
- primary_publish_template: max_shot_publish
- primary_scene_item_type: work_file
- primary_tank_type: 3dsmax Scene
- secondary_outputs: []
- template_work: max_shot_work
-
- tk-multi-screeningroom: '@launch_screeningroom'
-
- tk-multi-snapshot:
- hook_copy_file: default
- hook_scene_operation: default
- hook_thumbnail: default
- location: {name: tk-multi-snapshot, type: app_store, version: v0.1.15}
- template_snapshot: max_shot_snapshot
- template_work: max_shot_work
-
- tk-multi-workfiles:
- hook_copy_file: default
- hook_scene_operation: default
- location: {name: tk-multi-workfiles, type: app_store, version: v0.2.5}
- sg_entity_types: [Shot, Asset]
- template_publish: max_shot_publish
- template_publish_area: shot_publish_area_max
- template_work: max_shot_work
- template_work_area: shot_work_area_max
-
- # the maya engine
- tk-maya:
- debug_logging: false
- location: {name: tk-maya, type: app_store, version: v0.2.7}
- menu_favourites:
- - {app_instance: tk-multi-workfiles, name: File Manager...}
- - {app_instance: tk-multi-snapshot, name: Snapshot...}
- - {app_instance: tk-multi-workfiles, name: Save As...}
- - {app_instance: tk-multi-publish, name: Publish...}
- template_project: shot_work_area_maya
-
- # all the registered apps for this engine
- apps:
-
- tk-maya-breakdown:
- hook_multi_update: default
- hook_scan_scene: default
- location: {name: tk-maya-breakdown, type: app_store, version: v0.2.7}
-
- tk-multi-about:
- location: {name: tk-multi-about, type: app_store, version: v0.1.8}
-
- tk-multi-loader-1:
- dependency_mode: false
- hook_add_file_to_scene: default
- location: {name: tk-multi-loader, type: app_store, version: v0.2.6}
- menu_name: Load Assets...
- publish_filters: []
- sg_entity_types:
- Asset: []
- single_select: true
- tank_types: [Maya Model, Maya Rig]
-
- tk-multi-loader-2:
- dependency_mode: false
- hook_add_file_to_scene: default
- location: {name: tk-multi-loader, type: app_store, version: v0.2.6}
- menu_name: Load Shots...
- publish_filters: []
- sg_entity_types:
- Shot: []
- single_select: true
- tank_types: [Maya Anim, Maya Lighting, Maya Scene]
-
- tk-multi-publish:
- display_name: Publish
- hook_copy_file: default
- hook_post_publish: default
- hook_primary_pre_publish: default
- hook_primary_publish: default
- hook_scan_scene: default
- hook_secondary_pre_publish: default
- hook_secondary_publish: default
- hook_thumbnail: default
- location: {name: tk-multi-publish, type: app_store, version: v0.2.5}
- primary_description: Publish and version up the current Maya scene
- primary_display_name: Maya Publish
- primary_icon: icons/publish_maya_main.png
- primary_publish_template: maya_shot_publish
- primary_scene_item_type: work_file
- primary_tank_type: Maya Scene
- secondary_outputs: []
- template_work: maya_shot_work
-
- tk-multi-screeningroom: '@launch_screeningroom'
-
- tk-multi-setframerange:
- location: {name: tk-multi-setframerange, type: app_store, version: v0.1.2}
- sg_in_frame_field: sg_cut_in
- sg_out_frame_field: sg_cut_out
-
- tk-multi-snapshot:
- hook_copy_file: default
- hook_scene_operation: default
- hook_thumbnail: default
- location: {name: tk-multi-snapshot, type: app_store, version: v0.1.15}
- template_snapshot: maya_shot_snapshot
- template_work: maya_shot_work
-
- tk-multi-workfiles:
- hook_copy_file: default
- hook_scene_operation: default
- location: {name: tk-multi-workfiles, type: app_store, version: v0.2.5}
- sg_entity_types: [Shot, Asset]
- template_publish: maya_shot_publish
- template_publish_area: shot_publish_area_maya
- template_work: maya_shot_work
- template_work_area: shot_work_area_maya
-```
-
-## アプリごとの場所の設定
-
-環境ファイルの各項目には特別な `location` トークンがあります。このトークンは、Toolkit がアプリ コードを選択する場所と新しいバージョンのアプリを確認する方法を定義します。たとえば、場所のトークンは次のように定義できます。
-
-```
-location: {name: tk-multi-setframerange, type: app_store, version: v0.1.2}
-```
-
-タイプは、このアプリがアプリ ストアから取得されたものであり、特定のバージョンが使用されていることを示しています。更新チェックを実行すると、{% include product %} Toolkit はアプリ ストアに接続して、`v0.1.2` よりも新しいバージョンがあるかどうか、その場合にアップグレードするかどうかを確認します。Toolkit は、git や github など、異なるいくつかの場所タイプをサポートしているため、独自のアプリを作成し、git を使用してこのアプリをトラックできます。git で新しいタグを作成する場合、この更新はアップグレード チェックで正しく処理されるかを検出します。詳細については、[リファレンス ドキュメント](https://developer.shotgridsoftware.com/ja/6d10dedf/)を参照してください。
-
-## ファイルをインクルードする
-
-環境ファイルに外部ファイルをインクルードすることができます。これは、設定を集中管理したり、オーバーライドを管理したりする場合に便利です。
-
-- 複数の環境で Maya を起動しても、アプリケーション(Maya、Nuke)のすべてのファイル パスを 1 つの場所で管理できるように環境設定を整理することができます。
-
-- 複数の環境で同じ設定を使用するアプリを 1 つの場所で定義できます。
-
-- 複数のプロジェクトで共有される「一括」パイプライン設定を管理でき、それを更新することですべてのプロジェクトが更新のメリットを受けられます。各プロジェクトでは、特定の動作を設定する必要がある場合、含まれる一括設定をオーバーライドまたは拡張できます。
-
-- コンテキストのファイルをオーバーライドとしてインクルードできます。つまり、ショットまたはアセットごとに設定パラメータを再設定することができます。これは、ショットまたはアセットごとに Maya や Nuke などのパスをオーバーライドできる既定の設定に示されています 。
-
-- フル パスで環境変数を使用する場合は自動的に展開されます。Linux の場合、インクルード パーサが混乱するため、環境変数は、`${ENV_VAR}` 形式ではなく `$ENV_VAR` 形式で指定する必要があります。例: `['$STUDIO_ROOT/foo/bar/hello.yml'`、`'%STUDIO_ROOT%\foo\bar\hello.yml']` をインクルードします。
-
-**例: アプリの起動に関するショット固有のオーバーライド**
-
-シェル エンジンで次の環境ファイルを指定するとします。
-
-```yml
-include: ./includes/app_launchers.yml
-
-engines:
- tk-shell:
- debug_logging: false
- location: {name: tk-shell, type: app_store, version: v0.3.0}
-
- apps:
- tk-multi-launch3dsmax: '@launch_3dsmax'
- tk-multi-launchmaya: '@launch_maya'
- tk-multi-launchmotionbuilder: '@launch_motionbuilder'
- tk-multi-launchnuke: '@launch_nuke'
- tk-multi-launchphotoshop: '@launch_photoshop'
-```
-
-各アプリは、`app_launchers` インクルード ファイルで定義されたリファレンスです。このファイルには各アプリの実際のアプリ設定が含まれ、次のようになります。
-
-```yml
-includes:
-
- # first include the configuration's global settings for application paths
- - ./paths.yml
-
- # now include overrides - these will be loaded if they are found
- - sequences/{Sequence}/{Shot}/sgtk_overrides.yml
- - assets/{sg_asset_type}/{Asset}/sgtk_overrides.yml
-
-launch_3dsmax:
- engine: tk-3dsmax
- extra: {}
- hook_app_launch: default
- hook_before_app_launch: default
- linux_args: ''
- linux_path: ''
- location: {name: tk-multi-launchapp, type: app_store, version: v0.2.4}
- mac_args: ''
- mac_path: ''
- menu_name: Launch 3DSMax
- windows_args: ''
- windows_path: '@3dsmax_windows'
-
-launch_maya:
- engine: tk-maya
- extra: {}
- hook_app_launch: default
- hook_before_app_launch: default
- linux_args: ''
- linux_path: '@maya_linux'
- location: {name: tk-multi-launchapp, type: app_store, version: v0.2.4}
- mac_args: ''
- mac_path: '@maya_mac'
- menu_name: Launch Maya
- windows_args: ''
- windows_path: '@maya_windows'
-```
-
-上記のファイルには、Maya や Nuke などの実際のパスは含まれません。その代わりに、別のファイル `paths.yml` で定義されます。
-
-```yml
-# maya
-maya_windows: 'C:\Program Files\Autodesk\Maya2012\bin\maya.exe'
-maya_mac: /Applications/Autodesk/maya2012/Maya.app
-maya_linux: maya
-
-# nuke
-nuke_mac: /Applications/Nuke6.3v8/Nuke6.3v8.app
-nuke_windows: 'C:\Program Files\Nuke6.3v8\Nuke6.3.exe'
-nuke_linux: Nuke6.3
-```
-
-最初、`app_launchers` ファイルには上記のファイルがインクルードされますが、後で `sequences/{Sequence}/{Shot}/sgtk_overrides.yml` もインクルードされます。これはテンプレートのようなコンテキスト固有のファイル パスなので、現在のコンテキストと比較してパスが解決されます。解決する場合は、パスを検出してロードします。つまり、ショットの場所に `sgtk_overrides.yml` を作成し、固有のショットに対してのみアプリケーション パスをオーバーライドします。
-
-```yml
-# maya
-maya_windows: 'C:\Program Files\Autodesk\Maya2012\bin\special_maya.exe'
-```
-
-ここでは、Maya for Windows の特別バージョンを使用しています。残りのパスは `paths.yml` ファイルで定義された元のパスになります。
-
-インクルードの動作の詳細については、[リファレンス ドキュメント](https://developer.shotgridsoftware.com/ja/82ff76f7/)を参照してください。
-
-## テンプレート設定(ファイル パス)を設定する
-
-多くのアプリで使用される重要な設定タイプは `template` です。ファイル システムの場所を指定する必要のあるアプリはこの設定を使用します。アプリは、任意のファイル システム構造または命名規則に対応して汎用性と柔軟性に優れた設計となるように開発されています。テンプレートは、アプリが基本のファイル システムから独立するために重要な部分です。詳細については、[コンセプトの概要](https://developer.shotgridsoftware.com/ja/e95205a8/)を参照してください。
-
-テンプレート設定を伴うアプリを設定する場合、適切なフィールド セットを含むテンプレートを指定する必要があります。フィールドには必須とオプションがあります。必須フィールドはテンプレートに含める必要があり、オプション フィールドはテンプレートに含めることはできますが、このフィールドをテンプレートで定義していなくてもアプリは動作します。
-
-
-
-アプリを実行すると、環境設定で指定したテンプレートのパスが作成されます。このパスは、現在のコンテキストに加えて、アプリ ロジックによって指定された一連のフィールドに基づいて作成されます。つまり、コンテキストに含まれないフィールドまたはアプリのオプション フィールドや必須フィールドに含まれないフィールドがテンプレートに含まれる場合、アプリはそのフィールドの値の設定方法が分からないため、動作しません。この状況は、起動時に環境設定を検証する Toolkit によって回避されます。
-
-テンプレート設定の検証時、Toolkit は最初にコンテキストをチェックし、コンテキストによって指定されたフィールドとテンプレート内のフィールドを比較します。コンテキストと比較されたフィールドのリストがアプリの必須とオプションのパラメータ定義と一致しない場合、検証エラーが発生します。
-
-**実例: スナップショット アプリ**
-
-次に、この機能についての実例を示します。Toolkit アプリの 1 つである**スナップショット アプリ**を見てみましょう。
-
-このアプリでは、多くのテンプレート設定を使用します。次に、アプリ設定ブレイクダウンで定義されている設定の 1 つを示します。
-
-- **設定名**: template_snapshot
-- **タイプ**: template
-- **必要なテンプレート キー**: version
-- **オプション テンプレート キー**: name、timestamp、increment
-- **説明**: スナップショットのバックアップが保存されるディスク上の場所を定義するテンプレートのリファレンスです。
-
-実行時にコンテキストによって指定されるフィールドに加えて、このテンプレート設定には `version` フィールドを含むテンプレートが必要です。また、`name`、`timestamp`、または `increment` のオプション フィールドも含まれますが、他のフィールドは含まれません。以下に例を示します。
-
-ショットのタスクで Maya を起動するとします。コンテキストには次のフィールドが含まれます。
-
-- 現在のプロジェクトが設定されます。
-- 現在のエンティティ(ショットなど)が設定されます。
-- 現在のステップが設定されます。
-- 現在のタスクが設定されます。
-
-エンジンが起動すると、この設定が確認されます。次に、上記の `template_snapshot` フィールドに異なる設定を指定した場合の例を示します。
-
-- テンプレート `sequences/{Sequence}/{Shot}/{Step}/work/maya/{name}.v{version}.ma` は、スナップショット `template_snapshot` 設定を使用すると有効になります。
-
- - `Sequence`、`Shot`、および `Step` がコンテキストで統合されます。コンテキストは現在のショットを把握しているため、自動的に現在のシーケンスが特定されます(ファイル システムの親フォルダであるため)。
- - アプリ設定で必要なテンプレートには `version` フィールドがあります。
- - `name` フィールドはオプションです。
- - 他のフィールドはありません。
-
-- (ショット)コンテキストは `Asset` フィールドの解決方法を把握していないため、テンプレート `assets/{Asset}/work/maya/{name}.v{version}.ma` は無効になります。
-
-- `version` 必須フィールドが見つからないため、テンプレート `sequences/{Sequence}/{Shot}/{Step}/work/maya/{name}.ma` は無効になります。
-
-- フィールド `extension` は不明で、アプリが統合方法を把握していないため、テンプレート `sequences/{Sequence}/{Shot}/{Step}/work/maya/{name}.v{version}.{extension}` は無効になります。
-
-## フックを使用してアプリの動作をカスタマイズする
-
-アプリで頻繁に使用される設定のタイプに `hook` 設定タイプもあります。フックは、アプリが通常の実行の一部として実行するコードの一部です。フックを使用すると、アプリを非常に柔軟にカスタマイズできます。つまり、アプリのビジネス ロジックの一部を実際のアプリ コードから分離できるということです。
-
-たとえば、シーンのさまざまなリファレンスとファイル入力値をスキャンする必要のあるブレイクダウン アプリがあるとします。Maya の場合、Maya が提供する標準的なリファレンス ノードを処理する既定の動作を指定できますが、スタジオでリファレンス ノードのカスタム タイプを使用する場合はどうすればよいでしょうか。通常、スタジオはアプリを選択して github に取り込みますが、シーンのリファレンス ノードをスキャンするコードにカスタム ノード タイプを追加するだけの場合、これは非常に極端な操作です。
-
-その代わりに、ブレイクダウン アプリはシーン スキャン コードのスニペットをフックとして実装できます。つまり、アプリ設定の一部として効果的に設定できるということです。これには、シンプルな Maya の動作を処理する既定値が設定されているため、すぐに利用できますが、必要に応じてこの動作を完全に変更するように {% include product %} Toolkit を設定することも簡単に行えます。
-
-アプリをインストールすると、すべてのフック設定が既定値として環境設定に表示されます。 つまり、アプリは、このアプリに付属する組み込みのフック実装を使用します。たとえば、次に、ランチャー アプリの設定例を示します。
-
-```yml
-launch_maya:
- engine: tk-maya
- extra: {}
- hook_app_launch: default
- hook_before_app_launch: default
- linux_args: ''
- linux_path: '@maya_linux'
- location: {name: tk-multi-launchapp, type: app_store, version: v0.2.4}
- mac_args: ''
- mac_path: '@maya_mac'
- menu_name: Launch Maya
- windows_args: ''
- windows_path: '@maya_windows'
-```
-
-ここでは `hook_app_launch` と `hook_before_app_launch` の 2 つのフックがあり、両方とも既定のアプリ実装を使用しています。これらのフックは、スタジオで起動プロセスをカスタマイズしたり、環境変数を設定したりできるように作成されています。
-
-
-
-これらのフックをカスタマイズするには、最初に元の実装を探す必要があります。各アプリには、フックが登録されるフック フォルダがあります。ここでカスタマイズするフックを選択し、***このフックを環境設定内のフック フォルダにコピー***します。必要に応じてコードを変更します。
-
-環境設定のフックは、変更しない限りまだ `default` に設定されています。アプリに付属する既定のフックのみが選択されます。新しい設定を選択するには、既定値を環境設定のフック フォルダ内にある Python フック ファイルの名前に変更します。
-
-**例: フックをカスタマイズする方法**
-
-次に、アプリ ランチャーの `hook_before_app_launch` フックのカスタマイズ方法に関する概要を示します。
-
-1. 既定のフック実装をコピーします。アプリに付属する既定のフックの場所については、上図を参照してください。ここでこのファイルをフック フォルダの設定領域にコピーします。たとえば、パイプライン設定が `/mnt/software/sgtk/big_buck_bunny` 内に格納されている場合は、ファイルを `/mnt/software/sgtk/big_buck_bunny/config/hooks/before_app_launch.py` にコピーします。
-
-2. 必要に応じて Python コードを変更します。
-
-3. 最後に、新しいコードを使用するように環境設定を更新します。
-
-```yml
-yaml launch_maya: engine: tk-maya extra: {} hook_app_launch: default hook_before_app_launch: before_app_launch # <-- uses custom hook! linux_args: '' linux_path: '@maya_linux' location: {name: tk-multi-launchapp, type: app_store, version: v0.2.4} mac_args: '' mac_path: '@maya_mac' menu_name: Launch Maya windows_args: '' windows_path: '@maya_windows'
-```
-
-次に起動アプリを実行すると、既定のフック コードの代わりにこのコードが実行されます。
\ No newline at end of file
diff --git a/docs/ja/guides/pipeline-integrations/administration/apps-and-engines-config-reference.md b/docs/ja/guides/pipeline-integrations/administration/apps-and-engines-config-reference.md
deleted file mode 100644
index beb106842..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/apps-and-engines-config-reference.md
+++ /dev/null
@@ -1,106 +0,0 @@
----
-layout: default
-title: アプリケーションとエンジン設定のリファレンス
-pagename: toolkit-apps-and-engines-config-ref
-lang: ja
----
-
-# アプリケーションとエンジン設定のリファレンス
-
-このドキュメントでは、{% include product %} Pipeline Toolkit でアプリケーション、エンジン、フレームワークの環境設定を作成する場合に追加できるさまざまなすべてのオプションの概要について説明します。アプリケーションの高度な設定を作成する場合に便利で、開発する場合とパラメータをアプリケーション設定マニフェストに追加する必要がある場合に重要です。
-
-_このドキュメントは、Toolkit の設定を管理するユーザのみが使用可能な機能について説明します。詳細については、『[{% include product %}統合管理者ガイド](https://developer.shotgridsoftware.com/ja/8085533c/)』を参照してください。_
-
-# はじめに
-
-このドキュメントには、Sgtk が構成と設定に使用するさまざまなファイル形式の仕様が含まれます。これは利用可能なさまざまなオプションとパラメータを説明するリファレンス ドキュメントです。環境設定の管理方法に関するベスト プラクティスについては、次のドキュメントを参照してください。
-
-[設定管理のベスト プラクティス](https://developer.shotgridsoftware.com/ja/60762324/)
-
-# {% include product %} Pipeline Toolkit の環境
-
-Toolkit の主要なコンポーネントは次の 3 つです。
-
-- _「エンジン」_ はホスト アプリケーション(Maya や Nuke など)と Sgtk アプリケーション間の変換レイヤまたはアダプタを提供します。アプリケーションは通常、Python と PySide を使用しますが、標準化された方法でホスト アプリケーションを提供するのはエンジンの責任です。たとえば、PySide がまだ存在しない場合は、ホスト アプリケーションの最上位に PySide を追加します。
-- _「アプリ」_ はビジネス ロジックを提供します。基本的に、これは何かを処理するツールです。アプリケーションは特定のホスト アプリケーションで動作するように作成したり、複数のホスト アプリケーションで動作するように設計できます。
-- _「フレームワーク」_ は、エンジン、アプリ、または他のフレームワークで使用されるライブラリです。フレームワークにより、複数のアプリ間で共有されるコードまたは動作を簡単に管理できます。
-
-_「環境ファイル」_ には、エンジン、アプリ、およびフレームワークのコレクションの環境設定が含まれています。このコレクションは「環境」と呼ばれます。Sgtk はさまざまなファイルまたはユーザに対して異なる環境を起動します。たとえば、ショット制作の環境とリギングの環境を設定できます。各環境は 1 つの yaml ファイルです。
-
-環境ファイルは `//software/shotgun//config/env` に格納されています。
-
-yaml ファイルの基本的な形式は次のとおりです。
-
-```yaml
- engines:
- tk-maya:
- location
- engine settings
-
- apps:
- tk-maya-publish:
- location
- app settings
-
- tk-maya-revolver:
- location
- app settings
-
- tk-nuke:
- location
- engine settings
-
- apps:
- tk-nuke-setframerange:
- location
- app settings
-
- tk-nuke-nukepub:
- location
- app settings
-
- frameworks:
- tk-framework-tools:
- location
- framework settings
-```
-
-各アプリとエンジンは設定を介して指定できます。この設定は、アプリやエンジンが `info.yml` と呼ばれるマニフェスト ファイルで公開している設定のリストに対応しています。Sgtk Core の `v0.18.x` 以降、設定はマニフェスト ファイルで指定された既定値と異なる場合にのみ指定する必要があります。マニフェスト ファイルに加えて、通常、構成可能な設定は Toolkit アプリ ストア内のアプリとエンジンのページに表示されます。
-
-各項目で定義されるさまざまな設定とは別に、各アプリ、エンジン、およびフレームワークではそれぞれのコードの格納場所も定義する必要があります。これには特別な `location` パラメータを使用します。
-
-## コードの場所
-
-環境ファイルで定義された各アプリ、エンジン、またはフレームワークには、実行するアプリのバージョンとダウンロード元を定義した `location` パラメータがあります。多くの場合、これは `tank updates` と `tank install` コマンドで自動的に処理されます。ただし、環境設定を手動で編集する場合は、Toolkit の展開と構成用のさまざまなオプションを使用できます。
-
-現在、Toolkit は次の場所の _「記述子」_ を使用してアプリのインストールと管理をサポートします。
-
-- 記述子 **app_store** は Toolkit アプリ ストアの項目を表します
-- 記述子 **{% include product %}** は {% include product %} に保存された項目を表します
-- 記述子 **git** は git リポジトリのタグを表します
-- 記述子 **git_branch** は git ブランチのコミットを表します
-- 記述子 **path** はディスク上の場所を表します
-- 記述子 **dev** は開発者用サンドボックスを表します
-- 記述子 **manual** はカスタムの展開とロールアウトに使用します
-
-さまざまな記述子の使用方法については、[Toolkit リファレンス ドキュメント](http://developer.shotgridsoftware.com/tk-core/descriptor.html#descriptor-types)を参照してください。
-
-## アプリとエンジンを無効にする
-
-アプリまたはエンジンを一時的に無効にすると、役に立つ場合があります。無効にするには、アプリまたはエンジンのロード元を指定する場所のディクショナリに `disabled: true` パラメータを追加することをお勧めします。この構文はさまざまな場所のタイプすべてでサポートされています。たとえば、次のようになります。
-
-```yaml
-location: {"type": "app_store", "name": "tk-nukepublish", "version": "v0.5.0", "disabled": true}
-```
-
-また、特定のプラットフォームのみでアプリを実行する場合は、特別な `deny_platforms` 設定を使用して指定することができます。
-
-```yaml
-location: {"type": "app_store", "name": "tk-nukepublish", "version": "v0.5.0", "deny_platforms": [windows, linux]}
-```
-
-_deny_platforms_ の有効値は、`windows`、`linux`、および `mac` です。
-
-## 設定とパラメータ
-
-各アプリ、エンジン、またはフレームワークは、設定ファイルをオーバーライドできる数多くの設定を明示的に定義します。この設定は、文字列、整数、リストなどのタイプに分類されます。詳細については、[Toolkit リファレンス ドキュメント](http://developer.shotgridsoftware.com/tk-core/platform.html#configuration-and-info-yml-manifest)を参照してください。
diff --git a/docs/ja/guides/pipeline-integrations/administration/beyond-your-first-project.md b/docs/ja/guides/pipeline-integrations/administration/beyond-your-first-project.md
deleted file mode 100644
index b2f477101..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/beyond-your-first-project.md
+++ /dev/null
@@ -1,180 +0,0 @@
----
-layout: default
-title: 最初のプロジェクトの作成後
-pagename: beyond-your-first-project
-lang: ja
----
-
-
-# 最初のプロジェクトの作成後
-
-ここでは、{% include product %} Desktop を使用して最初のプロジェクトを設定および実行した後の作業について説明します。ここには、よくある質問、トピック、役に立つドキュメントが掲載されています。
-
-
-# Toolkit へようこそ
-
-Toolkit へようこそ! このドキュメントを読んでいるということは、{% include product %} Desktop を使用して最初の {% include product %} Pipeline Toolkit プロジェクトのインストールに成功したことになります。
-
-
-
-この段階では、上記のスクリーンショットのような画面や、いくつかのアプリケーション ランチャーが設定されたプロジェクト ページが表示されているはずです。ここでは、Maya、Nuke、または他のアプリケーションを起動してみてください。ファイルとアセットを管理するための詳細な機能を含む {% include product %} メニューが表示されているはずです。
-
-では次に何をしましょうか? Toolkit は、環境設定とその仕組みに関して優れた柔軟性を発揮します。このドキュメントでは、{% include product %} Desktop を使用して最初のプロジェクトを完成したら実行すべきいくつかの推奨手順について説明します。
-
-# 基本設定
-
-このセクションには、一連の調整項目と、設定すると便利な項目が含まれます。最初の Toolkit プロジェクトをセットアップしたら、すべてを正しく機能させるためにたくさんの項目を少しずつ調整することになるでしょう。このセクションでは、それらのさまざまな手順について説明します。その中には設定ファイルの編集や現時点の「具体的な調査」が含まれます。何か質問がありましたら、[サポート サイト](https://knowledge.autodesk.com/ja/contact-support)にアクセスしてサポートを依頼してください。
-
-## アプリケーション パスをセットアップする
-
-最初のプロジェクトをセットアップして、Maya、Motionbuilder、または Nuke のいずれかの起動ボタンをクリックすると、次のようなエラー メッセージが表示される可能性があります。
-
-
-
-Toolkit プロジェクト設定には、起動可能なさまざまな実行可能ファイルへのパスが保存されています。上記のメッセージが表示された場合は、このパスがスタジオのセットアップと一致していない可能性があります。
- この場合、異なるバージョンのアプリケーションが起動されていることもあります。たとえば、既定では Maya 2015 へのパスが設定されていますが、スタジオで Maya 2014 を使っている場合などです。この場合、このパスも変更する必要があります。
-
-既定の設定では、このようなパスはすべて、`paths.yml` と呼ばれる 1 つのファイルに保存されています。パスを変更するためには、ディスク上のプロジェクト設定を特定し、`paths.yml` ファイルが見つかるまで設定フォルダを移動します。
-
-
-
-このファイルを開いて、パスに必要な変更を加えます。ファイルを保存したら、{% include product %} Desktop 内のプロジェクトを終了して、このプロジェクトを再びクリックする必要があります (ただし、アプリケーション全体を再起動する必要はありません)。
-
-**その他の資料**
-
-アプリケーションの詳細については、次のトピックを参照してください。
-
-- [Toolkit アプリケーション ランチャー](https://developer.shotgridsoftware.com/ja/1b9c259a/)
-- [コマンドライン引数を渡す](https://developer.shotgridsoftware.com/ja/1b9c259a/)
-
-
-## {% include product %} 統合
-
-Toolkit は {% include product %} と統合し、特別なツールキット アクション メニュー アイテムを UI のさまざまな部分に追加することで従来のインタフェースを拡張します。
-
-
-
-これにより、データに作用する Toolkit アプリケーションまたはカスタム ツールを {% include product %} から直接起動できるようになります。{% include product %} サイトとの統合の詳細については、[『管理者ガイド』の「ブラウザの統合」のセクション](https://developer.shotgridsoftware.com/ja/8085533c/)を参照してください。
-
-## {% include product %} UI にパブリッシュを追加する
-
-Toolkit をインストールしたら、通常は {% include product %} UI レイアウトに微調整を加える必要があります。ファイルをパブリッシュすると、{% include product %} Pipeline Toolkit は _パブリッシュ エンティティ_ を作成するため、ショットやアセットなどのキー アセットに _Publishes タブ_ を簡単に追加できます。このためには、管理者ユーザとしてログインする必要があります。アセットまたはショットを選択し、 _[デザイン モード] (Design Mode)_ を選択して開始します。
-
-
-
-ここで、タブ上の小さな三角形のメニューをクリックし、_[新しいタブを追加] (Add New Tab)_ アクションを選択します。これでダイアログ UI が表示されます。_[パブリッシュ] (Publishes)_ タブを呼び出し、 _[パブリッシュ ファイル] (Published File)_ エンティティと関連付けられていることを確認します。
-
-
-
-ここで _[保存] (Save)_ をクリックして変更内容を保存します。設定がすべて完了しました。
-
-注: 新しいタブを作成すると、{% include product %} は取り込むいくつかの既定のフィールドを選択します。パブリッシュ用にいくつかのフィールドを追加する場合があります。このためには、新しいパブリッシュ タブの下に表示されるスプレッドシートの右上隅にある小さなプラス ボタンをクリックします。次のフィールドを追加することをお勧めします。
-
-- **[説明] (Description)**: このパブリッシュの変更に関する説明が表示されます
-- **[作成者] (Created By)**: パブリッシュを作成したユーザ
-- **[作成日] (Date Created)**: パブリッシュが作成された日付
-
-レイアウトを変更する場合は、後でページを忘れずに保存してください。
-
-## 複数のオペレーティング システム
-
-**Python が見つからない**ことを通知するメッセージがドキュメントのこのセクションへのリンクとともに表示される場合があります。
-
-Toolkit は、[Python](https://www.python.org/) と呼ばれる言語を使用してスクリプトと機能を実行します。{% include product %} Desktop には完全な Python がインストールされているため、通常はこのことを心配する必要はありません。{% include product %} Desktop を使用して新しい Toolkit プロジェクトをセットアップすると、既定では、プロジェクトは {% include product %} Desktop にバンドルされた Python を使用するようにセットアップされます。ただし、場合によっては、Toolkit に Python の使用を明示的に指示する必要があります。これは次の場合に発生します。
-
-- すべての Python の既定値が自動的に設定されない、古いバージョンの {% include product %} Desktop を使用する場合。
-- {% include product %} Desktop をディスク上の標準の場所以外にインストールしている場合。
-- 手動または複雑な Toolkit プロジェクト セットアップを実行している場合。
-
-Python へのパスは設定ファイルに保存されており、手動で編集することができます。
-
-
-
-正しいファイルを探すためには、最初にプロジェクト設定に移動します。ここで、`interpreter_` から始まる 3 つのファイルを探します。Linux、Windows、および Mac (「Darwin」)用の Python インタプリタへのパスが含まれています。これらのファイルには、3 つのオペレーティング システム用の Python の場所がそれぞれ含まれます。ここで、使用するオペレーティング システム用の Python の場所を手動で追加する必要があります。
-
-ファイルが空の場合、古いバージョンの {% include product %} Desktop を使用していることを示しています。このような場合は、既定の Python のパスで空のファイルを更新します。既定のパスは次のとおりです。
-
-- Macosx (Darwin): `/Applications/Shotgun.app/Contents/Frameworks/Python/bin/python`
-- Windows: `C:\Program Files\Shotgun\Python\python.exe`
-- Linux: `/opt/Shotgun/Python/bin/python`
-
-標準の場所以外に {% include product %} Desktop をインストールしたり、独自の Python の場所を使用したりする場合は、ファイル内のこのパスが有効な Python インストールをポイントしていることを確認してください。バージョンは v2.6 以上(Python 3 以外)を指定する必要があります。UI ベースのアプリケーションとツールを実行する場合は、指定した Python に PyQt または PySide がインストールされており、QT v4.6 以降にリンクされていることを確認してください。
-
-複数のオペレーティング システムで Toolkit を実行するために、プロジェクト セットアップ ウィザードの実行時にすべての任意のプラットフォームへのパスを指定する必要があることにも注意してください。パスをまだ指定しておらず、別のオペレーティング システムをストレージ パスまたは設定場所に追加する場合は、[サポート サイト](https://knowledge.autodesk.com/ja/contact-support)にアクセスしてサポートを依頼してください。
-
-# 次のステップ
-
-この時点で、{% include product %} プロジェクト(またはテスト プロジェクト)用に既定の {% include product %} セットアップが動作しているはずです。アプリケーションが起動し、コンテキスト メニュー アクションとパブリッシュが {% include product %} に表示され、任意のオペレーティング システム プラットフォームすべてで処理が行われています。
-
-このセクションでは、次の作業、つまり既定の設定を取り込んで、スタジオ パイプラインの全体と機能するように調整するプロセスについて説明します。Toolkit には柔軟性があり、高度にカスタマイズ可能で、たくさんのドキュメントが用意されています。開始前にすべてのアクションを確認するために、数分間を費やしてさまざまなウォークスルー ビデオを視聴することをお勧めします。このビデオでは、{% include product %} Pipeline Toolkit の操作、Maya や Nuke などのアプリケーション内での動作について説明しています。また、パブリッシュ、バージョン管理、読み込みなどの基本的なコンセプトについても説明します。
-
-## Toolkit プロジェクトの構造
-
-新しい Toolkit プロジェクトを作成する場合、いくつかの主要な場所があります。
-
-
-
-- {% include product %} Desktop とその環境設定はローカル マシンにインストールされます (必要に応じて、アプリケーションと環境設定の両方を共有ストレージに配置することができます)。
-- Toolkit プロジェクトがテクスチャ、ファイル、レンダリングなどを保存するデータ領域です。通常この領域は、他のユーザとデータを共有するために共有ストレージ上にありますが、これには例外があります。ユーザ作業領域をローカル(ユーザのみの)ストレージ上に指定し、Perforce 統合などで外部システムを使用してコンテンツを配布する場合です。
-- Toolkit の環境設定は、コード、アプリ、Core API などを完全に独自にバンドルしています。通常、これは共有ストレージに格納されており、すべてのユーザが環境設定に簡単にアクセスできます。
-
-ディスク上のプロジェクト設定にはいくつかの異なる項目が含まれています。
-
-
-
-次のセクションでは、プロジェクト設定フォルダのさまざまな部分について説明します。
-
-### コマンド ライン アクセス
-
-{% include product %} Desktop を使用する場合と同様に、端末またはシェルからも Toolkit にアクセスできます。ディスク上に作成した各プロジェクトには、API セッションやアプリケーションの起動など、たくさんの機能にコマンド ライン ベースでアクセスする特別な `tank` コマンドが用意されています。
-
-プロジェクト設定に移動すると、設定のルートに `tank` と `tank.bat` コマンドが表示されます。オプションを使用せずにこれらのコマンドを実行すると、現在の環境設定でサポートされるすべてのコマンドがリスト表示されます。次のような便利なコマンドもあります。
-
-- `tank shell`: tk api アクセスでインタラクティブな Python シェルを起動します
-- `tank core`: このプロジェクトの Core API に更新があるかどうかを確認します
-- `tank updates`: この設定のアプリまたはエンジンに更新があるかどうかを確認します
-
-`tank` コマンドの実行内容の詳細については、詳細な技術ドキュメントを参照してください。
-
-[Toolkit を管理する方法](https://developer.shotgridsoftware.com/ja/425b1da4/)
-
-### 主要な設定ファイル
-
-`config` フォルダにはいくつかの主要な設定ファイルが含まれます。
-
-
-
-Toolkit には、アプリケーションの起動時に必要なすべての構造がディスク上に用意され、事前に設定が完了するようディスク上にフォルダを自動的に作成するフォルダ作成システムが付属します。この設定は上記の `schema` フォルダ内にあります。
-
-このフォルダにアクセスすると、パブリッシュ、作業ファイル、レンダリングなど、設定可能なファイルへのさまざまなパスを簡単に定義できる Toolkit の _「テンプレート システム」_ があります。これは上記の `templates.yml` ファイルに保存されています。
-
-プロジェクト設定のこれら 2 つを組み合わせると、既存のパイプラインで認識されるディスク上の場所にデータを書き込むために Toolkit が使用するさまざまなアプリを調整できます。
-
-詳細については、高度なドキュメントを参照してください。
-
-- [フォルダの設定](https://developer.shotgridsoftware.com/ja/425b1da4/)
-- [ファイルシステム テンプレート](https://developer.shotgridsoftware.com/ja/425b1da4/)
-
-Toolkit の基本設定では、一連の**アプリとエンジン**が既に設定されています。この設定は `env` フォルダ内に格納されています。上記のファイル システム設定ファイルでディスク上のリソースの _格納場所_ を定義する場合、そのアプリとエンジンを含む環境設定はパイプラインの _動作内容_ を定義します。
-
-
-### Core API プラットフォーム
-
-各プロジェクト設定で一連のアプリとエンジンが使用されます。このアプリとエンジンの環境設定は環境設定内の `env` フォルダに格納されています。Toolkit は、このアプリとエンジンの実行に必要なコードのさまざまなバージョンを自動的にダウンロードおよび管理します。このコードは `install` フォルダ内に配置されます。
-
-環境設定、アプリ、およびエンジンはすべて、Toolkit Core プラットフォーム上で動作します。新しいプロジェクトの場合、これも `install` フォルダに保存されます。基本的に、プロジェクト設定は完全な自己完結型で、Toolkit の実行に必要なすべてのパーツは 1 つの場所に格納されています。また、各プロジェクトは独立しており、1 つのプロジェクトを更新しても別のプロジェクトには影響しません。
-
-テクニカル ノート: 共有 Toolkit Core を使用する(クリックして展開)
-
-### その他の資料
-
-さらに、{% include product %} Pipeline Toolkit の概念と「概要」を説明した技術ドキュメントもあります。最初に Toolkit の操作を簡単に把握したら、自社固有のニーズに合わせて Toolkit を調整する方法について理解できるこのドキュメントを確認することをお勧めします。
-
-[{% include product %} Toolkit の概念の説明](https://developer.shotgridsoftware.com/ja/e95205a8/)
-
-## Toolkit コミュニティ
-
-Toolkit にはパイプライン エンジニアと TD のコミュニティがあります。当社は、Toolkit と組み合わせて強力で柔軟性に優れたパイプライン環境を展開できるようにコードを積極的に共有するコミュニティの作成に取り組んでいます。
-
-質問がある場合や過去の投稿や会話を確認する場合は、[コミュニティ](https://community.shotgridsoftware.com/c/pipeline/6)にアクセスしてください。
-
diff --git a/docs/ja/guides/pipeline-integrations/administration/community-shared-integrations.md b/docs/ja/guides/pipeline-integrations/administration/community-shared-integrations.md
deleted file mode 100644
index b475536ca..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/community-shared-integrations.md
+++ /dev/null
@@ -1,43 +0,0 @@
----
-layout: default
-title: コミュニティで共有されている統合
-pagename: community-shared-integrations
-lang: ja
----
-
-# コミュニティで共有されている統合
-
-以下に示すものは、Toolkit コミュニティのユーザが共有しているプロジェクトです。{% include product %} の開発チームが作成したものではないため、保証は適用されませんが、質問にはお答えします。このリストに自分のプロジェクトを追加したいと思う方は、[サポート サイト](https://knowledge.autodesk.com/ja/contact-support)にアクセスしてサポートを依頼してください。
-
-### エンジン
-
-----------
-
-| 統合 | エンジン | 情報 |
-|:-----------:|:------:| ----------- |
-|
| **tk-katana** | プロジェクトの URL: [https://github.com/robblau/tk-katana](https://github.com/robblau/tk-katana)
プロジェクト投稿者: [Lightchaser Animation](https://github.com/LightChaserAnimationStudio) 社
プロジェクト管理者:
プロジェクトの説明: Foundry 社の Katana 用の {% include product %} エンジン |
-|
| **tk-unreal** | プロジェクトの URL: [https://docs.unrealengine.com/4.26/ja/ProductionPipelines/UsingUnrealEnginewithAutodeskShotgun/](https://docs.unrealengine.com/4.26/ja/ProductionPipelines/UsingUnrealEnginewithAutodeskShotgun/)
プロジェクト投稿者: [Epic Games](https://www.epicgames.com/store/ja/) 社
プロジェクト管理者:
プロジェクトの説明: [Unreal Engine](https://www.unrealengine.com/ja/?lang=ja) 用の {% include product %} エンジン |
-|
| **tk-substancepainter** | プロジェクトの URL: [https://github.com/diegogarciahuerta/tk-substancepainter](https://github.com/diegogarciahuerta/tk-substancepainter)
プロジェクト投稿者: [Factor64](https://www.factor64.com/) 社
プロジェクト管理者: [Diego Garcia Huerta](https://www.linkedin.com/in/diegogh/) 氏
プロジェクトの説明: Adobe 社の Substance Painter 用の {% include product %} エンジン |
-|
| **tk-substancedesigner** | プロジェクトの URL: [https://github.com/diegogarciahuerta/tk-substancedesigner](https://github.com/diegogarciahuerta/tk-substancedesigner)
プロジェクト投稿者: [Factor64](https://www.factor64.com/)
プロジェクト管理者: [Diego Garcia Huerta](https://www.linkedin.com/in/diegogh/)
プロジェクトの説明: Adobe 社の Substance Designer 用の {% include product %} エンジン
詳細情報: [{% include product %} コミュニティ フォーラム](https://community.shotgridsoftware.com/t/substance-designer-shotgun-toolkit-engine-released/9944) |
-|
| **tk-modo** | プロジェクトの URL: [https://github.com/tremolo/tk-modo](https://github.com/tremolo/tk-modo)
プロジェクト投稿者: Lutz Ptälike 氏、[Walking The Dog](http://www.walkingthedog.be/) 社
プロジェクト管理者:
プロジェクトの説明: Foundry 社の Modo 用の {% include product %} エンジン |
-|
| **tk-clarisse** | プロジェクトの URL: [https://github.com/diegogarciahuerta/tk-clarisse](https://github.com/diegogarciahuerta/tk-clarisse)
プロジェクト投稿者: [Factor64](https://www.factor64.com/) 社
プロジェクト管理者: [Diego Garcia Huerta](https://www.linkedin.com/in/diegogh/) 氏
プロジェクトの説明: セットドレッサー、ルック開発、照明、レンダリング用の完全にインタラクティブな CG ツールセット [Clarisse iFX](https://www.isotropix.com/products) 用の {% include product %} エンジンです。 |
-|
| **tk-natron** | プロジェクトの URL: [https://github.com/diegogarciahuerta/tk-natron](https://github.com/diegogarciahuerta/tk-natron)
プロジェクト投稿者: [Factor64](https://www.factor64.com/) 社
プロジェクト管理者: [Diego Garcia Huerta](https://www.linkedin.com/in/diegogh/) 氏
プロジェクトの説明: 無償のオープンソース ノードベースのソフトウェア アプリケーション [Natron](https://natrongithub.github.io/) 用の {% include product %} エンジンです。 |
-|
| **tk-harmony** | プロジェクトの URL: [https://github.com/diegogarciahuerta/tk-harmony](https://github.com/diegogarciahuerta/tk-harmony)
プロジェクト投稿者: [Factor64](https://www.factor64.com/) 社
プロジェクト管理者: [Diego Garcia Hueta](https://www.linkedin.com/in/diegogh/) 氏
プロジェクトの説明: 業界をリードするアニメーション制作ソフトウェア [Toon Boom Harmony](https://www.toonboom.com/products/harmony) 用の {% include product %} エンジンです。 |
-|
| **tk-cinema** | プロジェクトの URL: [https://github.com/mikedatsik/tk-cinema](https://github.com/mikedatsik/tk-cinema)
プロジェクト投稿者: Mykhailo Datsyk 氏
プロジェクト管理者: Mykhailo Datsyk 氏
プロジェクトの説明: モデリング、アニメーション、レンダリングに使いやすいデザイナー向けのツールセット [Maxon Cinema 4D](https://www.maxon.net/ja/cinema-4d) 用の {% include product %} エンジンです。
詳細情報: [{% include product %} コミュニティ フォーラム](https://community.shotgridsoftware.com/t/shotgun-toolkit-engine-for-maxon-cinema-4d/6437) |
-|
| **tk-krita** | プロジェクトの URL: [https://github.com/diegogarciahuerta/tk-krita](https://github.com/diegogarciahuerta/tk-krita)
プロジェクト投稿者: [Factor64](https://www.factor64.com/) 社
プロジェクト管理者: [Diego Garcia Huerta](https://www.linkedin.com/in/diegogh/) 氏
プロジェクトの説明: 主にデジタル ペインティングや 2D アニメーション用に設計されている無償のオープンソース ラスター グラフィックス エディタ [Krita](https://krita.org/jp/) 用の {% include product %} エンジンです。
詳細情報: [{% include product %} コミュニティ フォーラム](https://community.shotgridsoftware.com/t/krita-shotgun-toolkit-engine-released/8724) |
-|
| **tk-blender** | プロジェクトの URL: [https://github.com/diegogarciahuerta/tk-blender](https://github.com/diegogarciahuerta/tk-blender)
プロジェクト投稿者: [Factor64](https://www.factor64.com/) 社
プロジェクト管理者: [Diego Garcia Huerta](https://www.linkedin.com/in/diegogh/) 氏
プロジェクトの説明: アニメーション映画、ビジュアル エフェクト、アート、3D プリント モデル、モーション グラフィックス、インタラクティブな 3D アプリケーション、バーチャル リアリティ、コンピュータ ゲームの作成に使用する無償のオープンソース 3D コンピュータ グラフィックス ソフトウェア ツールセット [Blender](https://www.blender.org/) 用の {% include product %} エンジンです。
詳細情報: [{% include product %} コミュニティ フォーラム](https://community.shotgridsoftware.com/t/blender-shotgun-toolkit-engine-released/10773) |
-
-### アプリ
-
-----------
-
-| 統合 | エンジン | 情報 |
-|:-----------:|:------:| ----------- |
-|
| **tk-maya-playblast** | プロジェクトの URL: [https://github.com/basestudio/tk-maya-playblast](https://github.com/basestudio/tk-maya-playblast)
プロジェクト投稿者: [BASE Studio](https://github.com/basestudio) 社
プロジェクト管理者:
プロジェクトの説明: Maya からプレイブラストをパブリッシュするアプリです。 [https://goo.gl/5oJTv0](https://goo.gl/5oJTv0) を参照してください |
-|
| **tk-multi-renderfarm** | プロジェクトの URL: [https://github.com/baitstudio/tk-multi-renderfarm](https://github.com/baitstudio/tk-multi-renderfarm)
プロジェクト投稿者: [Bait Studio](http://www.baitstudio.com/) 社
プロジェクト管理者:
プロジェクトの説明: ファームに作業を送信するアプリです。 [https://goo.gl/ew6mkD](https://goo.gl/ew6mkD) を参照してください |
-|
| **tk-shotgun-publishrenders** | プロジェクトの URL: [https://github.com/janimation/tk-shotgun-publishrenders](https://github.com/janimation/tk-shotgun-publishrenders)
プロジェクト投稿者:
プロジェクト管理者: [Dave Sisk](mailto:dave@janimation.com) 氏
プロジェクトの説明: このアプリは、既存のパブリッシュ ファイルまたはファイル シーケンスを検出するためにプロジェクトのディレクトリ構造を検索し、パブリッシュ ファイル オブジェクトが存在しない場合は、パブリッシュ ファイルとして {% include product %} にこのオブジェクトを登録します。 |
-|
| **nuke-getShotgunData** | プロジェクトの URL: [https://github.com/RicardoMusch/nuke-getShotgunData](https://github.com/RicardoMusch/nuke-getShotgunData)
プロジェクト投稿者: [Ricardo Musch](https://www.ricardo-musch.com/) 氏
プロジェクト管理者: Ricardo Musch 氏
プロジェクトの説明: {% include product %} のデータを Nuke のテキスト ノードに取り込むのは、少し面倒な場合があります。このノードは、スレート内のパイプやバーンインなど、さまざまな場所で使用できます。 |
-|
| **sb-shotgun-schema-introspection** | プロジェクトの URL: [https://github.com/scottb08/sb-shotgun-schema-introspection](https://github.com/scottb08/sb-shotgun-schema-introspection)
プロジェクト投稿者: [Scott Ballard](https://www.linkedin.com/in/scottballard/) 氏
プロジェクト管理者: Scott Ballard 氏
プロジェクトの説明: シンプルな Toolkit アプリです。{% include product %} や Toolkit の開発者が、{% include product %} のエンティティ、フィールド、基礎となるスキーマに素早く移動して検査できます。 |
-|
| **foto-multi-namingconvention** | プロジェクトの URL: [https://github.com/scottb08/foto-multi-namingconvention](https://github.com/scottb08/foto-multi-namingconvention)
プロジェクト投稿者: [Griffith Observatory](http://www.griffithobservatory.org/) 社
プロジェクト管理者: [Scott Ballard](https://www.linkedin.com/in/scottballard/) 氏
プロジェクトの説明: シンプルな Toolkit アプリです。{% include product %} や Toolkit の開発者が、{% include product %} のエンティティ、フィールド、基盤となるスキーマに素早く移動して検査できます。 |
-|
| **tk-cpenv** | プロジェクトの URL: [https://github.com/cpenv/tk-cpenv](https://github.com/cpenv/tk-cpenv)
プロジェクト投稿者: [Dan Bradham](https://github.com/danbradham) 氏
プロジェクト管理者: [Dan Bradham](https://github.com/danbradham) 氏
プロジェクトの説明: このアプリは、ソフトウェア プラグイン、プロジェクトの依存関係、環境変数を管理するモジュールを使用するツール [cpenv](https://github.com/cpenv/cpenv) のサポートを追加します。
詳細情報: [{% include product %} コミュニティ フォーラム](https://community.shotgridsoftware.com/t/rez-support/7350/7) |
-|
| **rtm-tk-hiero-shotgunDropper** | プロジェクトのURL: [https://github.com/RicardoMusch/rtm-tk-hiero-shotgunDropper](https://github.com/RicardoMusch/rtm-tk-hiero-shotgunDropper)
プロジェクト投稿者: [Ricardo Musch](https://www.ricardo-musch.com/) 社
プロジェクト管理者: Ricardo Musch 社
プロジェクトの説明: このアプリを使用すると、{% include product %} のバージョンとプレイリストを Hiero に読み込むことができます。
詳細情報: [{% include product %} コミュニティ フォーラム](https://community.shotgridsoftware.com/t/release-shotgundropper-for-hiero/4183) |
diff --git a/docs/ja/guides/pipeline-integrations/administration/config-staging-and-rollout.md b/docs/ja/guides/pipeline-integrations/administration/config-staging-and-rollout.md
deleted file mode 100644
index efccc6300..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/config-staging-and-rollout.md
+++ /dev/null
@@ -1,499 +0,0 @@
----
-layout: default
-title: 設定のステージングとロールアウト
-pagename: config-staging-and-rollout
-lang: ja
----
-
-# 設定のステージングとロールアウト
-
-このドキュメントでは、プロダクション パイプラインに変更を安全に展開する方法に関するベスト プラクティスについて説明します。運用環境のコピーであるステージングのサンドボックスを作成する方法、このサンドボックスを更新する方法、テスト方法、最後に運用環境に変更を反映する方法について説明します。
-
-_このドキュメントは、Toolkit の設定を管理するユーザのみが使用可能な機能について説明します。既定の設定については、『[{% include product %}統合管理者ガイド](https://developer.shotgridsoftware.com/ja/8085533c/)』を参照してください。_
-
-# はじめに
-
-このドキュメントでは、Toolkit 設定を管理する方法について説明します。Toolkit には複数のユーティリティとツールが装備されているため、環境設定を管理し、安全なサンドボックス環境でアップグレードと変更をテストしてから、それらをプロダクション環境全体に適用できます。
-
-このドキュメントでは、以下の方法について説明します。
-
-- Toolkit Core API の安全なアップグレード方法
-- アプリとエンジンの更新方法
-- 複数のプロジェクト間で設定を管理するためのさまざまな方法
-- プロダクションを中断せずにアップグレードと変更を安全にテストできるように、Toolkit の _クローン_ 機能と _プッシュ_ 機能にアクセスする方法
-- `git` ソース コントロールと Toolkit の連携方法
-
-# 設定管理の基本
-
-各 Toolkit プロジェクトには関連する 1 つ以上の環境設定があります。環境設定には、ファイル システムの場所(テンプレート)やエンジン アプリなど、プロジェクトで必要になるすべての設定が含まれています。Toolkit では各プロジェクトを個別に設定できます。つまり、異なるプロジェクトが安全に共存でき、あるプロジェクトをアップグレードしても他のプロジェクトには影響しないということです。
-
-大量のプロジェクトを作業していると、プロセスが複雑になることがありますが、このプロセスを簡単かつ安全に合理化できるいくつかの方法を用意しています。
-
-{% include product %} の各プロジェクトには多くの**パイプライン設定**があります。プロジェクトを初めて Toolkit でセットアップする場合、`primary` と呼ばれるパイプライン設定が作成されます。{% include product %} のパイプライン設定エンティティは、Toolkit 設定が格納されているディスク上の場所をポイントしています。
-
-多くの場合、プロジェクトの過程で環境設定に変更を加える必要があります。環境設定を調整したり、他のアプリやエンジンを追加したりする必要があります。また、新しいアプリ バージョンが頻繁にリリースされるため、できるだけ最新バージョンを使用することをお勧めします。
-
-_primary_ プロジェクト設定は簡単にアップグレードできますが、これにはリスクがあります。この設定はプロジェクトのすべてのユーザが使用するため、問題が発生すると、すべてのユーザに影響を与えてしまいます。ある特定のグループのユーザだけがアクセスできるように、個別のバージョンの設定を作成するのが最適です。この安全な環境では、残りの制作環境に影響を与えることなく、アップグレード、設定変更、および開発を行うことができます。変更のテストが完了したら、安全かつ確実に変更をプライマリ環境設定に適用できます。
-
-このプロセスは _「クローン作成」_ と呼ばれます。自分(および招待したその他のユーザ)のみがクローンにアクセスできるようにプライマリ環境設定のコピーを個別に作成するという操作です。ここでは、安全に変更を追加し、特に問題がなければ、この変更をプライマリ環境設定に適用することができます。
-
-## 環境設定のクローンを作成する
-
-Toolkit をセットアップしてプロジェクトを設定したら、セットアップは次のようになります。
-
-
-
-_studio_ インストールにはすべてのプロジェクトの Core API が格納されます。また、この _studio_ の場所には、Toolkit に対応した {% include product %} プロジェクトへのアクセスに使用できる `tank` コマンドと Toolkit Python API も含まれます。
-
-これに加え、各プロジェクトの設定フォルダもあります。このフォルダには当該プロジェクトのすべての設定が含まれます。この設定で特別に動作する `tank` コマンド(および Python API)も含まれます。この `tank` コマンドまたは API コードを使用している場合は、この設定のみを操作できます。
-
-新しいプロジェクトをセットアップすると、「 _プライマリ_ 環境設定」が作成されます。これは Toolkit がプロジェクトに既定で使用する環境設定です。このプライマリ環境設定に加えて、プロジェクトに追加の環境設定を作成できます。これらの環境設定は共存でき、チーム全体に影響を与えずに、変更のテスト、アプリのアップグレード、または開発などを少しずつ個別に行う場合に役立ちます。追加の環境設定は、 _クローン_ 作成と呼ばれる設定を新しい場所にコピーするプロセスによって作成されます。
-
-環境設定のクローンが作成されると、セットアップは次のように表示されます。
-
-
-
-スタジオ レベルの `tank` コマンドとプライマリ プロジェクト設定の `tank` コマンドに加えて、独自の `tank` コマンドを持つ新しいパイプライン設定を使用できるようになりました。この `tank` コマンドを実行すると、ステージング サンドボックスに格納された環境設定のみを操作できます。Maya のいくつかの新しい機能をテストする場合、クローン作成したサンドボックスにアクセスするだけです。`./tank Shot xyz launch_maya` を実行すると、Maya に表示される {% include product %} メニューには、プライマリ環境設定ではなくステージング サンドボックス内の環境設定が反映されます。
-
-スタジオ レベルの `tank` コマンドは常にプライマリ環境設定を使用するため、クローン作成した環境設定にアクセスする唯一の方法は、その場所にアクセスして、そのフォルダに格納された `tank` コマンドを使用することです。{% include product %} では、パイプライン設定のエントリに特定のユーザ セットを割り当てることができます。環境設定に関連付けられたユーザは、プライマリ設定のメニューに加えて、新しいメニュー エントリが表示されます。
-
-
-
-### クローン作成した環境設定を作成する
-
-アップグレードを安全にテストできるステージング サンドボックスを作成するために、{% include product %} でプロジェクトのパイプライン設定にアクセスし、プライマリ環境設定を右クリックします。設定のクローンを作成するためのオプションが表示されます。
-
-
-
-このオプションをクリックすると、この新しい環境設定を格納するディスク上のパスを指定するためのダイアログが表示されます。マルチ OS セットアップを実行している場合は、関連するすべてのプラットフォームにパスを入力してください。
-
-
-
-[OK]をクリックすると、Toolkit は設定をコピーしてクローンをセットアップします。また、クローンを作成したらすぐに {% include product %} ユーザとこの設定が関連付けられるため、{% include product %} 内に新しいメニュー項目が表示されます。
-
-### ステージング サンドボックスの変更をプライマリに適用する
-
-関連する更新を適用して必要なテストを実行したら、`tank push_configuration` コマンドを実行してプロダクション環境に変更を反映することができます。これにより、ステージング サンドボックスで加えたすべての変更がプライマリ環境設定に転送されます。
-
-現在の環境設定は、`push_configuration` コマンドを実行するバックアップ フォルダに移動されます。間違って適用した場合、または適用に問題が発生した場合は、バックアップ フォルダ内のコンテンツを選択し、設定フォルダにコピーするだけでロールバックできます。
-
-既定では、このコマンドはファイル コレクションを対象のパイプライン設定の `config` フォルダにコピーします。UNIX を使用しており、詳細なアトミック更新が必要な場合は、`push_configuration` コマンドに `--symlink` フラグを追加することができます。これにより、対象のパイプライン設定の `config` フォルダがシンボリック リンクに変換されるため、現在実行中のセッションと設定の不一致が発生するリスクがなく、簡単にアップグレードできます。
-
-### クローン作成した古い環境設定を更新する
-
-以前の開発サンドボックスまたはステージング サンドボックスをセットアップしているが、それが古いためそのコンテンツと最新のプロダクション環境を同期する必要がある場合は、プライマリ環境設定で `push_configuration` コマンドを実行します。
-```shell
-tank push_configuration
-
-Welcome to the {% include product %} Pipeline Toolkit!
-For documentation, see https://support.shotgunsoftware.com
-Starting Toolkit for your current directory '/tmp'
-- Using configuration 'Primary' and Core v0.14.52
-- Setting the Context to Empty Context.
-- Running command push_configuration...
-
-----------------------------------------------------------------------
-Command: Push configuration
-----------------------------------------------------------------------
-
-This command will push the configuration in the current pipeline configuration
-('Primary') to another pipeline configuration in the project.
-
-Your existing configuration will be backed up.
-
-The following pipeline configurations are available to push to:
- - [324] Staging Sandbox (/my/staging/sandbox)
-
-Please type in the id of the configuration to push to (ENTER to exit): 324
-Hold on, pushing config...
-Checking if there are any apps that need downloading...
-Push Complete!
-
-Your old configuration has been backed up into the following folder:
-/my/staging/sandbox/config.bak.20140108_093218
-```
-プライマリ プロジェクト設定からステージング サンドボックスに適用する方法にご注目ください。_プライマリ_ 環境設定の `tank` コマンドを実行しています。複数のサンドボックスをセットアップしている場合は、サンドボックス間にデータを適用することもできます。
-
-### クローン作成した環境設定を削除する
-
-クローン作成した環境設定を削除する場合は、{% include product %} のエントリを削除してディスクからフォルダを削除するだけです。
-
-## 最新のアプリとエンジンを取得する
-
-ステージング サンドボックス(または他の環境設定)内で、利用可能なアプリ更新を確認するために `tank updates` コマンドを実行できます。このコマンドには、環境設定の特定の領域を確認する場合にのみ使用できる基本的なフィルタがあります。
-
-```shell
-----------------------------------------------------------------------
-Command: Updates
-----------------------------------------------------------------------
-
-This command will go through your current configuration and check if there are
-any updates available. If there are updates, you will be asked if you want to
-perform an upgrade. If settings has been added to the new version that you are
-installing, you may be prompted to specified values for these.
-
-Running this command with no parameters will check all environments, engines
-and app. This may take a long time. You can also run the updater on a subset
-of your installed apps and engines.
-
-General syntax:
-> tank updates [environment_name] [engine_name] [app_name]
-
-The special keyword ALL can be used to denote all items in a category.
-
-Examples:
-
-Check everything:
-> tank updates
-
-Check the Shot environment:
-> tank updates Shot
-
-Check all maya apps in all environments:
-> tank updates ALL tk-maya
-
-Check all maya apps in the Shot environment:
-> tank updates Shot tk-maya
-
-Make sure the loader app is up to date everywhere:
-> tank updates ALL ALL tk-multi-loader
-
-Make sure the loader app is up to date in maya:
-> tank updates ALL tk-maya tk-multi-loader
-```
-## Toolkit Core API をアップグレードする
-
-このセクションでは、クローンのステージング サンドボックス設定を使用して Toolkit Core API を安全にアップグレードする方法について説明します。ステージング サンドボックスをまだ準備していない場合は、前のセクションの手順に従ってください。
-
-ステージング サンドボックスのクローンが[共有スタジオ Core API](https://developer.shotgridsoftware.com/ja/b12f2510/#how-do-i-update-my-pipeline-configuration-to-use-an-existing-shared-core) を使用してパイプライン設定から作成された場合は、固有の Core API コードを使用するようにサンドボックスを更新することができます。これはコアの「ローカライズ」と呼ばれ、ステージング サンドボックスにアクセスして `tank localize` を実行します。このコマンドにより、スタジオ インストールからサンドボックスに Core API がコピーされるため、後で Core API の別のバージョンを実行およびテストすることができます。
-
-Toolkit の既定の動作は、コアを既定でローカライズすることです。_事前に共有スタジオ コアを明示的に作成していない場合は、コアが既にローカライズされていると見なした方が間違いありません。_
-```shell
-cd /my/staging/sandbox
-./tank localize
-
-Welcome to the {% include product %} Pipeline Toolkit!
-For documentation, see https://support.shotgunsoftware.com
-Starting Toolkit for your current directory '/my/staging/sandbox'
-- Using configuration 'Staging Sandbox' and Core v0.14.52
-- Setting the Context to Empty Context.
-- Running command localize...
-
-----------------------------------------------------------------------
-Command: Localize
-----------------------------------------------------------------------
-
-This will copy the Core API in /mnt/software/shotgun/studio into the Pipeline
-configuration /my/staging/sandbox.
-
-Do you want to proceed [yn]y
-
-Localizing Core: /mnt/software/shotgun/studio/install/core -> /my/staging/sandbox/install/core
-Copying Core Configuration Files...
-Localizing Apps: /mnt/software/shotgun/studio/install/apps -> /my/staging/sandbox/install/apps
-Localizing Engines: /mnt/software/shotgun/studio/install/engines -> /my/staging/sandbox/install/engines
-Localizing Frameworks: /mnt/software/shotgun/studio/install/frameworks -> /my/staging/sandbox/install/frameworks
-The Core API was successfully localized.
-
-Localize complete! This pipeline configuration now has an independent API.
-If you upgrade the API for this configuration (using the 'tank core' command),
-no other configurations or projects will be affected.
-```
-Core API をスタジオの場所で共有しなくなりますが、独自のバージョンを実行しています。ここで、ローカルの Tank コマンドを再び使用して、標準的な Core API アップグレードを実行することができます。
-```shell
-cd /my/staging/sandbox
-./tank core
-```
-Toolkit は新しいバージョンが利用可能かどうかを確認して、ダウンロードとインストールを通知します。
-
-Core API を更新したら、このインストールを必ずテストしてください。サンドボックスで `tank` コマンドを使用するか、{% include product %} の特別なメニュー項目を使用して、いくつかのアプリを起動します。パイプラインの概要を確認し、必要に応じてテストを実行します。
-
-最後に、問題がなければ、スタジオ バージョンの Core API を更新します。一般的な Toolkit のセットアップでは、Core API はすべてのプロジェクト間で共有されるため、スタジオの場所にある `tank` コマンドの `tank core` コマンドを実行すると、すべてのプロジェクトの Core API が更新されます。
-
-# プロジェクト ライフサイクルを管理する
-
-各 Toolkit プロジェクトには、当該プロジェクトのすべての設定を保持する独立した環境設定が含まれます。多くのプロジェクトを管理している場合は、多くの環境設定を管理する必要があることを意味します。このため Toolkit には、個別のプロジェクト向け、およびスタジオのライフサイクルと環境設定の発展向けに環境設定を扱うさまざまなツールと方法があります。このセクションでは、いくつかのベスト プラクティスを紹介し、環境設定のセットアップ方法に関する実際の手順について説明します。
-
-スタジオのニーズに応じて、さまざまなレベルの複雑性に分けられる場合があります。Toolkit には 3 つの異なる手法があるため、それぞれについて詳細に説明します。
-
-- 最も簡単な方法は、新しいプロジェクトをセットアップするときに以前のプロジェクトから環境設定をコピーすることです。これは小規模なスタジオでプロジェクトの量が少ない場合に最適です。
-- プロジェクトの数が多く、同時に複数のプロジェクトを実行している場合、次のレベルの統合として、`git` バージョン コントロールをお勧めします。Toolkit は git をネイティブでサポートしており、git ベースのワークフローを実行すると、スタジオの環境設定を 1 つにまとめられ、その後この設定に加えたすべての変更がトラックされます。各プロジェクトは、必要に応じて環境設定の変更を安全に取り込むことができます。
-- 大規模な設備を稼働している場合は、1 つの環境設定がスタジオ内で現在アクティブなすべてのプロジェクトに直接接続されるようなセットアップを検討してもよいかもしれません。環境設定に 1 箇所変更を加えると、すべてのプロジェクトに即座に影響します。
-
-次のセクションでは、さまざまな方法を詳細に説明します。
-
-## 以前のプロジェクトの環境設定を継承する
-
-これは最も簡単な環境設定の管理方法です。Toolkit で最初にプロジェクトをセットアップする場合、既定の環境設定をダウンロードします。パイプライン設定やファイル システムの場所などが一致するように最初のプロジェクトをセットアップします。プロジェクトの実行中、実行しているアプリ バージョンを更新するには、`tank updates` などのコマンドを実行します。
-
-2 つ目のプロジェクトの場合、既定の環境設定を使用して開始しないときは、プロジェクト セットアップ手順で、新しいプロジェクトのスターターとして最初のプロジェクトの環境設定を選択します。つまり、最初のプロジェクトで実行したすべての変更、調整、および改良が、2 つ目のプロジェクトにも適用されます。3 つ目のプロジェクトの場合は 2 つ目のプロジェクトの環境設定を使用する、というように続きます。
-
-
-
-これは、時間の経過とともに環境設定を徐々に発展させることができる、非常に簡単な方法です。変更と改良は、その場その場でプロジェクトからプロジェクトへと受け継がれていきます。初めて `setup_project` コマンドを実行したとき、セットアップ プロセスで使用する環境設定の指定を求められたら[Enter]キーを押します。これで既定の環境設定のダウンロードおよびインストールが行われます。
-
-2 つ目のプロジェクトの場合、以前のプロジェクトの環境設定へのパスのリストが表示されます。これらのいずれかのパスを選択し、セットアップ プロセスで環境設定の指定を求められたら[Enter]キーを押します。これで新しいプロジェクトにこの環境設定がコピーされます。
-```
-Welcome to the {% include product %} Pipeline Toolkit!
-For documentation, see https://support.shotgunsoftware.com
-- Running command setup_project...
-
-----------------------------------------------------------------------
-Command: Setup project
-----------------------------------------------------------------------
-
-Welcome to the {% include product %} Pipeline Toolkit Project Setup!
-
-Connecting to {% include product %}...
-Connecting to the App Store...
-
-------------------------------------------------------------------
-Which configuration would you like to associate with this project?
-
-You can use the configuration from an existing project as a template for this
-new project. All settings, apps and folder configuration settings will be
-copied over to your new project. The following configurations were found:
-
- My very first project: '/mnt/software/shotgun/first_project/config'
-
-If you want to use any of the configs listed about for your new project, just
-type in its path when prompted below.
-
-You can use the Default Configuration for your new project. The default
-configuration is a good sample config, demonstrating a typical basic setup of
-the {% include product %} Pipeline Toolkit using the latest apps and engines. This will be
-used by default if you just hit enter below.
-
-If you have a configuration stored somewhere on disk, you can enter the path
-to this config and it will be used for the new project.
-
-You can also enter an url pointing to a git repository. Toolkit will then
-clone this repository and base the config on its content.
-
-[tk-config-default]: /mnt/software/shotgun/first_project/config
-```
-## git ソース コントロールでのスタジオ設定
-
-最初の方法には制限事項があります。プロジェクト同士の接続は行われません。10 個のプロジェクトがあり、重要なバグ修正がリリースされたためすべてを更新する必要がある場合、各プロジェクトに手動でアクセスして `tank updates` コマンドを実行する必要があります。
-
-この問題を解決するには、マスター環境設定を作成して git ソース コントロールに保存する方法があります。新しいプロジェクトを作成した場合は、セットアップ プロジェクト ダイアログでこの git リポジトリへのパスを入力するだけで、Toolkit がクローンを作成してくれます。これですべてのプロジェクトが同じ「スタジオ マスター」環境設定に接続されます。プロジェクト設定にいくつかの適切な変更を加えた場合は、その変更をコミットしてスタジオ マスターに適用することができます。その後、他のプロジェクトはこの変更を簡単に取り込むことができます。また、git を使用してすべての変更履歴を保持することもできます。
-
- git とは
-
-
-
-基本的には、git 設定を保持する git リポジトリをセットアップするという考え方です。`tank setup_project` を実行する場合、このリポジトリに git URL を指定します(`username@someserver.com:/studio_config.git` など)。セットアップ プロセスでは、新しいプロジェクトがメインのスタジオ リポジトリに接続されたリポジトリになるようにリポジトリのクローンを作成します。接続後は、変更を適用および取得し、微調整のためにブランチで作業できます。
-
-### スタジオの設定リポジトリをセットアップする
-
-何か操作する前に、スタジオの設定リポジトリを作成する必要があります。このセクションでは、既存の Toolkit 設定を取得してこの設定から git リポジトリを作成する方法について説明します。
-
-最初に git サーバにアクセスしてリポジトリを作成します。このプロセスは、設定によって異なる場合があります。GitHub などを使用している場合は、Web ブラウザを起動して github.com にアクセスします。サーバにアクセスできる場合は、`git init --bare` のようなコードを実行できます。ここで作成する git リポジトリは `username@someserver.com:/studio_config.git`と呼ばれます。
-
-これで、リポジトリのシード設定に使用するプロジェクトの `config` フォルダを `config.bak` の場所に移動します。
-```shell
-cd /project_configs/studio_config
-mv config config.bak
-```
-スタジオ設定のベースにするプロジェクトの `config` の場所に初期化した git リポジトリのクローンを作成します。クローン作成コマンドを実行したら、git リポジトリにもなる空の `config folder` が作成されます。
-```shell
-cd /project_configs/studio_config
-git clone username@someserver.com:/studio_config.git config
-```
-`config.bak` の場所から `config` フォルダにすべてのファイルをコピーします。完了したら、空の `config.bak` フォルダは削除できます。設定ファイルが git リポジトリ内に格納されるため、サーバに対してそのファイルの追加、コミット、および適用を実行する必要があります。その前に、Toolkit のいくつかのシステム ファイルを正しく処理するために下準備を実行する必要があります。`config` フォルダで `.gitignore` ファイルを作成し、以下の行を追加します。
-```shell
-install_location.yml
-pipeline_configuration.yml
-```
-
-これで git はこれら 2 つのシステム ファイルを無視します。次に進んで残りのファイルを環境設定に追加し、コミットしてスタジオ リポジトリに適用します。
-
-```shell
-git add --all
-git commit -am "initial commit of our studio config!"
-git push
-```
-### git で新しいプロジェクトを作成する
-
-新しいプロジェクトを作成する場合は、セットアップ プロセスで使用する環境設定のパスの入力を求めるプロンプトが表示されたときに有効な git URL を指定するだけです。上記の例では、`username@someserver.com:/studio_config.git` と入力します。プロジェクト セットアップ プロセスの一環として、Toolkit は新しいプロジェクト設定の `config` フォルダにこのリポジトリのクローンを作成します。つまり、後でこの設定フォルダにアクセスし、git コマンドを実行できるということです。クローン作成されたパイプライン設定も git リポジトリのクローンを作成し、シームレスに動作します。
-
-### プロジェクトに変更を加える
-
-プライマリ設定を変更する場合は、`config` フォルダにアクセスし、`git diff`、`git commit`、および `git push` を実行するだけです。これにより、プロジェクト設定のクローン作成元のスタジオ設定に変更が適用されます。
-
-### プロジェクトを最新バージョンに更新する
-
-スタジオ レベルの環境設定を更新していくつか変更し、この変更をプロジェクトに取り込む場合は、`config` フォルダにアクセスして `git pull` を実行するだけです。**重要**: 実行が終了したら、変更した環境設定に必要なすべてのアプリ バージョンがシステムに表示されるように `tank cache_apps` を実行してください。
-
-### git の高度な利用方法: ブランチ
-
-Toolkit の既定の動作として、新しいプロジェクトの作成時に単純なクローン操作が実行されます。プロジェクトには git `master` ブランチを使用します。高度なセットアップでは、プロジェクトのプライベートに特定の設定の変更を保存し、他のプロジェクトとその変更を共有しない場合など、プロジェクトの作成後に git ブランチをセットアップできます。その後、このブランチにコミットします。スタジオ設定に適用する変更は、プロジェクトのローカル マスター ブランチと統合してから適用することができます。
-
-### git の高度な利用方法: バッチ展開
-
-Toolkit はパイプライン設定エンティティを介して {% include product %} サイト向けの異なる環境設定すべてのリストを保持するため、このリストを繰り返して処理し、各項目に `git pull` コマンドを実行して、すべてのプロジェクトでバッチ更新を効率的に実行できます。この機能は、現在 Toolkit に組み込まれているものではありませんが、Python および {% include product %} Python API を使用してスクリプト化することができます。
-
-## インクルードを使用したグローバル設定
-
-上記の git ベースの方法では、git を介して接続された個別のプロジェクト設定を処理します。更新はプロジェクト全体に自動的に反映されないため、取り込んで適用する必要があります。
-
-完全な一括管理の場合、環境設定は必ず 1 つの場所に格納され、1 つの変更がプロジェクトのグループにすぐに反映されるため、Toolkit 設定の `@include` 機能を使用する必要があります。これにより、各プロジェクト設定で実際の環境設定が格納されている一元的な場所をポイントするようにリファレンスを作成することができます。
-
-
-
-`@include` 構文を使用すると、複数のファイルを 1 つに連結できます。たとえば、ファイル `/tmp/stuff.yml` を使用する場合は、次のコンテンツが含まれます。
-```
-# paths to maya
-maya_windows: 'C:\Program Files\Autodesk\Maya2012\bin\maya.exe'
-maya_mac: '/Applications/Autodesk/maya2012/Maya.app'
-maya_linux: 'maya'
-
-# a configured toolkit app
-file_manager:
- allow_task_creation: true
- file_extensions: []
- hook_copy_file: default
- hook_filter_publishes: default
- hook_filter_work_files: default
- hook_scene_operation: default
- launch_at_startup: false
- launch_change_work_area_at_startup: false
- location: {name: tk-multi-workfiles, type: app_store, version: v0.4.8}
- saveas_default_name: scene
- saveas_prefer_version_up: false
- sg_entity_type_filters: {}
- sg_entity_types: [Shot, Asset]
- task_extra_display_fields: []
- template_publish: null
- template_publish_area: null
- template_work: null
- template_work_area: null
-```
-上記のとおり、複数の異なるレベルでインクルードの定義を作成できます。上の例ではアプリの定義を 1 つと文字列の値を 3 つ設定しています。これらは環境ファイルから参照できます。
-```
-includes: ['/tmp/stuff.yml']
-
-engines:
-
- tk-maya:
-
- # First all our app definitions
- apps:
- # normally, we would have the entire set of configuration parameters at this point.
- # because we are using an include, we can reference an entire sub-section of configuration
- # using the @ keyword:
- tk-multi-workfiles: '@file_manager'
-
- # alternatively, for simple values, we can use them as parameter values for apps:
- tk-maya-launcher:
- mac_path: '@maya_mac'
- linux_path: '@maya_linux'
- windows_path: '@maya_windows'
- location: {name: tk-multi-launchapp, type: app_store, version: v0.2.19}
-
- # and after the apps section follows specific configuration options for the engine
- location: {name: tk-maya, type: app_store, version: v0.4.1}
- menu_favourites:
- - {app_instance: tk-multi-workfiles, name: {% include product %} File Manager...}
- template_project: null
- use_sgtk_as_menu_name: false
-```
-さらに、複数のインクルード ファイルを相互に読み取ることができます。同じインクルード定義が 2 つの異なるファイルに存在する場合は、最新の読み込みファイルが優先されます。上記の環境例は、次のように拡張できます。
-```
-includes:
-
- # first include a global config file which contains all the studio level app definitions
- - '/studio/configurations/studio_apps.yml'
-
- # now we can include an include containing overrides, for example based on project type.
- # if the global config contains an entry named file_manager and the vfx_apps.yml contains
- # the same, the vfx_apps definition will be used.
- - '/studio/configurations/vfx_apps.yml'
-
-engines:
-
- tk-maya:
- apps:
- tk-multi-workfiles: '@file_manager'
-
- location: {name: tk-maya, type: app_store, version: v0.4.1}
- use_sgtk_as_menu_name: false
-```
-上記の方法を使用すると、スタジオの既定値セットを指定し、それをプロジェクト タイプの既定値によってオーバーライドして、さらにそれを特定のプロジェクト設定でオーバーライドできます。
- 上記の例で示すようにアプリ レベルで実行したり、または次のセクションに示すようにエンジン レベルで実行したりできます。
-
-### グローバル設定のセットアップ時のベスト プラクティス
-
-グローバル設定にはいくつかのセットアップ方法があります。セットアップの推奨ベスト プラクティスでは、エンジンごとに環境設定を分割します。各環境ファイルは完全に空で、個別のファイルで定義されるエンジン(およびアプリ)を参照します。これにより、エンジンを 1 つずつ簡単に調整および再設定できます。
-
-このインクルード ファイルは標準的な形式で、エンジンに基づいた名前がそれぞれのファイルに付けられます。たとえば、Maya エンジンを使用する場合、インクルード ファイルにはエンジンとそのアプリのみが含まれます。その上位エントリには `maya` という名前だけが付けられます。
-```yaml
-maya:
- apps:
- tk-maya-breakdown:
- hook_multi_update: default
- hook_scan_scene: default
- location: {name: tk-maya-breakdown, type: app_store, version: v0.2.13}
- tk-multi-loader2:
- action_mappings:
- Maya Scene: [reference, import]
- Photoshop Image: [texture_node]
- Rendered Image: [texture_node]
- actions_hook: '{self}/tk-maya_actions.py'
- entities:
- - caption: Assets
- entity_type: Asset
- filters:
- - [project, is, '{context.project}']
- hierarchy: [sg_asset_type, code]
- filter_publishes_hook: '{self}/filter_publishes.py'
- location: {name: tk-multi-loader2, type: app_store, version: v1.0.6}
- menu_name: Load
- publish_filters: []
- title_name: Loader
- [... additional app entries here ...]
-
- debug_logging: true
- location: {name: tk-maya, type: app_store, version: v0.3.10}
- menu_favourites:
- - {app_instance: tk-multi-workfiles, name: {% include product %} File Manager...}
- - {app_instance: tk-multi-snapshot, name: Snapshot...}
- - {app_instance: tk-multi-workfiles, name: {% include product %} Save As...}
- - {app_instance: tk-multi-publish, name: Publish...}
- template_project: shot_work_area_maya
- use_sgtk_as_menu_name: false
-
-# each include file has a framworks section containing all the frameworks needed for
-# all apps in the file
-frameworks:
- tk-framework-shotgunutils_v1.x.x:
- location: {name: tk-framework-shotgunutils, type: app_store, version: v1.0.8}
-```
-スタジオで Maya のみをセットアップすることはほとんどなく、さまざまな部門やタイプで異なるアプリを多数使用しているかと思います。それぞれに対して Maya インクルード ファイルをセットアップして、ファイル階層で整理することをお勧めします。これらの各ファイルでは、上記のファイルのように上位エントリとして `maya` が指定されます。
-
-
-
-各プロジェクトには数多くの環境ファイルが含まれています。この環境ファイルはそれぞれエンジンのインクルードのリストで、この特定の環境とエンジンやアプリの一連のセットアップを関連付けています。スタジオで 1 つ(または複数)の既定のプロジェクト設定をセットアップすると、すべてにインクルードがこのように含まれるため、実際のアプリとエンジンのペイロードがインクルード ファイル内に完全に含まれ、グローバル ファイル内にも含まれます。グローバル インクルード ファイルに変更を加えると、すべてのプロジェクトに影響します。このセットアップを使用すると、環境ファイルは次のような形式になります。
-```yaml
-includes:
- - '/studio/configurations/maya/asset.yml'
- - '/studio/configurations/nuke/asset.yml'
- - '/studio/configurations/houdini/generic.yml'
-
-engines:
- tk-maya: '@maya'
- tk-nuke: '@nuke'
- tk-houdini: '@houdini'
-
-# we don't need any frameworks here because there are no apps or engines defined
-frameworks: null
-```
-上記のセットアップを分割し、いくつかのプロジェクト固有のエントリを定義する場合は、環境ファイル自身で `@maya` をアプリとエンジンの一連の定義で置き換えるだけです。
-
-### グローバル設定を管理する
-
-グローバル設定の管理は通常の設定の管理よりも複雑です。多数のプロジェクトを効果的に組み合わせて 1 つのファイル構造に統合しているため、プロジェクトから `tank updates` コマンドを実行し、アプリ バージョンを更新すると、他のすべてのプロジェクトに影響します。ここに記載された注意を参考にして作業を進めてください。
-
-さらに、クローン作成の対象はプロジェクト設定であり、これにはインクルードしか含まれていないため、標準的なクローン作成ワークフローをすぐに使用することはできません。
-
-安全なテストとメンテナンスのために、ソース コントロール(`git` など)にグローバル設定を保存して、特別なテスト プロジェクトの個別のテスト領域で更新することをお勧めします。品質管理上問題がなければ、変更を確定し、実際のグローバル設定に取り込みます。
diff --git a/docs/ja/guides/pipeline-integrations/administration/file-system-config-reference.md b/docs/ja/guides/pipeline-integrations/administration/file-system-config-reference.md
deleted file mode 100644
index 8d783b748..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/file-system-config-reference.md
+++ /dev/null
@@ -1,1421 +0,0 @@
----
-layout: default
-title: ファイルシステムの設定リファレンス
-pagename: toolkit-fs-config-ref
-lang: ja
----
-
-# ファイル システム設定リファレンス
-
-このトピックの内容:
-- [はじめに](#introduction)
-- [パート 1: フォルダ作成構文](#part-1---folder-creation-syntax)
- - [ クエリー フォルダ](#query-folders)
- - [複数のフォルダ](#multiple-folders)
- - [親フォルダを使用して作成する](#create-with-parent-folder)
- - [オプション フィールド](#optional-fields)
- - [正規表現トークンの一致](#regular-expression-token-matching)
- - [例](#examples)
- - [ リスト フィールド フォルダ](#list-field-folders)
- - [パイプライン ステップ フォルダ](#pipeline-step-folder)
- - [パイプライン ステップごとに異なるファイル システム レイアウト](#different-file-system-layouts-for-different-pipeline-steps)
- - [詳細設定: 親を指定する](#advanced---specifying-a-parent)
- - [タスク フォルダ](#task-folder)
- - [詳細設定: 親を指定する](#advanced---specify-a-parent)
- - [作業スペースと遅延フォルダ作成](#workspaces-and-deferred-folder-creation)
- - [現在のユーザ フォルダ](#current-user-folder)
- - [静的フォルダ](#static-folders)
- - [シンボリック リンク](#symbolic-links)
- - [ファイルとフォルダを無視する](#ignoring-files-and-folders)
- - [I/O と権限をカスタマイズする](#customizing-io-and-permissions)
- - [フックに渡されるデータ](#data-passed-to-the-hook)
- - [独自のフォルダ作成指示をフックに渡す](#passing-your-own-folder-creation-directives-to-the-hook)
- - [カスタム設定を静的フォルダに追加する](#adding-custom-configuration-to-static-folders)
- - [フォルダの作成方法の簡単なカスタマイズ](#simple-customization-of-how-folders-are-created)
-- [パート 2: ファイル システム テンプレートを設定する](#part-2---configuring-file-system-templates)
- - [キー セクション](#the-keys-section)
- - [例: 英数字の名前](#example---an-alphanumeric-name)
- - [例: バージョン番号](#example---version-number)
- - [例: 立体視](#example---a-stereo-eye)
- - [例: イメージ シーケンス](#example---image-sequences)
- - [例: エイリアスを使用して 2 つのフィールドに version という名前を付ける](#example---two-fields-both-named-version-via-an-alias)
- - [例: タイムスタンプ](#example---timestamp)
- - [例: マッピング](#example---mappings)
- - [例: 2 つの有効な値を使用した文字列フィールド](#example---string-field-with-two-valid-values)
- - [例: 値を無効にする](#example---disallowing-a-value)
- - [例: 文字列のサブセット](#example---subsets-of-strings)
- - [パス セクション](#the-paths-section)
- - [文字列セクション](#the-strings-section)
- - [テンプレートでオプション キーを使用する](#using-optional-keys-in-templates)
-- [高度な質問とトラブルシューティング](#advanced-questions-and-troubleshooting)
- - [新しいエンティティ タイプをファイル構造に追加するにはどうしたら良いですか?](#how-can-i-add-a-new-entity-type-to-my-file-structure)
- - [「エピソード > シーケンス > ショット」の階層に必要なフィールド](#fields-required-for-the-episode--sequence--shot-hierarchy)
- - [エピソード](#episode)
- - [シーケンス](#sequence)
- - [ショット](#shot)
- - [エピソード](#episodes)
- - [Toolkit テンプレート定義](#toolkit-template-definitions)
- - [各自の構造内でブランチをセットアップするにはどうしたら良いですか?](#how-can-i-set-up-a-branch-in-my-structure)
- - [カスタム エンティティを使用してカスタム パイプライン ステップを作成するにはどうしたら良いですか?](#how-can-i-create-a-custom-pipeline-step-using-a-custom-entity)
-
-
-このドキュメントは、{% include product %} Pipeline Toolkit のファイル システム中心の環境設定に関する完全なリファレンスです。テンプレート システムの仕組みと利用可能なオプションについて説明します。また、フォルダ作成の設定に追加できるすべてのパラメータについても説明します。
-_このドキュメントは、Toolkit の設定を管理するユーザのみが使用可能な機能について説明します。詳細については、『[{% include product %} 統合管理者ガイド](https://developer.shotgridsoftware.com/ja/8085533c/)』を参照してください。_
-
-# はじめに
-
-このドキュメントでは、サンプルを含むファイル システムに関連した Toolkit の設定の一部を設定する方法について説明します。Toolkit は多くのファイルとディレクトリを処理します。パスの統合方法とその意味を表す方法として Toolkit の設定を活用することができます。通常、ファイル システムへのアクセスには完全に異なる 2 つの方法があります。
-
-**フォルダの作成:**{% include product %} でオブジェクトを作成したら、作業開始前にディスク上にフォルダを作成する必要があります。 これは、ショットを表すディスク上にフォルダを作成するという簡単な作業であることも、ショットで作業する各ユーザがディスク上の個別の領域で作業できるようにユーザ固有の作業サンドボックスなどをセットアップするという複雑な作業であることもあります。
-
-- Toolkit はアプリケーションの起動時にフォルダを自動的に作成し(ショット BECH_0010 の Maya を起動する場合など)、Maya の起動前にフォルダが作成されるようにします。フォルダが存在しない場合はすぐに作成されます。フォルダは、API メソッド、[シェルの tank コマンド](https://developer.shotgridsoftware.com/ja/425b1da4/#useful-tank-commands)、[ShotGrid の[フォルダを作成](Create Folders)メニュー](https://developer.shotgridsoftware.com/ja/c3b662a6/)を使用して作成することもできます。一連の特別な設定ファイルによってこのフォルダ作成プロセスが制御されます。これについては、次のセクションの「[パート 1](#part-1---folder-creation-syntax)」で説明します。
-
-**作業の表示と保存:** 作業中、ディスク上の標準的な場所からファイルを開いてそこに保存する必要があります。通常、このファイルの場所は作業開始前に作成されたフォルダ構造内になります。
-
-- フォルダ構造を作成すると、この構造を使用してディスク上の主要な場所を特定できます。これらの場所は、[テンプレート](#part-2---configuring-file-system-templates)と呼ばれています。たとえば、ショットのパブリッシュした Maya ファイルを参照するように `maya_shot_publish` と呼ばれるテンプレートを定義します。[次に、Toolkit アプリ](https://developer.shotgridsoftware.com/ja/f8596e35/)でこのテンプレートを使用します。パブリッシュ アプリはこのテンプレートを使用してファイルの書き込み場所を制御し、[作業ファイル アプリ](https://developer.shotgridsoftware.com/ja/9a736ee3/)はこのテンプレートを使用して開くファイルの場所を把握することができます。Toolkit の環境設定内では、各アプリが使用するテンプレートを制御できます。Toolkit で使用される主なファイルの場所はすべて 1 つのテンプレート ファイルで定義されるため、概要を簡単に表示できます。
-
-# パート 1: フォルダ作成構文
-
-フォルダ設定は {% include product %} のエンティティをディスク上の場所にマッピングします。1 つの設定ファイルを使用するのではなく、環境設定が、設定された各ユニットのテンプレートして動作する「ミニ ファイル システム」の形式になります。これは**スキーマ設定**と呼ばれています。Toolkit のフォルダ作成が実行されると、フォルダとファイルがこの「ミニ ファイル システム」からその対象場所にコピーされます。動的な動作を作成することができます。たとえば、フォルダで {% include product %} のショットを表し、そのフォルダの命名方法を制御することができます。具体的には、{% include product %} のいくつかのフィールドからそのフォルダの名前を取り込み、フォルダの作成前に文字列変換を実行できます。
-
-
-
-上図はスキーマ設定を示しています。Toolkit のフォルダ作成を実行すると、{% include product %} のエンティティとディスク上のフォルダ間の接続が確立されます。Toolkit はこのフォルダ スキーマ設定を使用してディスク上に一連のフォルダを生成します。各フォルダは {% include product %} に [`Filesystem Location`](https://developer.shotgridsoftware.com/ja/cbbf99a4/) エンティティとして登録されます。これは、{% include product %} データ(ショットやアセット名など)と設定がディスクの実際のフォルダおよび {% include product %} に「ベイク処理」されていると考えることができます。環境設定は常に「project」という名前のフォルダから始まります。これは {% include product %} に接続されているプロジェクトを常に表し、プロジェクトの Toolkit の名前に置き換えられます。このレベルよりも下にあるのは静的フォルダです。たとえば、フォルダ作成ツールが **sequences** フォルダを自動的に作成します。
-
-sequences フォルダ内を確認すると、**sequence** フォルダと **sequence.yml** ファイルがあります。Toolkit がフォルダと同じ名前の yaml ファイルを検出すると、この yaml ファイルの内容を読み取り、任意の動的な動作を追加します。この場合、**sequence.yml** にはプロジェクト フォルダ配下の構造が含まれます。この構造は次の 3 種類の項目で構成されます。
-
-1. **通常のフォルダとファイル:** 対象の場所に単純にコピーされます。
-2. **yaml ファイルを含むフォルダ**(フォルダと同じ名前): これは動的コンテンツを表します。たとえば、**shot** と **shot.yml** があるとします。フォルダを作成する場合、この **shot** フォルダは数多くのフォルダの生成に使用されるテンプレートになり、1 つのショットに対して 1 つのフォルダが生成されます。
-3. **name.symlink.yml という名前のファイル**は、フォルダの処理中にシンボリック リンクを生成します。 [シンボリック リンク](#symbolic-links)についてはこのドキュメントの後半で説明します。
-
-yaml ファイルで表される動的な設定セットアップは次のモードをサポートしています。
-
-- **[{% include product %} クエリー フォルダ:](#shotgun-query-folders)** {% include product %} データベース クエリーに基づく動的なフォルダ名です。 たとえば、このモードを使用すると、プロジェクト内のすべてのショットにフォルダを作成できます。
-
-- **[{% include product %} リスト フィールド フォルダ:](#shotgun-list-field-folders)**{% include product %} リスト フィールドに基づいた動的なフォルダ名。 たとえば、このモードを使用すると、{% include product %} のアセット エンティティにある {% include product %} リスト フィールド「Asset Type」のすべての値にフォルダを作成できます。
-
-- **[遅延フォルダ:](#workspaces-and-deferred-folder-creation)** 2 つ目のフォルダ作成パスが Toolkit API の create folders メソッドを介して要求された場合にのみ実行されます。通常はアプリケーション(Maya など)を起動した場合です。 通常、このメソッドはアプリケーションの起動直前に Toolkit のさまざまなアプリケーション ランチャーによって実行されます。
-
-- **[現在のユーザ フォルダ:](#current-user-folder)**現在のユーザを表す特別なフォルダ。
-
-
-ここで各モードの詳細を見ていきましょう。
-
-## クエリー フォルダ
-
-{% include product %} クエリーに対応した動的なフォルダの場合、yaml ファイルに次の構文を使用します。
-
-
- # the type of dynamic content
- type: shotgun_entity
-
-
- # the {% include product %} entity type to connect to
- entity_type: Asset
-
-
- # the {% include product %} field to use for the folder name
- name: code
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "project", "relation": "is", "values": [ "$project" ] } ]
-
-- 動的なコンテンツ **type** フィールドの値を **shotgun_entity** に設定します。
-- **entity_type** フィールドは、データの取得元の {% include product %} エンティティ(「Asset」、「Shot」、「Sequence」、「CustomEntity02」など)に設定する必要があります。
-- **name** フィールドは、{% include product %} のデータに基づいて各フォルダに付与される名前です。
-
-- 上記の例のように(`name: code` など)、1 つのフィールドを使用できます。
-- 括弧内に複数のフィールド(`name:``"{asset_type}_{code}"` など)を使用できます。
-- 他にリンクされたエンティティのフィールドを追加する場合は、標準の {% include product %} ドット シンタックス(`name: "{sg_sequence.Sequence.code}_{code}"` など)を使用できます。
-- **filters** フィールドは {% include product %} クエリーです。 これは [{% include product %} API 構文](http://developer.shotgridsoftware.com/python-api/reference.html)に比較的近くなります。ディクショナリのリストで、各ディクショナリには、_path_、_relation_、および _values_ の各キーを指定する必要があります。$syntax の有効値は、{% include product %} エンティティ(ディレクトリ階層上位に sequence.yml がある場合はプロジェクトの `"$project"` と `"$sequence"` など)に対応した親フォルダです。{% include product %} エンティティ リンクの場合、$syntax (`{ "path": "project", "relation": "is", "values": [ "$project" ] }` など)を使用すると、環境設定内の親フォルダを参照できます。この詳細については、[以下の例](#examples)で説明します。
-
-
-## 複数のフォルダ
-
-複数のフォルダを一度に作成する式を作成するには、名前の定義にスラッシュを含めます。
-
-
- # the type of dynamic content
- type: shotgun_entity
-
-
- # the {% include product %} entity type to connect to
- entity_type: Asset
-
-
- # the {% include product %} field to use for the folder name
- name: "{sg_asset_type}/{code}"
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "project", "relation": "is", "values": [ "$project" ] } ]
-
-この種類のパスのファイル システム テンプレートを作成する場合(詳細については、このドキュメントのパート 2 を参照)、_last_folder は {% include product %} のエンティティを表します。上の例は、たとえば、次のテンプレートを使用して表すことができます。
-
- asset_step_folder: assets/{asset_type}/{Asset}/{Step}
-
-`{asset_type}` および `{Asset}` はいずれも文字列のテンプレート キーとして定義されていて、指定されたパスのコンテキストを決定する場合のコンテキストの計算には、`{Asset}` トークンが使用されます。
-
-## 親フォルダを使用して作成する
-
-{% include product %} では、{% include product %} データ構造内にネストがあります。このネストは、親子関係やその逆の関係と見なされます。たとえば、通常、シーケンスはファイル システム内のショットの親です。同様に、通常、ショットはシーケンスの子です。
-
-
-
-{% include info title="注" content="このファイルシステムのネスト関係は [ShotGrid 階層](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_site_configuration_ar_customizing_hierarchy_html)とは無関係で、この 2 つの間は接続されていません。それぞれまったく個別に設定されています。" %}
-
-shotgun_entity タイプ フォルダは、親が作成されるとフォルダ作成プロセスが再帰的な処理を行って子も作成されるようにするかどうかを制御するためのオプション フラグをサポートします。フラグは特定の固定値のみを指定できる設定で、この場合は「true」または「false」です。このフラグを追加するには、次の例を使用します。
-
-
- # recurse down from parent folder
- create_with_parent: true
-
-前述のとおり、この設定はオプションで、既定では false に設定されています。true に設定すると、Toolkit は検出した子エンティティのフォルダを作成します。この例を続けるために、親シーケンスの作成時にショットが作成されるようにショットの `create_with_parent` を `true` に設定します。
-
-{% include info title="注" content="既定の設定は `false` です。つまり、シーケンスのフォルダを作成しても、ショット フォルダは自動的に作成されません。また、設定を true にするにはこのフラグを追加する必要があります。false が既定の動作のため、shotgun_entity フォルダに false を指定するフラグはありません。" %}
-
-## オプション フィールド
-
-通常、フォルダ名(`{code}_{sg_extra_field}` など)を定義する場合、Toolkit で {% include product %} のすべてのフィールドに値を指定する必要があります。たとえば、`sg_extra_field` が空の場合、エラー メッセージが生成されます。設定する場合、設定しない場合があるフィールドについては、オプションとすることができます。つまり、Toolkit は、値がある場合はこのフィールドを追加し、値が空でエラーでない場合はこのフィールドを除外します。
-
-`{code}[_{sg_extra_field}]` のように角括弧を使用してオプション フィールドを定義します。これで次のフォルダ名が生成されます。
-
-- `code` が BECH_0010 で `sg_extra_field` が extra の場合は、フォルダ名は `BECH_0010_extra` になります。
-
-
-
-- `code` が BECH_0010 で `sg_extra_field` が空の場合、フォルダ名は `BECH_0010` になります。
-
-
-
-{% include info title="注" content="オプション フィールドを使用できるのは、スキーマのフォルダ名の一部を定義するときだけです。フォルダ全体をオプションとすることはできません。" %}
-
-## 正規表現トークンの一致
-
-Toolkit では、正規表現を使用して、{% include product %} フィールド名の一部を抽出できます。これにより、{% include product %} の値でフォルダの作成を制御できる単純な式を作成できます。たとえば、{% include product %} 内のすべてのアセットに、3 文字のプリフィックスとその後に続くアンダースコア(`AAT_Boulder7` など)が名前として付けられている場合、この名前を 2 つのファイルシステム フォルダのレベルに分割できます(例: `AAT/Boulder7`)。
-
-
- # the type of dynamic content
- type: shotgun_entity
-
-
- # the {% include product %} entity type to connect to
- entity_type: Asset
-
-
- # Extract parts of the name using regular expressions
- name: "{code:^([^_]+)}/{code^[^_]+_(.*)}"
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "project", "relation": "is", "values": [ "$project" ] } ]
-
-構文は、テンプレート システム内の `subset` トークンと似ています。{% include product %} フィールド名の後にコロンを追加し、その後に正規表現を配置します。正規表現で定義されたすべてのグループ(`()` で囲まれたセクションなど)が、値を抽出するために使用されます。正規表現内に複数のグループがある場合は、結合されます。たとえば、次の式は、オブジェクトを作成したユーザのイニシャルを抽出します。`{created_by.HumanUser.code:^([A-Z])[a-z]* ([A-Z])[a-z]*}`
-
-## 例
-
-次の一連の例では、filters 構文の使用方法について説明します。
-
-**現在のプロジェクトに属している処理中のショットすべてを検出するには**、次の構文を使用します。{% include product %} ショットのエンティティには、ショットをプロジェクトに接続するプロジェクトと呼ばれるリンク フィールドがあります。現在のプロジェクトに関連付けられたショットのフォルダだけを作成するようにしてください。設定ファイル システム上位にプロジェクト レベルがあるため、$syntax を使用してこのレベルを参照すると、Toolkit はこの {% include product %} エンティティ リンクのリファレンスを自動的に作成します。$syntax の有効値は、{% include product %} エンティティ(ディレクトリ階層上位に sequence.yml がある場合はプロジェクトの `"$project"` と `"$sequence"` など)に対応した親フォルダであることを忘れないでください。
-
- entity_type: Shot
- filters:
- - { "path": "project", "relation": "is", "values": [ "$project" ] }
- - { "path": "status", "relation": "is", "values": [ "ip" ] }
-
-ツリーの上位にシーケンス フォルダがあり、**このシーケンスに属するすべてのショットにフォルダを作成する場合**、次のようなフィルタを作成できます。
-
- entity_type: Shot
- filters:
- - { "path": "project", "relation": "is", "values": [ "$project" ] }
- - { "path": "sg_sequence", "relation": "is", "values": [ "$sequence" ] }
-
-**すべてのアセットを検出するには**、次の構文を使用します。
-
- entity_type: Asset
- filters: [ { "path": "project", "relation": "is", "values": [ "$project" ] } ]
-
-## リスト フィールド フォルダ
-
-[{% include product %} リスト フィールド](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_data_management_ar_field_types_html) フォルダは、{% include product %} ですべてのアセット タイプにフォルダを 1 つずつ作成する場合などに役立ちます。アセット タイプは {% include product %} のリスト フィールドで、このフォルダの設定タイプにより、このアセット タイプのリストに反映されるファイル システムのレイヤを定義できます。
-
-
-
-{% include info title="注" content="フォルダをディスク上に作成したら、関連付けられたデータの値(アセット タイプなど)を変更しないことを強くお勧めします。" %}
-
-{% include product %} リスト フィールドのすべての項目に対応する動的なフォルダを作成する場合は、yaml ファイルで次の構文を使用します。
-
-
- # the type of dynamic content
- type: "shotgun_list_field"
-
-
- # the {% include product %} entity type to connect to
- entity_type: "Asset"
-
-
- # only create for values which are used in this project.
-
- # this is optional and will be set to false if not specified.
- skip_unused: false
-
-
- # by default, list fields are only created if they are needed by a child entity node
-
- # by setting the create_with_parent parameter to true you ensure that list field
-
- # nodes are always created
- create_with_parent: false
-
-
- # the {% include product %} field to use for the folder name
- field_name: "{sg_asset_type}_type"
-
-- 動的なコンテンツ **type** フィールドの値を `shotgun_list_field` に設定します。
-- `entity_type` フィールドは、データの取得元の {% include product %} エンティティ(「アセット」、「シーケンス」、「ショット」など)に設定する必要があります。
-- `field_name` フィールドは、データの取得元の {% include product %} フィールドに設定し、[リスト タイプ フィールド](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_data_management_ar_field_types_html)にする必要があります。動的なコンテンツとともに静的な文字列を追加する場合は、式を使用することができます。`field_name: "{sg_asset_type}_type"` この式の例にはテキストとテンプレート キーが含まれます。
-
-- オプションの `skip_unused` パラメータを指定すると、使用しないリスト タイプ フィールドの値に対してディレクトリが作成されなくなります(上記の「[オプション フィールド](#optional-fields)」セクションで説明)。{% include info title="注" content="これを True に設定すると、フォルダ作成のパフォーマンスに悪影響を与える可能性があります。また、現在のカリング アルゴリズムは不完全なため、関連するエンティティに複雑なフィルタが適用されている場合には機能しません。"%}
-
-- オプションの `create_with_parent` パラメータを指定すると、子エンティティ レベル ノードを現在処理していなくても、list_field ノードを強制的に作成します(上記の「[親フォルダを使用して作成する](#create-with-parent-folder)」セクションを参照)。
-
-
-## パイプライン ステップ フォルダ
-
-パイプライン ステップ フォルダは {% include product %} の[パイプライン ステップ](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Producer_pr_scheduling_tasks_pr_tasks_pipeline_steps_html)を表します。パイプライン ステップはステップとも呼ばれています。
-
-
-
-
- # the type of dynamic content
- type: "shotgun_step"
-
-
- # the {% include product %} field to use for the folder name. このフィールドは、ステップ エンティティから取得する必要があります。name: "short_name"
-
-ここで、前述の [{% include product %} エンティティ](#list-field-folders)で使用したように名前の式を使用できます。{% include product %} エンティティ フォルダ設定が検出されるまで、ノードは親や祖親などを探します。このエンティティ フォルダはステップに関連付けられ、エンティティのタイプを使用して作成するステップが決定されます。
-
-{% include info title="注" content="パイプライン ステップの上位フォルダを作成する場合は、単純に ShotGrid エンティティ ノードを使用して関連するタイプをステップに設定します。" %}
-
-既定では、ステップ フォルダは特定のエンティティに関連するすべてのステップを自動的に作成します。たとえば、5 つのステップ(レイアウト、アニメーション、エフェクト、ライティング、コンポジット)が指定されたショットのフォルダ作成がトリガされると、この 5 つのステップのステップ フォルダ(レイアウト、アニメーション、エフェクト、ライティング、コンポジット)が自動的に作成されます。
-
-ただし、次の構文を使用すると、この処理をオフにすることができます。
-
-
- # recurse down from parent folder
- create_with_parent: false
-
-環境設定にこの設定を追加すると、ショット フォルダの作成時にステップ フォルダが作成されなくなります。その代わり、タスクでフォルダを作成した場合にのみステップ フォルダが作成されるようになります。これは、ユーザ サンドボックスと作業開始直前に作成される他の構造を設定する場合に役立ちます。
-
-### パイプライン ステップごとの異なるファイル システム レイアウト
-
-ライトおよび合成にフォルダを 1 つと、それ以外のステップにフォルダを 1 つ設定するとします。パイプライン ステップごとに異なるファイル システム レイアウトを指定する場合は、`filter` 句を環境設定に追加します。このフィルタを使用すると、特定のステップの環境設定に含まれるパイプライン ステップの範囲を指定できます。この例では、`step_lightcomp.yml` と `step.yml` の 2 つの設定ファイルを作成できます。最初のファイルでは、次のようにフィルタを追加します。
-
- filters: [ { "path": "short_name", "relation": "in", "values": [ "Light", "Comp" ] } ]
-
-上記の構文は、タイプ `Light` または `Comp` のステップ フォルダが作成された場合にのみ使用されます。その他のファイルの場合には次のようなルールを作成します。
-
- filters: [ { "path": "short_name", "relation": "not_in", "values": [ "Light", "Comp" ] } ]
-
-これで各フォルダ内のサブ構造を個別に定義できます。
-
-## 詳細設定: 親を指定する
-
-フォルダ作成の一環として、Toolkit はパイプライン ステップとエンティティ(「ショット」や「アセット」など)を関連付ける必要があります。このために、既定ではフォルダ ツリーを検索し、見つけた最初の {% include product %} エンティティ フォルダを選択します。たとえば、階層 `Sequence > Shot > Step` にアクセスすると、ステップ フォルダが通常は任意のショットと自動的に関連付けられます。
-
-ただし、`Sequence > Shot > Department > Step` など、プライマリ エンティティよりも下の階層のエンティティの場合、既定では、Toolkit がステップと部門レベルを強制的に関連付けます。この場合、Toolkit に検索場所を明示的に指示する必要があります。このためには、ステップ設定に次のコードを追加します。
-
- associated_entity_type: Shot
-
-## タスク フォルダ
-
-タスク フォルダは {% include product %} の[タスク](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Producer_pr_scheduling_tasks_pr_my_tasks_html)を表します。既定では、タスク フォルダがその親とともに作成されることはありません。たとえば、タスク ノードが関連付けられたショットでフォルダ作成がトリガされても、タスク フォルダは自動的に作成されません。その代わり、タスク フォルダは、タスク({% include product %} のタスクの起動など)でフォルダ作成を実行した場合にのみ作成されます。
-
-
-
-
- # the type of dynamic content
- type: "shotgun_task"
-
-
- # the {% include product %} field to use for the folder name. This field needs to come from a task entity.
- name: "content"
-
-ただし、次の構文を使用することにより、親エンティティとともにタスクが作成されるようにすることができます。
-
-
- # recurse down from parent folder
- create_with_parent: true
-
-ステップと同様に、フォルダ設定で動作するタスクをフィルタする場合は、必要に応じて `filter` パラメータを指定することもできます。
-
-ここで再び、[前述の {% include product %} エンティティ](#list-field-folders)で使用したように名前の式を使用できます。動的コンテンツと静的コンテンツの両方が指定された名前を作成できるように、静的テキストが動的コンテンツとともに使用されます。
-
-`name: "task_{content}"`
-
-{% include product %} エンティティ フォルダ設定が検出されるまで、ノードは親や祖親などを探します。このエンティティ フォルダはタスクに関連付けられ、作成するタスク フォルダの決定に使用されます。
-
-### 詳細設定: 親を指定する
-
-フォルダ作成の一環として、Toolkit はタスクとエンティティ(ショットやアセットなど)を関連付ける必要があります。このために、既定ではフォルダ ツリーを検索し、見つけた最初の {% include product %} エンティティ フォルダを選択します。たとえば、階層 `Sequence > Shot > Task` にアクセスすると、タスク フォルダが通常は任意のショットと自動的に関連付けられます。
-
-ただし、`Sequence > Shot > Department > Task,` など、プライマリ エンティティよりも下の階層のエンティティの場合(ショットよりも下)、既定では Toolkit はタスクと部門レベルを強制的に関連付けます。この場合、[前のセクション](#create-with-parent-folder)でステップを使用した更新方法と同じように、Toolkit に検索場所を明示的に指示する必要があります。このためには、タスク設定に次のコードを追加します。
-
-`associated_entity_type: Shot`
-
-## 作業スペースと遅延フォルダ作成
-
-遅延フォルダ作成は、2 つ目のフォルダ作成パスが Toolkit API の create folders メソッドのオプションである `engine` パラメータを介して要求された場合にのみ実行されます。通常、このメソッドはアプリケーションの起動直前に Toolkit のさまざまなアプリケーション ランチャーによって実行されます。ほとんどのフォルダ タイプが遅延フラグをサポートします。既定の設定は `false` です。遅延フォルダ作成を `true` にするには、次のフラグを追加します。
-
-
- # only create this folder when tk.create_filesystem_structure is
-
- # called with tk-maya, tk-nuke or any-custom-string.
- defer_creation: ["tk-maya", "tk-nuke", "any-custom-string]
-
-
- # create this folder when any application launches, but not when normal folder
-
- # creation runs
- defer_creation: true
-
-このフラグにより、フォルダ作成を 2 つに分割できます。1 つ目は最初の「グローバル」パスで実行し、もう 1 つのパスは後で実行します。通常、2 つ目のパスはエンジンの起動に関連付けられているため(既定値が `false` のために自動的には実行されない)、ユーザはエンジンの起動直前にフォルダを作成できます。このため、主に次の 2 つのワークフローが可能になります。
-
-1. **ワークスペース:** アプリケーション固有のフォルダ セットアップです。フォルダはアプリケーションの起動直前に作成できます。
-2. 一般的なワークフローでは、ショットに必要なものとアーティストがそれを処理する方法に応じて、Houdini、Maya、および他のエンジンを必要とするパイプライン ステップを指定します。本来、アーティストはこのパイプライン ステップに対して、maya/、houdini/、および他のディレクトリを作成できますが、任意のショットのアーティストが Maya でしか作業しない場合、Houdini と他のエンジンの空のフォルダは不要になります。そのため、個別のエンジンの起動時にフォルダ作成を遅延し、アーティストが Houdini を使用しない場合、houdini/ フォルダはこのショットで作成されません。
-3. **ユーザ フォルダ:**ユーザ フォルダはアプリケーションの起動直前に作成されます。ユーザ フォルダ設定の構成(上述)は、既定では遅延するように設定されています。
-4. これは、{% include product %} で割り当てられたユーザに基づいてユーザ フォルダを作成するのではなく、エンジンの起動時に現在のユーザのフォルダを作成できるように実行されます。たとえば、ショットで作業を開始して Maya を起動すると、({% include product %} のユーザ名に基づいて)ユーザ名のフォルダが作成されるため、他のユーザの作業を邪魔することはありません。
-
-_ヒント: アプリケーション(Maya など)の起動時に通常の静的なフォルダを作成するには、フォルダと同じ名前の yaml 設定ファイルを作成して、次のコードを追加するだけです。_
-
-
- # type of content
- type: "static"
-
-
- # only create this folder for maya
- defer_creation: "tk-maya"
-
- :::yaml
-
- # type of content
- type: "static"
-
-
- # only create this folder when tk.create_filesystem_structure is
-
- # called with any-custom-string.
- defer_creation: "any-custom-string"
-
-## 現在のユーザ フォルダ
-
-現在のユーザ フォルダは特別な構造をしており、別のユーザの作業領域をセットアップできます。一般的なシナリオとして、ある部門の複数のアーティストが同じショットに対して作業している場合があります。ユーザ フォルダを使用することにより、アーティストは自分の作業ファイルを独自のディレクトリに保存し、[作業ファイル アプリ](https://developer.shotgridsoftware.com/ja/9a736ee3/)でこのファイルをフィルタリングできるようになります。この場合、設定ファイルに次のオプションを含める必要があります。
-
-
- # the type of dynamic content
- type: "user_workspace"
-
- name: "login"
-
-- **type** フィールドの値を `user_workspace` に設定します。
-- **name** フィールドはユーザ フォルダに付与される名前です。これは {% include product %} のユーザ({% include product %} の `HumanUser`)から取得したフィールドを組み合わせて構成する必要があります。
-- 上記の例のように(`name: login` など)、1 つのフィールドを使用できます。
-- 括弧内に複数のフィールド(`name: "{firstname}_{lastname}"` など)を使用できます。
-- 他にリンクされたエンティティのフィールドを追加する場合は、標準の {% include product %} ドット シンタックス(`name: "{sg_group.Group.code}_{login}"` など)を使用できます。
-
-現在のユーザ フォルダは既定では遅延フォルダとして作成されます。つまり、2 つ目のフォルダ作成パスが Toolkit API の create folders メソッドでオプションの `engine` パラメータを介して要求された場合にのみ実行されます。
-
-## 静的フォルダ
-
-静的フォルダ(およびファイル)は最も簡単なタイプです。このフォルダを設定構成に追加すると、フォルダ作成プロセスの実行時にこのフォルダが自動的にコピーされます。[次に、既定の設定の静的フォルダの例](https://github.com/shotgunsoftware/tk-config-default/tree/master/core/schema/project) (https://github.com/shotgunsoftware/tk-config-default/tree/master/core/schema/project)を示します(静的フォルダには対応する yaml ファイルはありません)。
-
-多くの場合、静的フォルダでこれ以上の機能は必要ありませんが、Toolkit は静的フォルダの高度な機能をいくつかサポートしています。静的フォルダを作成するかどうかを判断するための動的な条件を定義することができます。たとえば、編集タイプのパイプライン ステップでのみ作成される特別な静的フォルダについて設定するとします。この場合、yaml 設定ファイルを静的フォルダの次に追加し、拡張子は「yml」で同じ名前を付ける必要があります。次に、以下の構文を使用します。
-
-
- # the type of dynamic content
- type: "static"
-
-
- # pick one of the {% include product %} folders that are above this folder
-
- # in the folder hierarchy. In this case it is a parent folder
-
- # named step that we want to look at when deciding if this
-
- # static folder should be created or not.
- constrain_by_entity: "$step"
-
-
- # we can now define constraints for this step. Constraints are simple
-
- # {% include product %} queries, following the same syntax as the other {% include product %} filters
-
- # shown in previous sections.
- #
-
- # In our example, if the parent step matches the constraints given
-
- # in the filter below, the static folder will be created. If not,
-
- # it (and its children) will be ignored by the folder creation process.
- constraints:
- - { "path": "short_name", "relation": "is", "values": [ "edit" ] }
-
-既定では、静的フォルダはその親フォルダとともに自動的に作成されます。これが理想の動作とは異なる場合、静的フォルダがその親とともに作成されないように指示する特別なフラグを追加できます。
-
-
- # do not recurse down automatically
- create_with_parent: false
-
-## シンボリック リンク
-
-動的フォルダ作成の一部としてシンボリック リンク(symlink)を作成することができます。`artwork` という名前のシンボリック リンクを作成する場合は、`artwork.symlink.yml` という名前のスキーマ設定でファイルを作成します。これはシステムによってシンボリック リンク要求として識別され、全体にコピーされる代わりに処理されます。
-
-`artwork.symlink.yml` ファイルには少なくとも `target` キーが含まれている必要があります。
-
-
- # Example of a .symlink.yml file
-
-
- # A target parameter is required.
- target: "../Stuff/$Project/$Shot"
-
-
- # Additional parameters will be passed to the hook as metadata
-
- # so you can for example include permission hints or other stuff
-
- # that you may need for advanced customization
- additional_param1: abc
- additional_param2: def
-
-ターゲット パラメータに `$Asset`、`$Shot`、または `$Project` などの `$EntityType` トークンが含まれている場合、このエンティティ(アセット、ショット、プロジェクトなど)を表すフォルダの名前による解決が試行されます。Toolkit はこの値のファイルシステム ツリーを検索し、ツリーの上位で定義されていない場合は、エラーが報告されます。
-
-リスト フィールド(アセットのアセット タイプなど)は、`$Asset.sg_asset_type` のようなエンティティ タイプを含む構文で表されます。以下に例を示します。
-
-
- # Example of a .symlink.yml file
-
-
- # A target parameter is required.
- target: "../renders/$Project/$Asset.sg_asset_type/$Asset"
-
-symlink の作成は(すべての入力/出力(I/O)のように)フックを処理するフォルダ内で実行されます。特別な `symlink` アクションがシステムからフックに渡され、symlink の名前、完全に解決されたターゲット、この要求とともに定義ファイル内に含まれた yaml メタデータを受け取ります。上記の `artwork` の例の場合、次のようにショットの下にフォルダを作成します。
-
- {'action': 'symlink',
- 'path': '/mnt/projects/chasing_the_light/Sequences/AA/AA001/artwork'
- 'target': '../Stuff/chasing_the_light/AA001',
- 'metadata': {'target': '../Stuff/$Project/$Shot', 'additional_param1': 'abc', 'additional_param2': 'def'}
- }
-
-## ファイルとフォルダを無視する
-
-スキーマ スキャフォールドに格納されたファイルは、フォルダ作成の一環として対象領域にコピーされます。たとえば、このコピー処理はコア フックで処理されるため、権限の取り扱いはプロジェクトまたはスタジオごとにカスタマイズできます。
-
-{% include info title="注" content="この種の取り扱いの詳細は「簡単なカスタマイズ」の「[I/O と権限をカスタマイズする](#simple-customization-of-how-folders-are-created)」セクションに記載されています。数多くのフォルダ セットアップを処理する [process_folder_creation コア フック](https://github.com/shotgunsoftware/tk-core/blob/master/hooks/process_folder_creation.py#L62-L71) (https://github.com/shotgunsoftware/tk-core/blob/master/hooks/process_folder_creation.py#L62-L71)があります。このフックに chmod 呼び出しを追加して(mkdir を使用する際の権限の設定も可能)、作成するフォルダの権限を設定できます。" %}
-
-場合によっては、フォルダ作成の一環としてコピーされないように特定のファイルとフォルダを除外するのに便利です。たとえば、Git または SVN にフォルダ作成設定を保存している場合、ショットまたはアセットの各フォルダにコピーしない `.git` フォルダと `.svn` フォルダを作成します。コピーしたくないファイルがある場合、`ignore_files` という名前のファイルをプロジェクト設定内の `config/core/schema` フォルダに配置できます。このファイルには、コピーしないようにファイルを定義する glob スタイル パターンを含める必要があります。各パターンは 1 行ずつ指定する必要があります。
-
-
- # This is a good example of a standard ignore_files file
-
- .svn # no svn temp files to be copied across at folder creation time
- .git # no git temp files to be copied across at folder creation time
- .DS_Store # no mac temp files to be copied across at folder creation time
-
-また、ワイルドカードを使用することもできます。たとえば、拡張子が TMP のすべてのファイルを除外する必要がある場合は、ファイルに *.tmp の行を追加するだけです。
-
-
- # This is a good example of a standard ignore_files file
-
- .svn # no svn temp files to be copied across at folder creation time
- .git # no git temp files to be copied across at folder creation time
- *.tmp # no files with tmp extension to be copied across at folder creation time
-
-## I/O と権限をカスタマイズする
-
-多くの場合、ショットとアセットのフォルダは特別な権限とパラメータを使用して作成する必要があります。これはフォルダ作成中に権限を少しずつ設定するという簡単な作業であることも、適切な資格情報、グループ、および権限を使用してフォルダを作成する特別なフォルダ作成サーバにリモート要求を送信するという複雑な作業であることもあります。
-
-また、ファイル システムのツリー内にある各レベルのフォルダに対し、通常は異なる権限を指定する必要があります。たとえば、作業領域フォルダはすべてのユーザに対して書き込み可能にし、ショット フォルダには厳格な権限を指定する必要があります。
-
-Toolkit では 1 つのフックでフォルダ作成をカスタマイズできます。これは `process_folder_creation.py` という名前のコア フックです。フォルダ作成 API の呼び出しはフォルダ設定をトラバースし、作成するフォルダを特定するため、作成できる項目のリストが生成されます。この項目にはファイルとフォルダの両方が含まれます。フォルダ作成の最後の手順として、このリストは実際のフォルダの処理を取り扱うフックに渡されます。既定の [process_folder_creation コア フックはここで](https://github.com/shotgunsoftware/tk-core/blob/master/hooks/process_folder_creation.py#L62-L71)(https://github.com/shotgunsoftware/tk-core/blob/master/hooks/process_folder_creation.py#L62-L71)確認できます。
-
-### フックに渡されるデータ
-
-フォルダ作成フックはフォルダ作成要求ごとに 1 回だけ実行されます。すべてのフォルダ作成データはリストのフックに渡されます。通常、フックはこのデータを繰り返して処理し、Core API から渡されるパラメータに従ってフォルダを作成します。
-
-リスト内のデータは常に深さ優先再帰で、最上位のフォルダとファイルから始まり、段階的に深い階層へとトラバースします。次に、フックに渡されるデータの例を示します。
-
- [
-
- {'action': 'entity_folder',
- 'entity': {'id': 88, 'name': 'Chasing the Light', 'type': 'Project'},
- 'metadata': {'root_name': 'primary', 'type': 'project'},
- 'path': '/mnt/projects/chasing_the_light'},
-
- {'action': 'folder',
- 'metadata': {'type': 'static'},
- 'path': '/mnt/projects/chasing_the_light/sequences'},
-
- {'action': 'entity_folder',
- 'entity': {'id': 32, 'name': 'aa2', 'type': 'Sequence'},
- 'metadata': {'entity_type': 'Sequence',
- 'filters': [{'path': 'project',
- 'relation': 'is',
- 'values': []}],
- 'name': 'code',
- 'type': 'shotgun_entity'},
- 'path': '/mnt/projects/chasing_the_light/sequences/aa2'},
-
- {'action': 'entity_folder',
- 'entity': {'id': 1184, 'name': 'moo87', 'type': 'Shot'},
- 'metadata': {'entity_type': 'Shot',
- 'filters': [{'path': 'sg_sequence',
- 'relation': 'is',
- 'values': []}],
- 'name': 'code',
- 'type': 'shotgun_entity'},
- 'path': '/mnt/projects/chasing_the_light/sequences/aa2/moo87'},
-
- {'action': 'copy',
- 'metadata': {'entity_type': 'Shot',
- 'filters': [{'path': 'sg_sequence',
- 'relation': 'is',
- 'values': []}],
- 'name': 'code',
- 'type': 'shotgun_entity'},
- 'source_path': '/mnt/software/tank/chasing_the_light/config/core/schema/project/sequences/sequence/shot/sgtk_overrides.yml',
- 'target_path': '/mnt/projects/chasing_the_light/sequences/aa2/moo87/sgtk_overrides.yml'},
-
- {'action': 'create_file',
- 'metadata': {'entity_type': 'Shot',
- 'filters': [{'path': 'sg_sequence',
- 'relation': 'is',
- 'values': []}],
- 'name': 'code',
- 'type': 'shotgun_entity'},
- 'content': 'foo bar',
- 'target_path': '/mnt/projects/chasing_the_light/sequences/aa2/moo87/automatic_content.txt'},
-
- {'action': 'symlink',
- 'path': '/mnt/projects/chasing_the_light/Sequences/AA/AA001/artwork'
- 'target': '../Stuff/chasing_the_light/AA001',
- 'metadata': {'target': '../Stuff/$Project/$Shot', 'additional_param1': 'abc', 'additional_param2': 'def'}
- },
-
- ]
-
-このデータはディクショナリのリストです。各ディクショナリには `action` と呼ばれるキーがあります。このキーは要求された I/O 項目のタイプを示します。フォルダ作成フックを実装している場合は、次のさまざまなアクションのサポートを追加する必要があります。
-
-- `entity_folder`: {% include product %} エンティティと関連付けられたディスク上のフォルダです。
-- `folder`: ディスク上のフォルダです。
-- `copy`: 元の場所から対象の場所にコピーする必要があるファイルです。
-- `create_file`: ディスク上に作成する必要があるファイルです。
-- `symlink`: シンボリック リンクを作成する必要があります。
-
-各アクションにはさまざまなディクショナリ キーがあります。たとえば、`entity_folder` アクションには、接続先のエンティティの詳細を含む `entity key` があります。`create_file` には、コピーするファイルや場所をフックに通知する `source_path` と `target_path` のキーがあります。
-
-また、すべての `actions` には `metadata` と呼ばれるキーもあります。このキーは、スキーマ セットアップで関連する設定ファイルから取得された YAML 設定データを表します。上記の例は、{% include product %} フォルダの `metadata` キーにスキーマ設定内でセットアップされるすべてのフィルタと命名情報がどのように含まれるかについて示しています。たとえば、上記の例のショット フォルダのメタデータは次のとおりです。
-
- {'action': 'entity_folder',
- 'entity': {'id': 1184, 'name': 'moo87', 'type': 'Shot'},
- 'metadata': {'entity_type': 'Shot',
- 'filters': [{'path': 'sg_sequence',
- 'relation': 'is',
- 'values': []}],
- 'name': 'code',
- 'type': 'shotgun_entity'},
- 'path': '/mnt/projects/chasing_the_light/sequences/aa2/moo87'}
-
-`shot.yml` スキーマ設定ファイルに対応しています。
-
-
- # Copyright (c) 2013 {% include product %} Software Inc.
- #
-
- # CONFIDENTIAL AND PROPRIETARY
- #
-
- # This work is provided "AS IS" and subject to the {% include product %} Pipeline Toolkit
-
- # Source Code License included in this distribution package. See LICENSE.
-
- # By accessing, using, copying or modifying this work you indicate your
-
- # agreement to the {% include product %} Pipeline Toolkit Source Code License. All rights
-
- # not expressly granted therein are reserved by {% include product %} Software Inc.
-
-
- # the type of dynamic content
- type: "shotgun_entity"
-
-
- # the {% include product %} field to use for the folder name
- name: "code"
-
-
- # the {% include product %} entity type to connect to
- entity_type: "Shot"
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "sg_sequence", "relation": "is", "values": [ "$sequence" ] } ]
-
-_注: 動的なトークン `$sequence` は実行中に実際のオブジェクトに解決されます。_
-
-### 独自のフォルダ作成指示をフックに渡す
-
-Toolkit で必要になるさまざまな設定指示とは別に、スキーマ設定の一部として独自の設定項目を定義することもできます。この項目は上述の `metadata` キーを使用してフックに渡され、フォルダ作成を制御するために使用されます。
-
-たとえば、スキーマ設定に次の構造があるとします。
-
-
- # the type of dynamic content
- type: "shotgun_entity"
-
-
- # the {% include product %} field to use for the folder name
- name: "code"
-
-
- # the {% include product %} entity type to connect to
- entity_type: "Shot"
-
-
- # {% include product %} filters to apply when getting the list of items
- filters: [ { "path": "sg_sequence", "relation": "is", "values": [ "$sequence" ] } ]
-
-
- # user settings
- studio_permissions_level: "admin"
-
-この場合、フォルダ作成フックを使用して渡されるデータは次のようになります。
-
- {'action': 'entity_folder',
- 'entity': {'id': 1184, 'name': 'moo87', 'type': 'Shot'},
- 'metadata': {'entity_type': 'Shot',
- 'filters': [{'path': 'sg_sequence',
- 'relation': 'is',
- 'values': []}],
- 'name': 'code',
- 'type': 'shotgun_entity',
- 'studio_permissions_level': 'admin'},
- 'path': '/mnt/projects/chasing_the_light/sequences/aa2/moo87'}
-
-ここで、特別なパラメータ `studio_permissions_level` はフックに渡され、ファイル権限の制御などのために使用されます。また、このメソッドを使用すると、任意の複雑なデータ構造を渡すこともできます。この一般的な例として、非常に詳細なレベルでの権限の制御があります。
-
-### カスタム設定を静的フォルダに追加する
-
-通常、フォルダ スキーマ設定内にフォルダを作成したけれども、対応する YAML ファイルがない場合、Toolkit はこのフォルダが静的で、作成されるだけだと見なします。
-
-カスタム設定のメタデータと静的フォルダを関連付ける場合は、`static` タイプの YAML 設定ファイルを作成する必要があります。たとえば、プロジェクト ルートの下に静的フォルダ `assets` があり、アセットをグループ化してカスタム設定のメタデータを追加するとします。このためには、次の `assets.yml` ファイルを作成します。
-
- type: static
- studio_permissions_level: "admin"
-
-フックに渡される設定データには次のコードが含まれます。
-
- {'action': 'folder',
- 'metadata': {'studio_permissions_level': 'admin', 'type': 'static'},
- 'path': '/mnt/projects/chasing_the_light/assets'},
-
-
-任意の複雑なデータはこの方法で YAML 設定ファイルからフックに渡すことができます。
-
-## フォルダの作成方法の簡単なカスタマイズ
-
-簡単なフォルダ作成フックは次のようになります。
-
- class ProcessFolderCreation(Hook):
-
- def execute(self, items, preview_mode, **kwargs):
- """
- The default implementation creates folders recursively using open permissions.
-
- This hook should return a list of created items.
-
- Items is a list of dictionaries. Each dictionary can be of the following type:
-
- Standard Folder
- ---------------
- This represents a standard folder in the file system which is not associated
- with anything in {% include product %}. It contains the following keys:
-
- * "action": "folder"
- * "metadata": The configuration yaml data for this item
- * "path": path on disk to the item
-
- Entity Folder
- -------------
- This represents a folder in the file system which is associated with a
- {% include product %} entity. It contains the following keys:
-
- * "action": "entity_folder"
- * "metadata": The configuration yaml data for this item
- * "path": path on disk to the item
- * "entity": {% include product %} entity link dict with keys type, id and name.
-
- File Copy
- ---------
- This represents a file copy operation which should be carried out.
- It contains the following keys:
-
- * "action": "copy"
- * "metadata": The configuration yaml data associated with the directory level
- on which this object exists.
- * "source_path": location of the file that should be copied
- * "target_path": target location to where the file should be copied.
-
- File Creation
- -------------
- This is similar to the file copy, but instead of a source path, a chunk
- of data is specified. It contains the following keys:
-
- * "action": "create_file"
- * "metadata": The configuration yaml data associated with the directory level
- on which this object exists.
- * "content": file content
- * "target_path": target location to where the file should be copied.
-
- """
-
- # set the umask so that we get true permissions
- old_umask = os.umask(0)
- folders = []
- try:
-
- # loop through our list of items
- for i in items:
-
- action = i.get("action")
-
- if action == "entity_folder" or action == "folder":
- # folder creation
- path = i.get("path")
- if not os.path.exists(path):
- if not preview_mode:
- # create the folder using open permissions
- os.makedirs(path, 0777)
- folders.append(path)
-
- elif action == "copy":
- # a file copy
- source_path = i.get("source_path")
- target_path = i.get("target_path")
- if not os.path.exists(target_path):
- if not preview_mode:
- # do a standard file copy
- shutil.copy(source_path, target_path)
- # set permissions to open
- os.chmod(target_path, 0666)
- folders.append(target_path)
-
- elif action == "create_file":
- # create a new file based on content
- path = i.get("path")
- parent_folder = os.path.dirname(path)
- content = i.get("content")
- if not os.path.exists(parent_folder) and not preview_mode:
- os.makedirs(parent_folder, 0777)
- if not os.path.exists(path):
- if not preview_mode:
- # create the file
- fp = open(path, "wb")
- fp.write(content)
- fp.close()
- # and set permissions to open
- os.chmod(path, 0666)
- folders.append(path)
-
- else:
- raise Exception("Unknown folder hook action '%s'" % action)
-
- finally:
- # reset umask
- os.umask(old_umask)
-
- return folders
-
-# パート 2: ファイル システム テンプレートを設定する
-
-Toolkit テンプレート ファイルは Toolkit 設定のハブの 1 つです。プロジェクトごとにこのようなファイルが常に 1 つあり、パイプライン設定内の **config/core** フォルダ内に格納されています。
-
-
-
-このファイルには _「テンプレート」_ の定義とその _「キー」_ が含まれます。
-
-**キー**は定義された動的フィールドです。これには、名前、バージョン番号、スクリーン解像度、ショット名などを指定できます。キーには型が設定されるため、キーに文字列または整数などを定義できます。また、キーにはフォーマットを設定することもできるため、文字列に含められるのは英数字のみと定義したり、すべての整数にゼロを 8 個追加する必要があると定義したりできます。
-
-**テンプレート**は動的なパスです。テンプレートは `shots/{shot}/publish/{name}.{version}.ma` のように表示されます。このテンプレートはショットの Maya パブリッシュを表し、括弧のフィールドはキーを表します。
-
-テンプレート ファイルは、キー、パス、文字列の 3 つのセクションに分かれています。
-
-## キー セクション
-
-キーはフィールドで許容される値を定義します。テンプレート設定ファイルでは、キーは次の形式で定義されます。
-
- key_name:
- type: key_type
- option: option_value
- option: option_value
-
-キーのタイプは、`str`、`int`、または `sequence` のいずれかです。str キーは値が文字列のキーで、int キーは値が整数のキーで、sequence キーは値が整数の列のキーです。
-
-タイプの指定とは別に、追加オプションを指定することもできます。オプションは次のとおりです。
-
-- `default: default_value` : 値が何も指定されない場合に使用される値です。Toolkit API を使用して一連のフィールド値をパスに解決する場合などに使用できます。
-
-- `choices: [choice1, choice2, etc]` : このキーの有効値を列挙します。
-
-- `exclusions: [bad1, bad2, etc]` : このキーに禁止されている値を列挙します。キーのタイプが sequence の場合、フレームの仕様値はこの設定で無効にできません。
-
-- `length: 12` : このキーは正確な長さに指定する必要があります。
-
-- `alias: new_name` : このキーを使用するテンプレートが key_name の代わりに使用する名前を指定します。たとえば、バージョン番号に 2 つのコンセプトがあり、その 1 つはクライアントの希望に応じてゼロを 4 個追加し、もう 1 つは内部的な処理方法が理由でゼロを 3 つ追加するとします。この場合、両方のキーに「version」という名前を付けようとしますが、キー名は固有である必要があるため不可能です。この場合、エイリアスを作成することができます。詳細については、以下の例を参照してください。
-
-- `filter_by: alphanumeric` : キーのタイプが文字列の場合にのみ動作します。このオプションを指定すると、英数字の値(通常は ASCII 文字の a-z、A-Z、および 0-9 ですが、入力データが Unicode の場合は他の文字列も含めることが可能)を含む文字列のみが有効値であると見なされます。
-
-- `filter_by: alpha` : キーのタイプが文字列の場合にのみ動作します。このオプションを指定すると、英字値(通常は ASCII 文字の a-z と A-Z ですが、入力データが Unicode の場合は他の文字列も含めることが可能)を含む文字列のみが有効値であると見なされます。
-
-- `filter_by: '^[0-9]{4}_[a-z]{3}$'` : キーのタイプが文字列の場合にのみ動作します。検証マスクとして正規表現を定義できます。上記の例で 4 桁のキーを指定する必要がある場合などは、アンダースコアとその後に 3 つの小文字を指定します。
-
-- `format_spec: "04"` : キーのタイプが int または sequence の場合、int または sequence の番号にはゼロまたはスペースが追加されます。例のように「04」を指定すると、ゼロが追加されて長さが 4 桁になります(例: 0003)。「03」を指定すると、ゼロが追加されて長さが 3 桁になります(例: 042)。「3」を指定すると、スペースが追加されて長さが 3 桁になります(例: 「__3」)。キーのタイプがタイムスタンプの場合、format_spec は [strftime と strptime の規則](https://docs.python.org/2/library/datetime.html#strftime-strptime-behavior) に従います。
-
-- `strict_matching: true` : キーのタイプが整数の場合にのみ動作します。この設定は、フィールドが正しくフォーマット化された番号のみに一致することを表しています。たとえば、「003」と指定して strict_matching を true に設定すると、「002」、「12345」、および「042」は一致しますが、「00003」または「2」は一致しません。一致の厳密性を緩めるには、strict_matching を false に設定します。既定の動作は厳密な一致を採用します。
-
-- `shotgun_entity_type`: `shotgun_field_name` オプションと組み合わせて使用すると、コンテキストで {% include product %} の値を直接クエリーできます。これにより、ファイル名で使用するフォルダ構造で表示されていないフィールドの値を使用できます。
-
-- `shotgun_field_name` : `shotgun_entity_type` と組み合わせた場合にのみ使用します。
-
-- `abstract` : フィールドが抽象的であることを示します。抽象フィールドは、パターンでイメージ シーケンス(%04d)または立体視(%V)などのパスを定義する必要がある場合に使用されます。抽象フィールドには既定値が必要です。
-
-- `subset` と `subset_format`: 指定した入力文字列のサブセットを抽出し、完全なユーザ名からイニシャルのキーを作成したり、すべてのショット名の最初の 3 文字を保持するキーを作成したりできるキーの値を作成します。
-
-
-テンプレート キーの技術的詳細については、「[API リファレンス](http://developer.shotgridsoftware.com/tk-core/core.html#template-system)」を参照してください。
-
-### 例: 英数字の名前
-
-既定値が「comp」で英数字を使用する名前です。
-
- name:
- type: str
- default: "comp"
- filter_by: alphanumeric
-
- nuke_shot_work: sequences/{Sequence}/{Shot}/{Step}/work/nuke/{name}.v{version}.nk
-
-### 例: バージョン番号
-
-002、102、034、12341 などの番号と一致するバージョン番号
-
- version:
- type: int
- format_spec: "03"
-
-002、102、034、12341 だけでなく、0002、2、0102 などの番号とも一致するバージョン番号
-
- version:
- type: int
- format_spec: "03"
- strict_matching: false
-
-### 例: 立体視
-
-一般的な立体視のセットアップです。視野は L または R のいずれかですが、ソフトウェアで使用する場合、一般的な抽象化方法で %V として参照されることが多くなります。%V はファイル名ではなくファイルのコレクションを参照し、_abstract_ フラグを設定します。抽象フィールドには、抽象的な表現が要求された場合に取得される既定値を指定する必要があります。
-
- eye:
- type: str
- choices: ["L", "R", "%V"]
- default: "%V"
- abstract: true
-
- nuke_shot_render_stereo: sequences/{Sequence}/{Shot}/{Step}/work/images/{Shot}_{name}_{eye}_v{version}.{SEQ}.exr
-
-### 例: イメージ シーケンス
-
-イメージ シーケンスは定義によって抽出され、特に指定しない限り、既定値は %0Xd に設定されます。以下のシーケンスの仕様は、0001、1234、および 12345 などのフレーム番号を識別します。
-
- SEQ:
- type: sequence
- format_spec: "04"
-
- nuke_shot_render_stereo: sequences/{Sequence}/{Shot}/{Step}/work/images/{Shot}_{name}_{channel}_{eye}_v{version}.{SEQ}.exr
-
-### 例: エイリアスを使用して 2 つのフィールドに version という名前を付ける
-
-「version」という名前のキーを要求するコードで使用できるバージョン番号を 2 つ定義します。これは、2 つの Toolkit アプリの両方に _version_ フィールドが必要だがこの version フィールドを個別にフォーマット化するという場合に役立ちます。
-
- nuke_version:
- type: int
- format_spec: "03"
- alias: version
- maya_version:
- type: int
- format_spec: "04"
- alias: version
-
-
- # nuke versions are using numbers on the form 003, 004, 005
-
- # the nuke publish app requires a field called {version}
-
- # however {nuke_version} is a valid replacement for {version}
-
- # because it has an alias defined
- nuke_shot_work: sequences/{Sequence}/{Shot}/{Step}/work/nuke/{name}.v{nuke_version}.nk
-
-
- # maya versions are using numbers on the form 0004, 0005, 0006
- maya_shot_work: sequences/{Sequence}/{Shot}/{Step}/work/maya/{name}.v{maya_version}.ma
-
-### 例: タイムスタンプ
-
-既定値が現在のローカル時間に設定され、YYYY-MM-DD-HH-MM-SS にフォーマット化されるタイムスタンプです。
-
- now:
- type: timestamp
- format_spec: "%Y-%m-%d-%H-%M-%S"
- default: now
-
-既定値が現在の UTC 時間に設定され、YYYY.MM.DD にフォーマット化されるタイムスタンプです。
-
- year_month_day:
- type: timestamp
- format_spec: "%Y.%m.%d"
- default: utc_now
-
-既定値が 9:00:00 に設定され、HH-MM-SS にフォーマット化されるタイムスタンプです。
-
- nine_am_time:
- type: timestamp
- format_spec: "%H-%M-%S"
- default: "09-00-00"
-
-### 例: マッピング
-
-これは、{% include product %} フィールドをファイル名に追加する場合などに役立ちます。ファイル名にユーザ名を含めるには、次の定義を使用します。
-
- current_user_name:
- type: str
- shotgun_entity_type: HumanUser
- shotgun_field_name: login
-
- nuke_shot_work: sequences/{Sequence}/{Shot}/{Step}/work/nuke/{current_user_name}_{name}.v{version}.nk
-
-Toolkit アプリで `context.as_template_fields()` メソッドを使用してすべてのコンテキスト フィールドを設定すると、上位レベルの `Shot`、`Sequence`、および `Step` が自動的に設定されます。また、`shotgun_entity_type` (上記の `current_user_name` フィールドなど)が定義されたすべてのフィールドもスキャンします。{% include product %} エンティティがコンテキストで定義されている場合は、この値が自動的に解決されるようになります。現在のユーザはコンテキストで常にトラックされ、上記の例では、ショット、シーケンス、ステップのフィールドからデータを取得することもできます。その理由は、このフィールドが上位レベルのパスとコンテキストとして定義されているためです。ただし、フィールドのアセット エンティティを参照しようとしても、Toolkit がデータ取得元の {% include product %} のアセットを把握できないため、上記の例では機能しません。
-
-### 例: 2 つの有効な値を使用した文字列フィールド
-
-多くの場合、スタジオでは ASCII とバイナリの Maya ファイルを保存する必要があるプロジェクトを使用します。この場合、2 つの有効値を含む文字列の値は次のようになります。
-
- maya_file_extension:
- type: str
- choices: ["ma", "mb"]
-
-{% include info title="注" content="既定のアプリは、`templates.yml` で定義された内容に応じて `.ma` または `.mb` を使用します。そのため、たとえば、プロジェクトで `.ma` の代わりに `.mb` を保存するように作業ファイル アプリを変更する場合は、この 3 つのテンプレート(ショット用)を変更できます。" %}
-
- maya_shot_work: '@shot_root/work/maya/{name}.v{version}.ma'
- maya_shot_snapshot: '@shot_root/work/maya/snapshots/{name}.v{version}.{timestamp}.ma'
- maya_shot_publish: '@shot_root/publish/maya/{name}.v{version}.ma'
-
- If you instead end them with .mb, then the apps will save out as Maya binary:
-
- maya_shot_work: '@shot_root/work/maya/{name}.v{version}.mb'
- maya_shot_snapshot: '@shot_root/work/maya/snapshots/{name}.v{version}.{timestamp}.mb'
- maya_shot_publish: '@shot_root/publish/maya/{name}.v{version}.mb'
-
-詳細については、以下の「[パス セクション](#the-paths-section)」を参照してください。
-
-### 例: 値を無効にする
-
-値「assets」が許可されていない文字列フィールドです。これは、たとえば、すべてのアセットが格納された 1 つの「assets」フォルダとともにプロジェクトのすべてのシーケンスを格納するフォルダを含むフォルダが 2 つある場合に役立ちます。
-
- project
- |--- sequence1
- |--- sequence2
- |--- sequence3
- \--- assets
-
-assets フォルダが単なる別のシーケンスではないことを Toolkit が正しく理解できるように、「assets」はシーケンス テンプレートの有効な値ではないと定義することができます。
-
- sequence:
- type: str
- exclusions: ["assets"]
-
-上記の exclusions フィールドにより、正しく解決される 2 つのテンプレートを定義できます。
-
- sequence_work_area: {sequence}/{shot}/work
- asset_work_area: assets/{asset}/work
-
-### 例: 文字列のサブセット
-
-次の例では、前の例を拡張して、ユーザのイニシャルを使用してファイル名のプレフィックスを作成する方法について説明します。
-
- user_initials:
- type: str
- shotgun_entity_type: HumanUser
- shotgun_field_name: login
- subset: '([A-Z])[a-z]* ([A-Z])[a-z]*'
- subset_format: '\{0\}\{1\}'
-
- nuke_shot_work: sequences/{Sequence}/{Shot}/{Step}/work/nuke/{user_initials}_{name}.v{version}.nk
-
-## パス セクション
-
-パス セクションは作業の保存場所を指定します。すべてのパスは少なくとも名前と定義から構成されます。定義は、括弧内に設定したキー名とパスを表すキー設定されていない値を混在させたものです。たとえば、ショットの作業ファイルの定義は次のようになります。
-
- shot_work: sequences/{Sequence}/{Shot}/{Step}/work/{Shot}.v{version}.ma
-
-キーであるシーケンス、ショット、ステップ、およびバージョンは、同じテンプレート ファイルに定義されます。
-
-{% include info title="注" content="文字列キーの名前が、関連する ShotGrid エンティティが格納された動的なスキーマ フォルダのエンティティ タイプと一致する場合は、このフォルダ名はトークンで置き換えられます。たとえば、{Sequence} テンプレート キーのタイプが上記のスニペットのように「string」で、スキーマで「sequence」という名前の動的フォルダを使用し、それに対応した `sequence.yml` ファイルでタイプが `shotgun_entity` になるように定義し、ShotGrid の「Sequence」エンティティ タイプに接続するとします。Toolkit は、テンプレート キーがこの動的フォルダのエンティティ タイプに対応することを認識します(両方ともシーケンスであるため)。そのため、Toolkit は生成されたフォルダ名(つまり問題となっている固有のシーケンスの名前)を取得し、テンプレート キーに置き換えます。" %}
-
-この形式は任意のアトリビュートを定義する必要がある場合に必要です。現在、唯一のオプション属性は `root_name` で、複数のルートを持つプロジェクトでパスのプロジェクト ルートを指定するために使用されます。[複数のルート](https://developer.shotgridsoftware.com/ja/9ea9dd4e/)は、いくつかのプロジェクト ファイルを保存するために新しいストレージ ルートを追加する場合に使用されます。
-
-`root_name: name_of_project_root`
-
-たとえば、次のようになります。
-
- shot_work:
- definition: sequences/{Sequence}/{Shot}/{Step}/work/{Shot}.v{version}.ma
- root_name: primary
-
-プライマリ ルートではなく別のストレージ ルートを使用する場合は、上記の形式を使用する必要があります。この例では、このシンプルな形式を使用することで、すべてのエントリのプライマリ ルートを使用することを意味しています。
-
-## 文字列セクション
-
-文字列は、単純な形式で指定できる名前と定義を含める必要があるという点でパスに似ています。
-
- string_name: string_definition
-
-文字列定義は、ファイル システム パスではなく文字列に解決されるキー名と他の値で構成されるテンプレートです。{% include product %} でパブリッシュに使用する名前を指定する場合、次のようになります。
-
- maya_publish_sg_name: "Maya publish, {name}, v{version}"
-
-同じファイル内で、キー名として名前とバージョンを定義しています。
-
-## テンプレートでオプション キーを使用する
-
-テンプレートのオプション キーが便利な理由は数多くあります。`{SEQ}` がレンダリング イメージのオプションである場合が一般的なケースの 1 つです。次の例では、`/path/to/render/shot.101.exr` (および 102 や 103 など)のように、フレーム番号で構成される一連の exr を設定できます。QuickTime ムービーにも、`/path/to/render/shot.qt` のように同じテンプレートを使用できます。より一般的なケースとしては、立体視イメージをレンダリングする場合があります。スタジオで使用する変換が `left eye: file.LFT.exr, right eye: file.RGT.exr, stereo image: file.exr?` の場合、`{eye}` をオプションにすることができます。
-
-オプション セクションは角括弧を使用して定義できます。
-
- shot_work: sequences/{Shot}/work/{Shot}.[v{version}.]ma
-
-オプション セクションには 1 つ以上のキーが含まれている必要があります。オプション セクションのキーに値を設定せずにパスを解決すると、定義内にこのセクションが存在しなかったかのようにパスが解決されます。上記の例は、1 つの定義に 2 つのテンプレートがベイク処理されていると見なすことができます。
-
- shot_work: sequences/{Shot}/work/{Shot}.v{version}.ma
- shot_work: sequences/{Shot}/work/{Shot}.ma
-
-フィールドのディクショナリにパスすると、Toolkit は値に応じて適切なバージョンのテンプレートを選択します。
-
- >>> template = tk.templates["shot_work"]
- >>> template.apply_fields({"Shot":"ABC_123", "version": 12}
- /project/sequences/ABC_123/work/ABC_123.v12.ma
- >>> template.apply_fields({"Shot":"ABC_123"}
- /project/sequences/ABC_123/work/ABC_123.ma
-
-# 高度な質問とトラブルシューティング
-
-## 新しいエンティティ タイプをファイル構造に追加するにはどうしたら良いですか?
-
-{% include product %} サイトでフィーチャ アニメーションとショートを作成し、エピソード作品の賞を獲得したとします。ここでは、Toolkit にエピソード ワークフローを組み込む方法について説明します。最初に、[こちら](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_get_started_ar_episode_entity_html)の説明に従って {% include product %} でエピソード作品の階層をセットアップします。
-
-
-
-{% include info title="注" content="Toolkit でネスト関係を再確認するには(ShotGrid のプロジェクト階層から完全に独立)、上記の「[親フォルダを使用して作成する](#create-with-parent-folder)」セクションを参照してください。"%}
-
-**追加の参考資料:**
-
-- [エピソード エンティティはどのように動作するのですか?](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_get_started_ar_episode_entity_html)
-- [エンティティの階層をカスタマイズする](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_site_configuration_ar_customizing_hierarchy_html)
-
-
-### 「エピソード > シーケンス > ショット」の階層に必要なフィールド
-
-[`Episode` ([サイト基本設定](Site Preferences) > [エンティティ] (Entities)の)カスタム エンティティ](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_get_started_ar_enabling_custom_entities_html)を使用したり、{% include product %} 7.0.7.0 で利用可能な正式なエピソード エンティティを使用したりできます。{% include product %}7.0.7.0 以前(2017 より前)に登録している場合、「TV Show」テンプレートはエピソードに `CustomEntity02` を使用します。`CustomEntity02` または正式なエピソード エンティティではない別のエンティティを使用する場合も心配しないでください。{% include product %} と Toolkit には柔軟性があります。両方の場合について説明します。
-
-この演習のために、プロジェクト階層更新を使用してエピソードを取り込む方法の例としてエピソード(`CustomEntity02`)と正式なエピソード エンティティを使用します(いずれかを使用)。最初に、プロジェクトの **「エピソード > シーケンス > ショット」**の階層を正しくセットアップするために、次のフィールドが {% include product %} 内にあることを確認します。
-
-#### エピソード
-
-a) **正式なエピソード エンティティを使用する:** 「エピソード」エンティティは、プロジェクト テンプレートからテレビ番組プロジェクトを作成する場合に使用されるエンティティです。
-
-
-
-**または**
-
-b) **カスタム エンティティを使用する:** `CustomEntity02` は、プロジェクト テンプレートからテレビ番組を作成する場合に使用されるカスタム エンティティです。 _前述のとおり、別のカスタム エンティティを有効にして、`CustomEntity02` の代わりに使用できます。有効にしたエンティティで必ずすべての `CustomEntity02` を置き換えてください。_
-
-
-
-#### シーケンス
-
-エピソード エンティティにリンクされたエピソード(`sg_episode`)と呼ばれる 1 つのエンティティ リンクが必要です。
-
-**正式な `Episode` エンティティを使用する**
-
-
-
-**`CustomEntity02` を使用する**
-
-
-
-#### ショット
-
-シーケンス エンティティにリンクされたシーケンス(`sg_sequence`)と呼ばれる 1 つのエンティティ フィールドです。これは {% include product %} のテレビ番組プロジェクト テンプレートの一部として既に存在しています。
-
-**正式な `Episode` エンティティを使用する**
-
-
-
-**`CustomEntity02` を使用する**
-
-
-
-### Toolkit スキーマ定義
-
-階層が次のようになっているとします(`{}` 内のフォルダは {% include product %} の名前に基づいて動的に名前が付けられます)。
-
- - {project_name}
- - shots
- episode.yml
- - {episode_name}
- sequence.yml
- - {sequence_name}
- shot.yml
- - {shot_name}
- ...
- …
-
-
-
-#### エピソード
-
-`config/core/schema/project/shots` フォルダで、次のコンテンツと同じディレクトリ内に対応する `episode.yml` ファイルを含む `episode` という名前のフォルダを作成します。
-
-**正式な `Episode` エンティティを使用する**
-
-
- # the type of dynamic content
- type: "shotgun_entity"
-
-
- # the {% include product %} field to use for the folder name
- name: "code"
-
-
- # the {% include product %} entity type to connect to
- entity_type: "Episode"
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "project", "relation": "is", "values": [ "$project" ] } ]
-
-**`CustomEntity02` を使用する**
-
-
- # the type of dynamic content
- type: "shotgun_entity"
-
-
- # the {% include product %} field to use for the folder name
- name: "code"
-
-
- # the {% include product %} entity type to connect to
- entity_type: "CustomEntity02"
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "project", "relation": "is", "values": [ "$project" ] } ]
-
-これにより、このプロジェクト内にすべてのエピソードのフォルダを作成するよう Toolkit に指示されます。
-
-#### シーケンス
-
-`config/core/schema/project/shots/episode` フォルダで、次のコンテンツと同じディレクトリ内に対応する `sequence.yml` ファイルを含む `sequence` という名前のフォルダを作成します。
-
-
- # the type of dynamic content
- type: "shotgun_entity"
-
-
- # the {% include product %} field to use for the folder name
- name: "code"
-
-
- # the {% include product %} entity type to connect to
- entity_type: "Sequence"
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "sg_episode", "relation": "is", "values": [ "$episode" ] } ]`
-
-これにより、ディレクトリ ツリー内に上記のようにエピソードにリンクされたすべてのシーケンスのフォルダを作成するよう Toolkit に指示されます。
-
-#### ショット
-
-`config/core/schema/project/shots/episode/sequence` フォルダで、次のコンテンツと同じディレクトリ内に対応する `shot.yml` ファイルを含む `shot` という名前のフォルダを作成します。
-
-
-
- # the type of dynamic content
- type: "shotgun_entity"
-
-
- # the {% include product %} field to use for the folder name
- name: "code"
-
-
- # the {% include product %} entity type to connect to
- entity_type: "Shot"
-
-
- # {% include product %} filters to apply when getting the list of items
-
- # this should be a list of dicts, each dict containing
-
- # three fields: path, relation and values
-
- # (this is std {% include product %} API syntax)
-
- # any values starting with $ are resolved into path objects
- filters: [ { "path": "sg_sequence", "relation": "is", "values": [ "$sequence" ] } ]`
-
-これにより、ディレクトリ ツリー内に上記のようにシーケンスにリンクされたすべてのショットのフォルダを作成するよう Toolkit に指示されます。
-
-完了後、スキーマには以下の内容が反映されます。
-
-
-
-#### Toolkit テンプレート定義
-
-スキーマでエピソードを使用していることを Toolkit に通知するには、上部の[キー セクション](#the-keys-section)で新しいキーを作成して定義する必要があります。
-
-**正式な `Episode` エンティティを使用する**
-
- keys:
- ...
- Episode:
- type: str
- ...
-
-次に、以下のテンプレート パスで `shot_root` テンプレートとショット階層内にある他のテンプレート パスを更新し、`{Episode}` を適切な場所に挿入してディレクトリ構造内のエピソードを指定することでエピソード階層を一致させます。
-
- ...
- paths:
- shot_root: shots/{Episode}/{Sequence}/{Shot}/{Step}
- …
-
-**`CustomEntity02` を使用する**
-
- keys:
- ...
- CustomEntity02:
- type: str
- ...
-
-次に、以下のテンプレート パスで `shot_root` テンプレートとショット階層内にある他のテンプレート パスを更新し、`{CustomEntity02}` を適切な場所に挿入してディレクトリ構造内のエピソードを指定することでエピソード階層を一致させます。
-
- ...
- paths:
- shot_root: shots/{CustomEntity02}/{Sequence}/{Shot}/{Step}
- …
-
-これが **「エピソード > シーケンス > ショット」**の基本的なワークフローに関するすべての作業です。
-
-## 各自の構造内でブランチをセットアップするにはどうしたら良いですか?
-
-これは「[パイプライン ステップごとに異なるファイル システム レイアウト](#different-file-system-layouts-for-different-pipeline-steps)」に関連します。具体的には、各自の構造にブランチを追加する場合です。たとえば、「パイプライン ステップ A」に 1 つの構造を指定し、他のすべてのパイプライン ステップに別の構造を指定するとします。
-
-ここで、別の種類の[アセット タイプ](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_site_configuration_ar_customizing_fields_html)をパイプラインに追加して、その新しいアセット タイプを Vehicle に設定するとします。Vehicle のファイル構造を変更して、「geoprep」や「lookdev」など、パイプライン ステップごとに異なるフォルダを指定し、このパイプライン ステップ フォルダごとに別のフォルダを作成します。この更新と同様に、現在のアセットの作成方法は同じままです。この新しいフローに対応するようにパイプラインを更新する方法について説明します。
-
-**手順 1: スキーマを修正する**
-
-最初に、新しいアセット タイプを使用した各自のフォルダ構造の表示方法を反映するようにスキーマを修正します。
-
-- スキーマでこの新しいアセット タイプ vehicle の新しいブランチを作成します。
-- `asset/` と `asset.yml` と同じレベルで、`asset_vehicle/` フォルダと `asset_vehicle.yml` を追加します。
-- この YAML ファイルにもフィルタ設定があります。vehicle _以外の_ すべてのアセットに適用されるように `asset.yml` 内のフィルタを修正してから、タイプ vehicle のアセット_のみ_に適用されるように `asset_vehicle.yml` を修正します。[これらのフィルタの例については、こちらを参照してください](#different-file-system-layouts-for-different-pipeline-steps)。
-- これで `asset` と `asset_vehicles` を表す 2 つのフォルダが作成されました。アセット(`geoprep` や `lookdev` など)に対して作成するすべてのフォルダを `asset_vehicle` の下に追加します。
-
-- このアセットのファイルを保存およびパブリッシュする場合は、`core/templates.yml` 内に保存およびパブリッシュしたファイルのファイル パスを定義するテンプレートを作成します。たとえば、[`maya_asset_work`](https://github.com/shotgunsoftware/tk-config-default/blob/v0.17.3/core/templates.yml#L480) とは別に、`maya_asset_work_vehicle` と呼ばれるテンプレートを作成すると、その定義は vehicle アセットの Maya 作業ファイルを保存するテンプレート化したパスになります。
-
-
-**手順 2: 新しい環境ファイルを作成する**
-
-この時点で、新しいアセット タイプのディレクトリ構造が作成されており、ファイルを保存およびパブリッシュする新しいフォルダ構造内の場所を定義したテンプレートがあります。ここで、この新しいテンプレートを使用するタイミングを Toolkit に指示する必要があります。このためには、新しい環境ファイルを作成します。
-
-- `env/asset_vehicle_step.yml` と呼ばれる `env/asset_step.yml` のコピーを作成します。`env/asset_vehicle_step.yml` が新しいテンプレートを使用しない限り、この 2 つのファイルは同一です。`maya_asset_work_vehicle` で `maya_asset_work` のすべてのインスタンスを置き換えます。作成した他の vehicle テンプレートでも同じ操作を実行します。
-- 最後に、新しい環境を選択するタイミングを Toolkit に指示する必要があります。このためには、コンテキストのアセットのタイプが `vehicle` の場合に `asset_vehicle` または `asset_vehicle_step` を返すように [pick_environment](https://github.com/shotgunsoftware/tk-config-default/blob/master/core/hooks/pick_environment.py) コア フックを修正します。これで、この新しいタイプ(vehicle)のアセットを使用する場合、Toolkit はその環境設定を使用するため、それに応じたファイル システム構造にファイルを保存およびパブリッシュします。
-
-## カスタム エンティティを使用してカスタム パイプライン ステップを作成するにはどうしたら良いですか?
-
-{% include product %} 7.0.6.0 では、[管理者メニューを使用したパイプライン ステップの管理](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_site_configuration_ar_configure_pipeline_steps_html#managing-pipeline-steps)が紹介されています。この機能を使用すると、パイプライン ステップにカスタム フィールドを簡単に追加できます。**専門家のヒント: 多くの場合、パイプライン ステップでカスタム フィールドを使用するほうが、カスタム エンティティを作成してそのパイプライン ステップを管理するよりもパイプラインの整理に役立ちます。**
-
-ただし、高度なケースでは、代替のパイプライン ステップを作成すると便利なことがあります。たとえば、パイプライン ステップの領域でプロダクションとパイプラインのそれぞれの命名規則と構造に関する柔軟性と、個別に命名および構造化する際の柔軟性を実現するとします。通常、スケジュールを設定する場合は {% include product %} の組み込みパイプライン ステップを使用しますが、パイプラインでファイル システムを構造化して個別のタスクをグループする場合は、別の[カスタム エンティティ](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_get_started_ar_enabling_custom_entities_html)を使用することができます。このためには、タスクのカスタム リンク フィールドをカスタム エンティティに作成します。次に、ステップ ノードを介してタスクをグループ化するためにこのリンクがシステムで使用されます。
-
-フォルダ設定で、{% include product %} の組み込みパイプライン ステップではなくカスタム ステップ セットアップを使用するように指示する特別な 2 つのオプションを追加します。
-
- entity_type: "CustomNonProjectEntity05"
- task_link_field: "sg_task_type"
\ No newline at end of file
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/config_overview.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/config_overview.png
deleted file mode 100644
index 75eb01e5e..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/config_overview.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/create_tab.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/create_tab.png
deleted file mode 100644
index 95859911b..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/create_tab.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/design_mode.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/design_mode.png
deleted file mode 100644
index 4e0d2051b..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/design_mode.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/failed_to_launch.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/failed_to_launch.png
deleted file mode 100644
index bd8f8498c..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/failed_to_launch.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/interpreter.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/interpreter.png
deleted file mode 100644
index 3719f99ac..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/interpreter.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/paths_config.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/paths_config.png
deleted file mode 100644
index 1765ae50f..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/paths_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/project_overview.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/project_overview.png
deleted file mode 100644
index f964142ad..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/project_overview.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/project_ready.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/project_ready.png
deleted file mode 100644
index a9371f5bb..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/project_ready.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/shotgun_integration.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/shotgun_integration.png
deleted file mode 100644
index 146d40a46..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/shotgun_integration.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/storage.png b/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/storage.png
deleted file mode 100644
index 458646bb2..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Beyond-your-first-project/storage.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/action_menu.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/action_menu.png
deleted file mode 100644
index e10a5feda..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/action_menu.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/advanced_setup.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/advanced_setup.png
deleted file mode 100644
index 361af7a18..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/advanced_setup.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/browser_integration.jpg b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/browser_integration.jpg
deleted file mode 100644
index f5d021774..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/browser_integration.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/folder_structure.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/folder_structure.png
deleted file mode 100644
index e93f55868..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/folder_structure.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_all_but_one_project.jpg b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_all_but_one_project.jpg
deleted file mode 100644
index d63bd989b..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_all_but_one_project.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_single_project.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_single_project.png
deleted file mode 100644
index e74dc79c7..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_single_project.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_site.jpg b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_site.jpg
deleted file mode 100644
index fb17fb899..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/freeze_site.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/icon_256-2.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/icon_256-2.png
deleted file mode 100644
index 991e09535..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/icon_256-2.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/icon_256.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/icon_256.png
deleted file mode 100644
index 6d9ec5853..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/icon_256.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/install_desktop.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/install_desktop.png
deleted file mode 100644
index a4aa071ec..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/install_desktop.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_group_software.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_group_software.png
deleted file mode 100644
index 68fe0a7f0..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_group_software.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_restrict_permissions.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_restrict_permissions.png
deleted file mode 100644
index c48c7d78a..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_restrict_permissions.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_software.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_software.png
deleted file mode 100644
index e022822c1..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_software.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_software_restrictions.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_software_restrictions.png
deleted file mode 100644
index d2d1a9462..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/maya_software_restrictions.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/no_actions.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/no_actions.png
deleted file mode 100644
index 99130e53f..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/no_actions.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/regenerate_certs.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/regenerate_certs.png
deleted file mode 100644
index 8228f9574..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/regenerate_certs.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/retrieving_actions.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/retrieving_actions.png
deleted file mode 100644
index 2d23c5885..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/retrieving_actions.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/tk-shotgun_config.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/tk-shotgun_config.png
deleted file mode 100644
index 30dcea707..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/tk-shotgun_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_browse.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_browse.png
deleted file mode 100644
index d8f018ce0..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_browse.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_config.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_config.png
deleted file mode 100644
index fc2381408..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_config_default.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_config_default.png
deleted file mode 100644
index 91f44c3a7..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_config_default.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_git.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_git.png
deleted file mode 100644
index 9d64036ab..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_git.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_project_config.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_project_config.png
deleted file mode 100644
index 41d644263..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_project_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_project_name.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_project_name.png
deleted file mode 100644
index 7a78a97b6..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_project_name.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_select.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_select.png
deleted file mode 100644
index ced4416b6..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_select.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_storage.png b/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_storage.png
deleted file mode 100644
index 1fb7f91bf..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/Integration-admin-guide/wizard_storage.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/app_hooks.png b/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/app_hooks.png
deleted file mode 100644
index 5c7c30bb7..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/app_hooks.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/file_system_config.png b/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/file_system_config.png
deleted file mode 100644
index 248b50f84..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/file_system_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/hooks.png b/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/hooks.png
deleted file mode 100644
index b9f5661ee..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/hooks.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/sg_work_area.png b/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/sg_work_area.png
deleted file mode 100644
index bffef80c1..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/sg_work_area.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/templates.png b/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/templates.png
deleted file mode 100644
index 5a018b788..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/advanced-toolkit-administration/templates.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/1024px-Natron_icon.svg.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/1024px-Natron_icon.svg.png
deleted file mode 100644
index 6d93de390..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/1024px-Natron_icon.svg.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/Janimation_128x128.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/Janimation_128x128.png
deleted file mode 100644
index 91168abcf..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/Janimation_128x128.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/cpenv.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/cpenv.png
deleted file mode 100644
index 6a0efb64a..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/cpenv.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/dropper.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/dropper.png
deleted file mode 100644
index cbef9e60a..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/dropper.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/getsgdata.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/getsgdata.png
deleted file mode 100644
index d638c5ddd..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/getsgdata.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/griffith_logo.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/griffith_logo.png
deleted file mode 100644
index 4755b7174..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/griffith_logo.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/icon_256.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/icon_256.png
deleted file mode 100644
index 44e138a03..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/icon_256.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/icon_256_2.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/icon_256_2.png
deleted file mode 100644
index 0ab33d0c3..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/icon_256_2.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/image_alpha.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/image_alpha.png
deleted file mode 100644
index 0b935b1b1..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/image_alpha.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/krita.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/krita.png
deleted file mode 100644
index 2330991f2..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/krita.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/sb_logo.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/sb_logo.png
deleted file mode 100644
index 2f80c2fa6..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/sb_logo.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/subtance_designer_transparent.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/subtance_designer_transparent.png
deleted file mode 100644
index 15b3430d6..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/subtance_designer_transparent.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/tk-blender.png b/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/tk-blender.png
deleted file mode 100644
index a4fd273c4..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/community-shared-integrations/tk-blender.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/clone_dialog.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/clone_dialog.png
deleted file mode 100644
index b0ec0996f..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/clone_dialog.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/clone_menu.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/clone_menu.png
deleted file mode 100644
index 0bd12b673..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/clone_menu.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/config_overview.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/config_overview.png
deleted file mode 100644
index 01080ee79..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/config_overview.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/copy_config.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/copy_config.png
deleted file mode 100644
index 08dc951a2..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/copy_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/git_config.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/git_config.png
deleted file mode 100644
index bbfb7f026..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/git_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/include_config.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/include_config.png
deleted file mode 100644
index 023977279..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/include_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/maya_include.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/maya_include.png
deleted file mode 100644
index f45505958..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/maya_include.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/pc_overview.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/pc_overview.png
deleted file mode 100644
index 09cfd323d..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/pc_overview.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/pc_shotgun.png b/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/pc_shotgun.png
deleted file mode 100644
index b30636f02..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/config-staging-and-rollout/pc_shotgun.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/core_config.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/core_config.png
deleted file mode 100644
index eb9a775f4..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/core_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/create_with_parent_folder_02_DS.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/create_with_parent_folder_02_DS.png
deleted file mode 100644
index 393f75051..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/create_with_parent_folder_02_DS.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_custom_entity.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_custom_entity.png
deleted file mode 100644
index f126bace0..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_custom_entity.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_hierarchy.jpg b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_hierarchy.jpg
deleted file mode 100644
index e22576198..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_hierarchy.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_schema.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_schema.png
deleted file mode 100644
index 702118d8f..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/episode_schema.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/list_field_folders_02_DS.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/list_field_folders_02_DS.png
deleted file mode 100644
index 6d72ec9a0..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/list_field_folders_02_DS.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/official_episode_entity.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/official_episode_entity.png
deleted file mode 100644
index d71bd8b8a..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/official_episode_entity.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/optional_fields_BECH_0010_02_DS.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/optional_fields_BECH_0010_02_DS.png
deleted file mode 100644
index d38f8678f..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/optional_fields_BECH_0010_02_DS.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/optional_fields_BECH_0010_extra_02_DS.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/optional_fields_BECH_0010_extra_02_DS.png
deleted file mode 100644
index 4aebe397c..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/optional_fields_BECH_0010_extra_02_DS.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/pipeline_step_folder_02_DS.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/pipeline_step_folder_02_DS.png
deleted file mode 100644
index 3f3337ac9..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/pipeline_step_folder_02_DS.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/task_folder_02_DS.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/task_folder_02_DS.png
deleted file mode 100644
index 072da8614..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/task_folder_02_DS.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/templates_file.png b/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/templates_file.png
deleted file mode 100644
index 27cfbe3d2..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/file-system-config-reference/templates_file.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-all-but-one-project.jpg b/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-all-but-one-project.jpg
deleted file mode 100644
index e30a256b0..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-all-but-one-project.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-all-projects.jpg b/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-all-projects.jpg
deleted file mode 100644
index 4adf33a70..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-all-projects.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-single-project.png b/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-single-project.png
deleted file mode 100644
index acc0a940b..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze-single-project.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_all_but_one_project.jpg b/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_all_but_one_project.jpg
deleted file mode 100644
index 559262ff2..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_all_but_one_project.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_all_projects.jpg b/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_all_projects.jpg
deleted file mode 100644
index 77e5c1c04..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_all_projects.jpg and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_single_project.png b/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_single_project.png
deleted file mode 100644
index f1e50cf3e..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/freeze_single_project.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/shotgun-desktop-about.png b/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/shotgun-desktop-about.png
deleted file mode 100644
index c86fcbcfb..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/offline-and-disabled-auto-updates/shotgun-desktop-about.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/app_config.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/app_config.png
deleted file mode 100644
index 1e68ad14c..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/app_config.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/context.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/context.png
deleted file mode 100644
index 29af77d4a..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/context.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/dependencies.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/dependencies.png
deleted file mode 100644
index 6f31b445b..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/dependencies.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/environment.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/environment.png
deleted file mode 100644
index 561b8e957..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/environment.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/folder_creation.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/folder_creation.png
deleted file mode 100644
index 573f8f95b..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/folder_creation.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/login.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/login.png
deleted file mode 100644
index d113b92c3..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/login.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/new_project.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/new_project.png
deleted file mode 100644
index 4ceac2bc4..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/new_project.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/overview.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/overview.png
deleted file mode 100644
index e4922ebbf..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/overview.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/templates.png b/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/templates.png
deleted file mode 100644
index 5a018b788..000000000
Binary files a/docs/ja/guides/pipeline-integrations/administration/images/toolkit-overview/templates.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/administration/integrations-admin-guide.md b/docs/ja/guides/pipeline-integrations/administration/integrations-admin-guide.md
deleted file mode 100644
index e4efd240d..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/integrations-admin-guide.md
+++ /dev/null
@@ -1,695 +0,0 @@
----
-layout: default
-title: ShotGrid 統合管理者ガイド
-pagename: integrations-admin-guide
-lang: ja
----
-
-# {% include product %} 統合管理者ガイド
-
-## はじめに
-
-このドキュメントは、管理者向けの {% include product %} 統合ガイドです。ユーザ ガイド、管理者ガイド、開発者ガイドのうちの 1 つです。[ユーザ ガイド](https://developer.shotgridsoftware.com/ja/d587be80/)は、日常のワークフローで {% include product %} の統合が必要なアーティストを対象にしています。[開発者ガイド](https://developer.shotgridsoftware.com/ja/93c6e555/)は、機能を拡張するために Python コードを記述するユーザを対象にした技術ドキュメントです。この統合管理者ガイドは、これら 2 つのドキュメントの中間に位置するものです。{% include product %} を統合するユーザ、ソフトウェア バージョンを管理するユーザ、パブリッシュ ファイルのストレージを決定するユーザを対象にしています。
-
-## 標準的なパイプライン設定
-
-Toolkit セットアップの中心はパイプライン設定です。つまり、インストールしたアプリからソフトウェア バージョンに至るまですべてを管理したり、ときにはプロダクションのディレクトリ構造とファイル名をセットアップするためのテンプレートを格納する YAML ファイル セットです。パイプライン設定は高度にカスタマイズ可能ですが、2 つの開始点が用意されています。
-
-### 基本設定
-
-すぐに利用可能な統合機能は、環境設定ファイルをセットアップまたは変更しなくても実行できるように設計されています。すぐに利用可能な統合機能を使用する場合は、管理が必要なものは何もありません。Toolkit が内部でパイプライン設定を暗示的に使用します。このパイプライン設定は基本設定と呼ばれています。基本設定によって、すべてのサポート対象ソフトウェア パッケージで Panel、Publisher、Loader の 3 つの Toolkit アプリを利用できるようにしたり、{% include product %} のソフトウェア エンティティを参照して {% include product %} Desktop に表示するソフトウェア パッケージを決定します。基本設定にはファイルシステム ロケーション サポートが含まれていません。プロジェクトですぐに利用可能な統合機能を使用すると、Desktop を起動するたびに基本設定のコピーが自動的に更新されるため、常に最新バージョンの統合が使用されます。[こちらからリリース ノートを参照](https://community.shotgridsoftware.com/tags/c/pipeline/6/release-notes)したり、[こちらの Github で基本設定を参照](https://github.com/shotgunsoftware/tk-config-basic/)したりできます。
-
-### 既定の設定
-
-これは高度なプロジェクト設定を開始するための既定の開始点です。これには、[ファイルシステム ロケーション サポート](https://developer.shotgridsoftware.com/ja/82ff76f7/)およびさまざまな Toolkit アプリとエンジンが含まれています。
-
-[こちらから Github の既定の設定を参照](https://github.com/shotgunsoftware/tk-config-default2)できます。既定の設定の構造に関する詳細については、パイプライン設定の `config/env/README.md` ファイルを参照するか、[Github でこちらを参照](https://github.com/shotgunsoftware/tk-config-default2/blob/master/env/README.md)してください。
-
-{% include info title="注" content="以前の設定構造の場合統合の v1.1 リリースでは、効率性と分かりやすさを最大限に高め、基本設定の構造とより適合するように、既定の設定の構造を再調整しました。従来の既定の設定に基づいてプロジェクトを作成することもできます。プロンプトが表示されたら[Legacy Default]を選択し、[Desktop Set Up Project]ウィザードで設定を選択します。"%}
-
-## Publisher
-
-Publisher は、すぐに使用可能なワークフローとすべてのパイプライン設定間の移行を簡単に実行できるように設計されています。すぐに使用可能なセットアップでは、ファイルが所定の方法でパブリッシュされるため、テンプレートまたはファイル システム スキーマを定義する必要がありません。高度なセットアップでプロジェクトを設定し、すべてのパイプライン設定を完了したら、同じパブリッシュ プラグインがアプリ設定に導入されたテンプレートを認識し、パブリッシュ前に指定されたパブリッシュ場所に対してファイルのコピーを開始します。このため、すべてが設定されたプロジェクトに対して、環境ごとまたは DCC ごとにテンプレートベースの設定を必要に応じて導入できます。既定の設定は、テンプレートベースのワークフローが完全に設定されているため、Publish アプリでテンプレートを設定する方法の確認に使用できます。詳細については、Github で既定の設定の [tk-multi-publish2.yml ファイル](https://github.com/shotgunsoftware/tk-config-default2/blob/master/env/includes/settings/tk-multi-publish2.yml)を参照してください。
-
-Publisher のプラグインの作成に関する詳細については、[開発者ガイドの Publisher に関するセクション](https://developer.shotgridsoftware.com/ja/93c6e555/#publisher)を参照してください。
-
-## ソフトウェアの起動を設定する
-
-システムでホスト アプリケーションの {% include product %} の自動検出を使用するのは簡単です。{% include product %} Desktop を起動し、プロジェクトを選択するだけで、アプリケーションの標準フォルダ内に格納されたサポート対象のすべてのソフトウェア パッケージのランチャーが Desktop に表示されます。ただし、このソフトウェアをより細かく管理するための強力なツールもご用意しています。アプリケーションが、特定のプロジェクト、グループ、または個別のユーザに対してのみ表示されるよう制限できます。バージョンを指定し、サイト全体で任意のソフトウェア パッケージを無効にして、ソフトウェア パッケージをまとめてグループ化できます。これらはすべて、{% include product %} のソフトウェア エンティティを使用して管理されます。
-
-新しい {% include product %} サイトを作成すると、既定のソフトウェア エンティティ セットが用意されます。サポート対象のホスト アプリケーションごとに 1 つのエンティティが設定されます。このエンティティを修正し、独自のエンティティを追加すると、ユーザの希望どおりに Desktop に表示されるソフトウェアを管理できます。
-
-{% include product %} でソフトウェア エンティティを表示するには、画面の右上隅にあるプロファイル アイコンをクリックし、[管理者] (Admin)メニューを開いて、`Software` を選択します。
-
-ソフトウェア エンティティには次のフィールドがあります。
-
-- **[ソフトウェア名] (Software Name):** Desktop のソフトウェアの表示名です。
-- **[サムネイル] (Thumbnail):** Desktop アイコン用にアップロードされるイメージ ファイルです。
-- **[ステータス] (Status):** ソフトウェアが利用できるかどうかを制御します。
-- **[エンジン] (Engine):** コンテンツ作成ツールの統合の名前です。
-- **[製品] (Products):** バリアント(Houdini に対する Houdini FX など)を含むソフトウェア パッケージの場合は、ここでカンマ区切りリストを指定できます。手動モードではなく、自動検出モードの場合のみ有効です。
-- **[バージョン] (Versions):** 表示するソフトウェアの特定のバージョンです。ここではカンマ区切りリストを指定できます。手動モードではなく、自動検出モードの場合のみ有効です。
-- **[グループ] (Group):** `Group` フィールドの値が同じエンティティは、Desktop の 1 つのアイコンと {% include product %} の 1 つのメニューにグループ化されます。たとえば、Houdini と Nuke を含む FX グループを作成することもできます。
-- **[グループの既定値] (Group Default):** グループ内のいずれかのメンバーの `Group Default` が選択されている場合、このアイコンまたはメニュー項目をクリックすると、このソフトウェアが起動します。
-- **[プロジェクト] (Projects):** ソフトウェアを特定のプロジェクトに制限する方法です。
-- **[ユーザ制限] (User Restrictions):** ソフトウェアを特定のユーザまたはグループに制限する方法です。
-- **[Linux/Mac/Windows のパス] (Linux/Mac/Windows Path):** ソフトウェアに対する OS 固有のパスを明示的に指定するためにこのフィールドを使用します。
-- **[Linux/Mac/Windows の引数] (Linux/Mac/Windows Args):** ソフトウェアの起動時にコマンドに追加するためのコマンドライン引数です。
-
-ここでは、これらのフィールドがどのように動作するかを学習するために、いくつかの使用方法を説明します。
-
-### 例: 同一アプリケーションのバージョンをグループ化する(自動検出)
-
-ファイルシステム上に、Maya 2016、Maya 2017、および Maya 2018 の 3 つの Maya のバージョンがあるとします。そして、これらすべてのバージョンをアーティストが利用できるようにしたいのですが、Desktop の 1 つのアイコンにすべてのバージョンがグループ化されている状態にしようと思います。
-
-これら 3 つのバージョンの Maya がファイルシステム上の標準の場所にインストールされている場合は自動的に実行されます。Desktop でプロジェクトを選択すると、ローカル マシンの標準的なアプリケーション ディレクトリをスキャンし、3 つのバージョンを探します。{% include product %} で Maya ソフトウェア エンティティを既に指定しているため、特定のバージョンまたはパスを指定しなくても、Desktop 内で検出されたすべてのバージョンが表示されます。
-
-
-
-注意事項は次のとおりです。
-
-- {% include product %} がソフトウェアを自動検出すると、1 つのソフトウェア エンティティですべてのバージョンのメニュー項目が生成されます。
-- パス フィールドの値を指定する必要はありません。ソフトウェア エンティティが自動検出モードの場合、アプリは標準の場所に格納されていると見なされます。
-
-すべてのバージョンが Desktop に表示されます。Maya の場合は 1 つのアイコンが表示され、ドロップダウン リストにすべての利用可能なバージョンが表示されます。アイコン自体をクリックすると、最新バージョンの Maya が起動します。
-
-### 例: 同一アプリケーションのバージョンをグループ化する(手動モード)
-
-これは標準の場所以外に Maya を格納している場合に最適です。独自のソフトウェア エンティティを作成し、{% include product %} にソフトウェアの場所が分かるようにパスを指定するだけです。次のように設定することができます。
-
-
-
-注意事項は次のとおりです。
-
-- 自動検出モードとは異なり、任意のソフトウェア パッケージのバージョンごとにソフトウェア エンティティがあります。
-- これをグループ化するには、`Group` フィールドと `Group Default` フィールドを使用します。`Group` で同じ値を共有するソフトウェア エンティティは Desktop で 1 つのアイコンのドロップダウンにグループ化されます。その名前には `Group` の値が使用されます。
-- このアイコン自体をクリックすると、`Group Default` を選択しているグループ内のソフトウェアが起動します。
-- **ソフトウェア エンティティで Linux のパス、Mac のパス、または Windows のパスの _いずれか_ に値を指定すると、このエンティティは手動モードに移行します。**自動検出モードとは異なり、パス フィールドが空のときにソフトウェアが Desktop に _表示_ されます。手動モードでは、ソフトウェア パッケージのパスが指定されており、そのファイルが指定されたパスに存在する場合、ソフトウェア パッケージは任意のオペレーティング システム上で _のみ_ 表示されます。
-- 上記の例では、`Windows Path` を指定していないため、Windows にインストールされている Desktop には、Maya のバージョンは 3 つとも表示されません。
-
-### 例: ユーザまたはグループ別に制限する
-
-上記の最後の例で、Maya 2018 をすべてのユーザに利用可能にする準備がまだできていないとします。しかし、TD、Dev、QA エンジニア、Tessa Tester が使用できるようにするには、どうしたら良いでしょうか。この場合には、`User Restrictions` フィールドを使用します。以下の例を参照してください。
-
-
-
-最後の例にいくつかの変更を加えました。
-
-- グループの既定値は Maya 2017 です。これをプロダクション バージョンにする場合、このボックスを選択して Maya のアイコンをクリックすると、このバージョンが起動します。
-- ユーザとグループの両方が受け入れられるように、`User Restrictions` フィールドにいくつかの値を追加しました。Dev と TD のグループと Tessa Tester ユーザを追加しました。これで、これらのユーザの Desktop にだけ Maya 2018 が表示されます。
-
-### 例: ソフトウェアのバージョンをプロジェクトごとに制限する
-
-複数のプロジェクトにわたってバージョンを細かく管理することが必要な場合があるかもしれません。プロジェクトを急いで仕上げなければならない場合に、新しいバージョンのソフトウェアの使用を制限していたが、それと同時に、その後継バージョンがリリースされ、評価が行えるようになったとします。このような場合は、ソフトウェア エンティティを次のようにセットアップすると良いかもしれません。
-
-
-
-重要な注意事項は次のとおりです。
-
-- 任意の環境の Desktop で表示される Maya のバージョンを 1 つにするため、ここでは `Group` と `Group Default` の値を削除しています。
-- 3 つすべてのバージョンの `Software Name` を「Maya」に設定しています。この方法では、すべてのプロジェクトでユーザに同一名のアイコンが表示されますが、アイコンにはここで設定した内容に応じて異なるバージョンが指定されます。
-- Maya 2016 の `Status` フィールドを `Disabled` に設定しています。このバージョンはもう使用しません。このフィールドですべてのプロジェクトのグローバル表示が切り替わります。
-- Maya 2017 と Maya 2018 の `Projects` に値を指定しています。`Projects` は制限事項として機能します。Maya 2017 が表示されるのは Chicken Planet プロジェクト _のみ_ で、Maya 2018 は Chicken Planet II にしか表示されません。
-- ソフトウェア エンティティの `Projects` に値を指定すると、ソフトウェアは指定したプロジェクトでしか表示されなくなります。そのため、スタジオに Chicken Planet シリーズとは別のプロジェクトがある場合は、そのプロジェクトのソフトウェアを明示的に指定する必要があります。
-
-### 例: 独自のソフトウェアを追加する
-
-次のような理由がある場合、{% include product %} Desktop がシステムで自動検出したソフトウェア エンティティとは別に、新しいソフトウェア エンティティの追加が必要になる場合があります。
-
-- Desktop でユーザが利用可能なエンジンがないためにアプリケーションを作成する必要がある場合。
-- 社内ソフトウェアやサードパーティのソフトウェアなど、オートデスクではまだ統合を用意していないソフトウェアを使用し、独自のエンジンを定義している場合。
-- ソフトウェアが標準の場所に格納されていないため、{% include product %} とそのソフトウェアを手動で接続する場合(この場合は、上記の「同一アプリケーションのバージョンをグループ化する(手動モード)」に記載されています)。
-
-上記の場合、独自のソフトウェア エンティティを追加することができます。`Software Name` フィールドに値を指定する必要があります。ソフトウェアに社内のエンジンを使用する場合は、`Engine` フィールドにこのエンジンの名前を指定します。スタジオによっては、アーティストの利便性を考えて、{% include product %} に統合されていないアプリを Desktop に追加すると良い場合があります。アーティストは Desktop からこのアプリを直接起動できます。バージョンと使用上の制限を管理するために、上記の設定をすべて使用することもできます。この場合、`Engine` フィールドは空の状態にしますが、`Mac Path`、`Linux Path`、`Windows Path` のいずれかのフィールドに値を指定する必要があります。
-
-## パブリッシュ ファイル パスの解決を設定する
-
-ファイルをパブリッシュすると、Publisher により、`Path` と呼ばれる[ファイル/リンク](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_data_management_ar_field_types_html) フィールドを含む PublishedFile エンティティが {% include product %} に作成されます。その後、別のユーザがローダーを使用して独自の作業セッションにこのファイルをロードしようとします。Loader は複雑なロジックを使用して、有効なローカル パスをオペレーティング システム上の PublishedFile に解決します。
-
-Loader がパブリッシュ データをパスに解決する方法は、パブリッシュがローカル ファイル リンクまたは `file://` URL に関連付けられているかどうかによって異なります。
-
-### ローカル ファイル リンクを解決する
-
-パブリッシュするパスが {% include product %} の[サイト基本設定] (Site Preferences)で定義されたローカル ストレージと一致する場合、ローカル ファイル リンクがパブリッシュ時に自動的に生成されます。パブリッシュがローカル ファイル リンクの場合は、そのローカル オペレーティング システムの表示が使用されます。ローカル ファイル リンクの詳細については、[こちら](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Administrator_ar_data_management_ar_linking_local_files_html)を参照してください。
-
-ローカル ストレージで現在使用しているオペレーティング システムのパスを定義しない場合は、環境変数を使用すると、ローカル ストレージ ルートを指定できます。環境変数の名前は `SHOTGUN_PATH__` の形式になります。そのため、「Renders」と呼ばれるストレージ ルートのパスを Mac で定義する場合は、環境変数 `SHOTGUN_PATH_MAC_RENDERS` を作成します。次の例を使用して詳細を確認してみましょう。
-
-- {% include product %} サイトに「Renders」と呼ばれるストレージ ルートがあり、次のパスが指定されているとします。
-- Linux のパス: `/studio/renders/`
-- Windows のパス: `S:\renders\`
-- Mac のパス: ``
-
-- 現在は Mac を使用しています。
-
-- パス `/studio/renders/sq100/sh001/bg/bg.001.exr` のパブリッシュをセッションにロードします。
-
-ローダーはパスを解析して `/studio/renders/` がパスのストレージ ルートであると推定しますが、Mac 用のストレージ ルートは定義されていません。そのため、環境変数 `SHOTGUN_PATH_MAC_RENDERS` を探します。環境変数が見つかると、パスの `/studio/renders` とその値を置き換えます。
-
-**注:** 環境変数 `SHOTGUN_PATH_MAC_RENDERS` を定義して、ローカル ストレージ レンダリングで Mac のパスが *設定されている* 場合は、ローカル ストレージの値が使用され、警告がログに記録されます。
-
-**注:** 現在のオペレーティング システムで何もストレージが解決できない場合は、`PublishPathNotDefinedError` が発生します。
-
-### ファイルの URL を解決する
-
-ローダーは `file://` URL の解決もサポートします。パブリッシュ時、パブリッシュするパスがサイトのローカル ストレージのどれとも一致しない場合、パスは `file://` URL として保存されます。ローカル ファイル リンクとは異なり、このパスはマルチ OS 表現に保存されず、作成元のオペレーティング システムで定義されるだけです。
-
-URL を作成したときとは異なるオペレーティング システムで `file://` URL を解決しようとすると、Loader は一連の手法を使用して URL を有効なパスに解決しようとします。
-
-- 最初に、`SHOTGUN_PATH_WINDOWS`、`SHOTGUN_PATH_MAC`、および `SHOTGUN_PATH_LINUX` の 3 つの環境変数を探します。これらの環境変数が定義されている場合は、メソッドがこの方法でパスを変換しようとします。たとえば、Windows で `file:///prod/proj_x/assets/bush/file.txt` を解決する場合、`SHOTGUN_PATH_WINDOWS=P:\prod` と `SHOTGUN_PATH_LINUX=/prod` をセットアップして、パスの解決方法のヒントを示すことができます。
-- 複数の環境変数を使用する場合は、複数のストレージを表現するために、上記の変数名構文にサフィックスを付けて拡張します。
-- レンダリングのストレージがある場合、たとえば、`SHOTGUN_PATH_LINUX_RENDERS`、`SHOTGUN_PATH_MAC_RENDERS`、および `SHOTGUN_PATH_WINDOWS_RENDERS` を定義して、レンダリング ストレージ内のデータを参照するようにパブリッシュされたすべての `file://` URL に移行メカニズムを提供します。
-- その後、編集データのストレージもある場合は、`SHOTGUN_PATH_LINUX_EDITORIAL`、`SHOTGUN_PATH_MAC_EDITORIAL`、および `SHOTGUN_PATH_WINDOWS_EDITORIAL` を定義して、編集ストレージ ルートに移行メカニズムを提供します。
-
-これらの環境変数で標準化したら、環境変数を {% include product %} のローカル ストレージに変換できます。ローカル ストレージを {% include product %} のプリファレンスで定義すると、自動的に選択されるため、環境変数は不要になります。
-
-- 上記に加えて、{% include product %} のプリファレンスで定義したすべてのローカル ストレージも同様です。
-- ローカル ストレージが定義されているがオペレーティング システムが見つからない場合は、環境変数を使用して指定することができます。たとえば、Linux と Windows で定義された `Renders` と呼ばれるローカル ストレージがある場合は、`SHOTGUN_PATH_MAC_RENDERS` と呼ばれる環境変数を作成することにより、Mac をサポートするように拡張することもできます。この一般的な構文は `SHOTGUN_PATH__` です。
-- 一致するルートがない場合は、ファイル パスがそのまま返されます。
-
-次に例を示します。
-
-Linux で `/projects/some/file.txt` というファイルをパブリッシュしたため、{% include product %} に `file:///projects/some/file.txt` という URL のパブリッシュが生成されました。Linux のパス `/projects` は Windows の `Q:\projects` と同じであるため、フル パスは `Q:\projects\some\file.txt` に変換されると考えられます。
-
-次のすべてのセットアップでこれを処理します。
-
-- 一般的な環境ベースのオーバーライド:
-- `SHOTGUN_PATH_LINUX=/projects`
-- `SHOTGUN_PATH_WINDOWS=Q:\projects`
-- `SHOTGUN_PATH_MAC=/projects`
-
-- 「Projects」と呼ばれる {% include product %} のローカル ストレージで次のパスを設定します。
-
-- Linux のパス: `/projects`
-- Windows のパス: `Q:\projects`
-- Mac のパス: `/projects`
-
-- 「Projects」と呼ばれる {% include product %} のローカル ストレージで次の環境変数を使用します。
-
-- Linux のパス: `/projects`
-- Windows のパス:
-- Mac のパス: `/projects`
-- `SHOTGUN_PATH_WINDOWS_PROJECTS=Q:\projects`
-
-**注:** `Linux path` と環境変数 `SHOTGUN_PATH_LINUX_RENDERS` が設定された {% include product %} でローカル ストレージ `Renders` が定義されている場合は、ストレージが優先され、環境変数は無視され、警告がログに記録されます。一般的に、ローカル ストレージ定義は、環境変数よりも常に優先されます。
-
-### 高度な設定
-
-PublishedFile パスの解決を実行する基本的なメソッドの詳細については、[開発者参照ドキュメント](http://developer.shotgridsoftware.com/tk-core/utils.html#sgtk.util.resolve_publish_path)を参照してください。
-
-高度なプロジェクト セットアップを使用している場合は、`resolve_publish` コア フックをカスタマイズして、ローカル ファイル リンクと `file://` URL 以外のサポートを追加できます。有効なカスタマイズは次のとおりです。
-
-- アップロード ファイルが関連付けられたパブリッシュは、コア フックによって適切なキャッシュの場所に自動的にダウンロードされ、パスが返されます。
-- カスタム URL スキーマ(`perforce://` など)はローカル パスに解決できます。
-
-## ブラウザの統合
-
-{% include product %} Toolkit でのブラウザ統合とは、{% include product %} Web アプリケーションの右クリック コンテキスト メニューを使用して、Toolkit アプリおよびランチャーにアクセスすることを指します。上に例が示されているこのメニューには、さまざまなエンティティ タイプに対して設定されたアクションが含まれています。プロジェクトのパイプライン設定が複数ある場合、アクションはパイプライン設定別に整理されます。ブラウザ統合により、{% include product %} のコンテキストを認識する Maya や Nuke などのコンテンツ作成ソフトウェアをブラウザから直接起動できるようになります。
-
-
-
-### ブラウザ統合の簡単な歴史
-
-長年にわたり、{% include product %} Toolkit のブラウザ統合は複数の方法を取ってきました。技術とセキュリティ要件が進歩するにつれて、ブラウザ統合を実装するためのアプローチも進歩してきました。
-
-**Java アプレット(廃止済み)**
-
-最初は、{% include product %} の Web アプリケーションからローカル デスクトップへのアクセスを提供する Java アプレットとして実装されました。Java アプレットが悪用可能なセキュリティ リスクとして認識されるにつれて、Java アプレットは衰退し、廃止を余儀なくされました。
-
-**ブラウザ プラグイン(廃止済み)**
-
-廃止された Java アプレットと置き換えられたのは、NPAPI を利用して {% include product %} Web アプリケーションからローカル デスクトップにアクセスするブラウザ プラグインでした。NPAPI もセキュリティ リスクとして認識されるようになったため、主要な Web ブラウザは NPAPI の使用をブロックし始めました。そのため、ブラウザ プラグインは廃止を余儀なくされました。
-
-**{% include product %} Desktop を介した Websocket v1 (旧バージョン)**
-
-{% include product %} Desktop アプリ内で Websocket サーバをホストすることも、{% include product %} Web アプリケーションからローカル デスクトップと通信するアプローチでした。この方法は現在も使用できます。この Websocket サーバの RPC API の最初の実装では、以前の Java アプレットとブラウザ プラグインのために開発されたものと同じ基盤技術が使用されていました。サーバが {% include product %} から要求を受け取ると、関連付けられたプロジェクトのパイプライン設定の tank コマンドが使用され、アクション メニューに表示されるコマンドのリストが取得されました。
-
-**{% include product %} Desktop を介した Websocket v2**
-
-Websocket サーバの RPC API のバージョン 2 では、Toolkit アクションの取得、キャッシュ、および実行に使用される基盤メカニズムが変更されています。この変更により、以前のブラウザ統合の実装に関連する多くのパフォーマンス上の問題が解決され、アクション メニューの視覚的構成が改善されました。また、[すぐに利用可能な {% include product %} 統合](https://developer.shotgridsoftware.com/ja/d587be80/#getting-started-with-desktop)のサポートも追加されました。これにより、Toolkit を明示的に設定しなくても動作するようになりました。これがブラウザ統合の現在の実装です。
-
-### 環境設定
-
-エンティティ タイプごとにユーザに提示されるアクションをコントロールするには、プロジェクトのパイプライン設定で YAML 環境ファイルを変更します。最初にカスタマイズを試みるときに、いくつかの点について理解し、検討する必要があります。
-
-**どのエンジン設定を使用するか**
-
-{% include product %} Web アプリ内の Toolkit アクションを管理する Toolkit エンジンは `tk-shotgun` であるため、このエンジンの設定によりアクション メニューに表示される内容がコントロールされます。
-
-
-
-上記の [tk-config-basic](https://github.com/shotgunsoftware/tk-config-basic/) の例では、2 つのアプリが設定されており、いくつかのエンジン コマンドがメニュー アクションになっています。Toolkit アプリによって、アクション メニューに含まれるコマンドが登録されます。これにはローカル システム上の各ソフトウェア パッケージを起動するコマンドなどがあり、{% include product %} サイトにある[ソフトウェア エンティティ](https://developer.shotgridsoftware.com/ja/8085533c/#configuring-software-launches)のリストに対応しています。その結果、メニュー アクションのリストは次のようになります。
-
-
-
-ブラウザ統合コードにより、ユーザのシステムで Houdini、Maya、Nuke、および Photoshop のインストールが検出されたため、それぞれの統合を起動するためのメニュー アクションが作成されました。特定の環境設定ファイルでは、その環境のエンティティにソフトウェアのランチャーを表示するために、ソフトウェア エンティティの _エンジン_ が必要になります。そのため、この例では、`tk-houdini`、`tk-maya`、`tk-nuke`、および `tk-photoshopcc` エンジンのすべてが、このスニペットの取得元であるファイルに含まれている必要があります。たとえば、このエンティティのランチャーのリストから Maya を削除する場合は、環境設定ファイルから `tk-maya` エンジン ブロックを削除するだけです。
-
-また、Publish アプリの Publish... コマンドもメニューに含まれています。
-
-**どの YML ファイルを使用するか**
-
-環境設定の [pick_environment.py コア フック](https://github.com/shotgunsoftware/tk-core/blob/master/hooks/pick_environment.py)によってコントロールされるプライマリ環境設定(`config/env/*.yml`)、または `config/env/shotgun_.yml` ファイルを使用する [tk-config-default](https://github.com/shotgunsoftware/tk-config-default/) を利用する旧式アプローチという 2 つの方法のいずれかを使用できます。
-
-標準環境ファイルを使用する場合、ブラウザの統合では `pick_environment` コア フックが使用され、指定されたエンティティのアクション メニューに使用される環境設定ファイルが決定されます。最も単純なケースでは、環境はエンティティ タイプに対応します。たとえば、ショットを右クリックした場合、結果のアクション メニューは `config/env/shot.yml` の `tk-shotgun` ブロックで設定されます。より複雑なロジックを使用するように `pick_environment` フックをカスタマイズすることができます。標準環境ファイルに `tk-shotgun` エンジンが設定されておらず、`shotgun_.yml` ファイルが存在する場合はフォールバックが発生します。これにより、エンティティ固有の環境ファイルを利用する従来の設定でブラウザの統合を行うことができます。
-
-**_ヒント: tk-config-default2 によるブラウザ ランチャーからのソフトウェアの削除_**
-
-{% include product %} ブラウザからソフトウェアを起動する設定の更新方法は、tk-config-default と tk-config-default2 で異なります。
-
-tk-config-default2 では、更新は config/env/includes/settings/[`tk-shotgun.yml`](https://github.com/shotgunsoftware/tk-config-default2/blob/v1.1.10/env/includes/settings/tk-shotgun.yml) に適用されます。tk-config-default では、更新は config/env/`shotgun_task.yml` で実行されていました。
-
-たとえば、ブラウザ上でアセットから起動するときに、オプションのリストから Mari を削除してみましょう。
-
-まず、[`config/env/asset.yml`](https://github.com/shotgunsoftware/tk-config-default2/blob/v1.1.10/env/asset.yml#L47) に移動し、`tk-shotgun` エンジン ブロックがどのように [`@settings.tk-shotgun.asset`](https://github.com/shotgunsoftware/tk-config-default2/blob/v1.1.10/env/asset.yml#L47) を参照しているかを確認します。`@` の記号は、設定の値がインクルードされたファイルのものであることを示します。これは、[env/includes/settings/`tk-shotgun.yml`](https://github.com/shotgunsoftware/tk-config-default2/blob/v1.1.10/env/includes/settings/tk-shotgun.yml) に移動して更新する必要があることを意味します。
-
-`env/includes/settings/tk-shotgun.yml` で、エンティティごとのブロックの状態を確認します。たとえば、最初にアセットが次のようになっているとします。
-```
-
-# asset
-settings.tk-shotgun.asset:
- apps:
- tk-multi-launchapp: "@settings.tk-multi-launchapp"
- tk-multi-launchmari: "@settings.tk-multi-launchapp.mari"
- tk-multi-launchmotionbuilder: "@settings.tk-multi-launchapp.motionbuilder"
- tk-multi-publish2: "@settings.tk-multi-publish2.standalone"
- tk-multi-screeningroom: "@settings.tk-multi-screeningroom.rv"
- tk-shotgun-folders: "@settings.tk-shotgun-folders"
- tk-shotgun-launchfolder: "@settings.tk-shotgun-launchfolder"
- location: "@engines.tk-shotgun.location"
-```
-
-ブラウザでアセットのオプションのリストから Mari を削除するために、Mari の行を削除します([`tk-multi-launchmari: "@settings.tk-multi-launchapp.mari"`](https://github.com/shotgunsoftware/tk-config-default2/blob/master/env/includes/settings/tk-shotgun.yml#L29))。
-
-```
-
-# asset
-settings.tk-shotgun.asset:
- apps:
- tk-multi-launchapp: "@settings.tk-multi-launchapp"
- tk-multi-launchmotionbuilder: "@settings.tk-multi-launchapp.motionbuilder"
- tk-multi-publish2: "@settings.tk-multi-publish2.standalone"
- tk-multi-screeningroom: "@settings.tk-multi-screeningroom.rv"
- tk-shotgun-folders: "@settings.tk-shotgun-folders"
- tk-shotgun-launchfolder: "@settings.tk-shotgun-launchfolder"
- location: "@engines.tk-shotgun.location"
-```
-
-次に、{% include product %} ブラウザで特定のソフトウェアを起動する機能を削除したいエンティティ(Shot など)ごとに同じ手順を実行します。ファイルを保存したら、1 分待ってからブラウザをハード リフレッシュして設定を有効にする必要があります。
-
-### キャッシング
-
-ブラウザの統合には堅牢なキャッシング メカニズムがあるため、可能な限りすばやくメニュー アクションをユーザに表示することができます。Toolkit をブートストラップしてエンジン コマンドのリストを取得するプロセスに時間がかかることがあるため、この機能が必要です。
-
-**キャッシュはいつ無効になるか**
-
-Websocket サーバの RPC API は、キャッシュされたデータがまだ有効かどうかを判断するために、2 つのものを確認します。YAML ファイルの変更時刻と、サイトのソフトウェア エンティティの内容です。指定された環境設定内のいずれかの YAML ファイルが、キャッシュ データが書き込まれた後に変更されている場合、必要なデータが再キャッシュされ、新しいデータが {% include product %} Web アプリケーションに返されます。同様に、データがキャッシュされた後に {% include product %} のソフトウェア エンティティ上のフィールドが変更された場合、Toolkit はブートストラップされ、新しいデータがキャッシュされます。
-
-**キャッシュ ファイルはディスク上のどこにあるか**
-
-キャッシュ ファイルの場所は、オペレーティング システムによって異なります。
-
-```
-OS X: ~/Library/Caches/Shotgun//site.basic.desktop/tk-desktop
-Windows: %APPDATA%\Shotgun\\site.basic.desktop\tk-desktop
-Linux: ~/.shotgun\\site.basic.desktop\tk-desktop
-```
-
-### フック メソッド
-
-`browser_integration.py` フックは、次のフック メソッドを提供する `tk-framework-desktopserver` に含まれています。
-
-- `get_cache_key`: このメソッドは、指定した設定の URI、プロジェクト エンティティ、およびエンティティ タイプに使用されるキャッシュ エントリのキーを決定します。既定の実装では、設定の URI およびエンティティ タイプが組み合わされます。
-- `get_site_state_data`: このメソッドを使用すると、{% include product %} からクエリーされた追加データを、キャッシュ内データの有効性をテストするために使用されるハッシュに含めることができます。既定では、サイト上にあるすべてのソフトウェア エンティティの状態が使用されますが、ハッシュに追加データを含める場合は、このフック メソッド内で実装することができます。
-- `process_commands`: このメソッドは、{% include product %} Web アプリケーションに返されるコマンドをカスタマイズまたは変更する場所を提供します。このメソッドに提供されるデータ構造は、各ディクショナリが単一のメニュー アクションを表す、ディクショナリのリストです。データは必要に応じて変更、除外、またはリストに追加することができ、Toolkit アクションを要求するメニューに直ちに反映されます。
-
-### ログ
-
-ブラウザ統合のログは、Toolkit の[標準のログ格納場所](https://developer.shotgridsoftware.com/ja/38c5c024/)にあります。関連するログ ファイルは `tk-desktop.log` と `tk-shotgun.log` です。また、Google Chrome を使用している場合は、ブラウザの開発者コンソールで関連するログ出力を利用できることがあります。
-
-### トラブルシューティング
-
-Web アプリケーションとローカル デスクトップとの通信は複雑な性質を持つため、途中で障害が発生する可能性があります。以下に、障害の例とそのような状況になったときに最初にとるべき手順についての提案をいくつか示します。
-
-**アクション メニューに[{% include product %} Desktop を開くかインストールしてこのメニューを有効にする] (Open or install ShotGrid Desktop to enable this menu)と表示される**
-
-
-
-これは、次の 3 つのうちのいずれかを意味する可能性があります。
-
-1. {% include product %} Desktop が現在、ローカル マシン上で実行されていない。これは明らかなことに思えますが、間違いなく再確認する価値があります。
-
-2. Chrome または Python の Websocket サーバが接続を拒否したため、{% include product %} Web アプリケーションが {% include product %} Desktop と通信できなくなった。この状況は、要求時に接続を続行できる自己署名証明書に関連している可能性が高いです。多くの場合、これらの証明書を最初から再生成することで問題が解決します。再生成は、次に示すように {% include product %} Desktop からトリガできます。
-
-
-
-
-1. {% include product %} Desktop の Websocket サーバが起動に失敗した。この状況は、Websocket サーバの問題のあるリリースが一般に公開された場合にほぼ限定され、非常にまれです。この場合、[tk-desktop.log](https://developer.shotgridsoftware.com/ja/38c5c024/) にエラーを説明するログが表示されます。このログを [{% include product %} のサポート チーム](https://knowledge.autodesk.com/ja/contact-support)に送信してください。
-
-**アクション メニューにアクションが表示されない**
-
-
-
-このエンティティ タイプに対してアクションが予想されている場合、これは設定上の問題があることを示しています。考えられる問題はいくつかあります。
-
-1. `tk-shotgun` エンジンは正しい YAML 環境ファイルで設定されているものの、その環境設定内にアプリが存在しない。この場合、このエンティティ タイプに対してアクションが存在しないことが意図されている可能性があります。
-
-2. `tk-shotgun` エンジンが正しい YML 環境ファイルで設定されていて、アプリが存在するにもかかわらず、アクションがメニューに表示されない。これは、アプリが初期化に失敗したことが原因の可能性があります。この場合、問題に関する説明が [tk-shotgun.log および tk-desktop.log](https://developer.shotgridsoftware.com/ja/38c5c024/) に記録されています。
-
-3. このエンティティ タイプに対応する環境に、`tk-shotgun` の環境設定が含まれていない。この場合の最終的な結果は、このリストの 1 番と同じです。この場合、パイプライン設定の `pick_environment` フックを確認することでこのエンティティ タイプに対してどの環境がロードされているかを判断でき、そこで `tk-shotgun` の環境設定を確認できます。
-
-4. ディスクに空のメニュー アクション リストがキャッシュされています。キャッシュを強制的に再生成するには、次のいくつかの方法の中から選択できます。
-
- - プロジェクトの環境設定で YAML ファイルの変更時刻を更新します。こうすると、次回に {% include product %} からメニュー アクションが要求されたときに、メニュー アクションの再キャッシュがトリガされます。注目する必要があるのは、これによってプロジェクトで作業している _すべて_ のユーザに対して再キャッシュがトリガされることです。
- - {% include product %} サイトで、いずれかのソフトウェア エンティティのフィールド値を更新します。この場合の動作は、上記の YAML ファイルの変更時刻を更新した場合と同じですが、{% include product %} サイトの _すべて_ のプロジェクトで、すべてのユーザのキャッシュされたデータが無効になります。ソフトウェア エンティティは非プロジェクト エンティティであるため、すべてのプロジェクトで共有されます。いずれかのソフトウェア エンティティのデータが変更された場合は、すべてのプロジェクトが影響を受けます。
- - 問題の影響を受けるホストのキャッシュ ファイルを削除できます。キャッシュを削除しても、通常は問題ありません。各ホストにキャッシュがローカルに保存されているため、この特定のシステム上のデータが最初から再キャッシュされるだけです。キャッシュは、{% include product %} のキャッシュ場所にある SQLite ファイル(`/site.basic.desktop/tk-desktop/shotgun_engine_commands_v1.sqlite`)に格納されます。
-
-**[Toolkit: アクションを取得中...] (Toolkit: Retrieving actions...)がメニュー アクションと置き換わらない**
-
-
-
-これにはいくつかの可能性があります。
-
-1. Websocket サーバがまだキャッシング アクションを完了していない。プロジェクトの環境設定が大幅に更新された後に初めてアクションが取得される場合、プロセスの完了に時間がかかることがあります。時間を置いてから、`tk-desktop.log` の内容を確認して、処理がまだ行われているかどうかを確認してください。
-
-2. Websocket サーバが応答に失敗し、その後も応答しない。このような状況はまれですが、`tk-desktop.log` を確認してアクションの要求の結果として追加の処理が行われていないことが明らかになった場合は、[ShotGrid サポートに連絡して](https://knowledge.autodesk.com/ja/contact-support)関連するログ データを提供してください。
-
-3. ユーザが複数の {% include product %} サイトで作業している。{% include product %} Desktop が 1 つのサイトに対して認証されているときに、2 番目の {% include product %} サイトからメニュー アクションを要求すると、{% include product %} Desktop を再起動して新しいサイトにログインするかどうかを尋ねられます。この要求が無視されると、2 番目のサイトはメニュー アクションのリストを受け取らなくなります。
-
-
-## Toolkit 環境設定ファイル
-
-プロキシ サーバを使用している場合、最初のログイン画面のいくつかの値を事前に指定する場合や、ブラウザベースのアプリケーション ランチャーと {% include product %} Desktop を統合する方法を調整する場合は、`toolkit.ini` と呼ばれる特別な設定ファイルを使用します。{% include product %} Desktop の実行にこのファイルは必要ありません。必要になるのは、その動作を設定する必要がある場合のみです。Toolkit は、次の順序で複数の場所にあるファイルを検索します。
-
-1. ファイル パスをポイントする `SGTK_PREFERENCES_LOCATION` という名前の環境変数。
-2. {% include product %} Toolkit プリファレンス フォルダ内: (このファイルは次の場所に既定では存在しません。自分で作成する必要があります。)
- - Windows: `%APPDATA%\Shotgun\Preferences\toolkit.ini`
- - macOS: `~/Library/Preferences/Shotgun/toolkit.ini`
- - Linux: `~/.shotgun/preferences/toolkit.ini`
-
-`SGTK_PREFERENCES_LOCATION` 環境変数オプションを使用すると、コンピュータ上またはネットワーク上のどこにでも設定ファイルを保存できます。`toolkit.ini` は現在の標準ファイル名です。`config.ini` を使用する場合は、「_従来の場所_」セクションを確認してください。
-
-設定ファイルの例については、[こちら](https://raw.githubusercontent.com/shotgunsoftware/tk-framework-desktopstartup/master/config.ini.example)を参照してください。
-
-このサンプル ファイルは `config.ini` と呼ばれていますが、名前を `toolkit.ini` に変更できます。
-
-このファイルで環境変数とハードコードされた値を使用すれば、Windows 上に存在する変数 USERNAME を介し、既定のユーザ名などを選択してユーザに候補を表示することもできます。
-
-
-
-**従来の場所(廃止済み)**
-
-`toolkit.ini` は現在の標準ファイル名ですが、以前は `config.ini` ファイルを同じ目的で使用していました。`toolkit.ini` と `config.ini` の内容は同じです。`config.ini` は、次の廃止された場所を使用する場合に検索されます。
-
-1. ファイルをポイントする `SGTK_DESKTOP_CONFIG_LOCATION` という名前の環境変数
-2. 次のパス:
- - Windows: `%APPDATA%\Shotgun\desktop\config\config.ini`
- - macOS: `~/Library/Caches/Shotgun/desktop/config/config.ini`
- - Linux: `~/shotgun/desktop/config/config.ini`
-
-**プロキシ設定**
-
-スタジオがプロキシ経由でインターネットにアクセスしている場合、インターネットへのアクセス時にこのプロキシの使用を Toolkit に指示する必要があります。そのためには、プロキシを `http_proxy` 設定の値に指定します。
-
-`http_proxy: `
-
-**ローカル ホスト サイトで {% include product %} Desktop を実行する**
-
-{% include product %} サイトの URL の最後が `shotgunstudio.com` または `shotgrid.autodesk.com` でない場合は、ローカルの {% include product %} サイトを実行していることを示します。この場合、サイトと {% include product %} との統合の準備が完了していない可能性があり、開始前に {% include product %} チームによる何らかの調整が必要になる場合があります。その場合はサポートいたしますので、[チケットを送信](https://knowledge.autodesk.com/ja/contact-support)してください。
-
-**ローカル ホスト サイトでアプリ ストアに接続する**
-
-プロキシ経由でインターネットにアクセスできるローカルの {% include product %} サイトを使用している場合は、ローカルの {% include product %} Web サイトではなく、HTTP プロキシを設定してアプリ ストアにアクセスすると便利です。そのためには、次の行を `toolkit.ini` に追加するだけです。
-
-`app_store_http_proxy: `
-
-この `` は[開発者ドキュメント](http://developer.shotgridsoftware.com/python-api/reference.html?highlight=reference%20methods#shotgun-methods)
-
-プロジェクトごとにこの設定を上書きする必要がある場合は、プロジェクトのパイプライン設定の `config/core/shotgun.yml` に上書きします。
-
-## オフライン使用のシナリオ
-
-一般的な使用方法の場合、{% include product %} Desktop は起動時に Desktop アプリ自体、tk-desktop エンジン、および基本設定の更新を自動的に確認します。しかし、オフラインで、またはインターネットから完全に切断されたマシンで統合を実行する場合もあります。次のセクションでは、それぞれのシナリオに対処する方法について説明します。
-
-### {% include product %}作成
-
-このドキュメントで概要が説明されているオフライン時の問題を解決する方法は、[{% include product %} Create](https://help.autodesk.com/view/SGSUB/JPN/?guid=SG_Supervisor_Artist_sa_create_sa_intro_create_html) で紹介されている統合機能にも適用されます。{% include product %} Toolkit の動作を調整するために使用されるさまざまな環境変数(`SHOTGUN_BUNDLE_CACHE_FALLBACK_PATHS` など)は、{% include product %} Create を使用する場合でも、{% include product %} Desktop と同じように適用されます。
-
-### オフライン時に統合を実行する
-
-_シナリオ: {% include product %} の統合を実行したいと考えていますが、インターネットに接続していません。ローカルに {% include product %} をインストールしています。_
-
-**ソリューション**
-
-- 一時的にインターネットに接続できる場合は、{% include product %} Desktop をダウンロードします。Shotgun Desktop には一連の[統合](https://developer.shotgridsoftware.com/ja/d587be80/#introduction)があらかじめパッケージ化されており、サポートされているすべての DCC 向けの {% include product %} の統合に必要なアプリとエンジンがあらかじめすべてバンドルされています。Shotgun Desktop を起動すると自動的にアップグレードが検索されますが、{% include product %} App Store に接続できない場合は、ローカルに存在する最新のバージョンが実行されます。
-
-**知っておきたい情報**
-
-- {% include product %} サイトにアクセスしないと実行できない Toolkit 操作(パブリッシュの登録など)があります。そのため、この解決策はローカルにホストされたサイトでのみ機能します。
-- 更新はローカル マシンにダウンロードされます。
-- 接続と切断を切り替える場合、Desktop に加えて Maya や Nuke などのアプリ内統合でも、接続されているときの起動時にアップグレードがダウンロードされます。
-
-### 手動ダウンロードで更新を管理する
-
-_シナリオ: アーティストのワークステーションがインターネットから切断されているため、Desktop の自動アップデートを使用することができません。それでも更新を入手したいと考えていますが、1 台のオンライン マシンから更新をダウンロードし、個別のアーティストまたは一元化された場所に手動で転送する必要があります。_
-
-**ソリューション**
-
-- インターネットに接続されたワークステーションで {% include product %} Desktop を実行します。起動時に、最新のアップグレードが自動的にダウンロードされます。
-- オプション 1: 共有 Desktop バンドル
-- [バンドル キャッシュ](https://developer.shotgridsoftware.com/ja/7c9867c0/)を、すべてのマシンがアクセスできる共有場所にコピーします。
-- オフライン マシンの `SHOTGUN_BUNDLE_CACHE_FALLBACK_PATHS` 環境変数がこの場所を指すように設定します。
-- オフライン マシンで Desktop が起動すると、バンドル キャッシュにある利用可能な最新のアップグレードが取得されます。
-- オプション 2: ローカル配置
-- 各ローカル マシンの適切なバンドル キャッシュの場所に、更新されたバンドル キャッシュを配布します。
-
-**知っておきたい情報**
-
-- オプション 1 では、`SHOTGUN_BUNDLE_CACHE_FALLBACK_PATHS` に定義されている場所から Toolkit コードがロードされます。この場所が共有ストレージにある場合は、多数の小さなファイルをロードするために十分なパフォーマンスがあることを確認してください。
-- Windows のセットアップの場合、当てはまらないことが多々あります。その場合は、代わりにオプション 2 をお勧めします。
-
-## 更新をロックする
-
-Desktop の自動更新は常に最新の状態を保つために役立ちますが、プロジェクトや、場合によってはサイト全体をフリーズしたり、特定のバージョンにロックして更新を防ぐことが必要な場合もあります。
-
-### 単一のプロジェクトの更新をフリーズする
-
-_シナリオ: プロジェクトがもうすぐ完了するため、{% include product %} の統合の更新プログラムが自動的にダウンロードされないようにフリーズしたいと考えています。_
-
-**ソリューション**
-
-- プロジェクトをロックするバージョンを決定します。[統合のリリース ノートはこちらでご覧いただけます。](https://community.shotgridsoftware.com/tags/c/pipeline/6/release-notes)
-- {% include product %} で、ロックするプロジェクトのパイプライン設定エンティティを作成し、次のフィールドを入力します(この例では、v1.0.36 の統合を使用するように環境設定をロックしています)。
-- 名前: `Primary`
-- プロジェクト: ロックするプロジェクト
-- プラグインの ID: `basic.*`
-- 記述子: `sgtk:descriptor:app_store?name=tk-config-basic&version=v1.0.36`
-
-- このプロジェクトでは、誰が {% include product %} Desktop を起動しても v1.0.36 が使用されるようになります。このプロジェクトで作業を開始する新しいユーザも v1.0.36 を取得することになります。
-
-
-
-
-**知っておきたい情報**
-
-- 更新はローカル マシンにダウンロードされます。
-- 次にインターネットに接続しているときに Desktop を起動すると、基本設定の `v1.0.36` と関連するすべてのコードがマシンにダウンロードされます。
-- `basic.*` は、基本設定のすべてのプラグインがこのオーバーライドを取得することを意味します。たとえば、Nuke と Maya の統合のみをフリーズする場合は、`basic.maya, basic.nuke` を指定します。
-- テストするには、このパイプライン設定エンティティの複製を作成し、`User Restrictions` フィールドに自分のユーザ名を追加します。これにより、自分のみが使用できるようにエンティティが制限され、他のユーザには影響を与えなくなります。この複製した環境設定から Maya などのソフトウェアを起動して、予想される統合バージョンが実行されていることを確認することができます。
-
-**既知の問題**
-
-- Flame 統合のネームスペースは `basic.flame` であり、`basic.*` の一部であることが暗示されています。しかし Flame 統合は、実際には基本設定に含まれていません。そのため、プロジェクトに Flame を使用してこのオーバーライドを実装すると、Flame 統合が機能しなくなります。
-- 解決策は、Flame 専用の追加のパイプライン設定オーバーライドを作成することです。
-- 名前: `Primary`
-- プロジェクト: ロックするプロジェクト(すべてのプロジェクトの場合はなし)
-- プラグインの ID: `basic.flame`
-- 記述子: `sgtk:descriptor:app_store?name=tk-config-flameplugin`
-
-### サイトの更新をフリーズする
-
-_シナリオ: 更新を行いたくありません。スタジオ内のすべてのプロジェクトで、何がダウンロードされ、使用されているかを完全にコントロールしたいと考えています。_
-
-**ソリューション**
-
-- 上記の例の手順に従い、`Project` フィールドを空白のままにします。`Project` フィールドにオーバーライドがない場合、このパイプライン設定エンティティは、「サイト」のプロジェクト、つまりプロジェクト外で Desktop によって使用されるサイト設定を含む、すべてのプロジェクトに適用されます。
-
-
-
-**知っておきたい情報**
-
-- これは、「サイト設定をロックする」場合に使用するワークフローです。これによりすべてがロックされます。また、Desktop メニューから高度なプロジェクト設定に進むことができます。
-- `v1.2.3` などを使用するようサイト全体をロックする場合でも、別の環境設定を使用するよう個々のプロジェクトをロックできます。
-
-**既知の問題**
-
-- Flame が影響を受けることがあります。解決策については、上記のシナリオの「既知の問題」のセクションを参照してください。
-
-### 1 つ以外のすべてのプロジェクトの更新をフリーズする
-
-_シナリオ: 自動更新を許可するテスト プロジェクトを除いて、サイト内のすべてのプロジェクトをロックしたいと考えています。_
-
-
-
-**解決策**
-
-- 上記のセクションで説明したように、サイトの更新をフリーズします。
-- 例外にするプロジェクトのパイプライン設定エンティティに、次のフィールド値を設定します。
-- 名前: `Primary`
-- プロジェクト: ロック _しない_ プロジェクト
-- プラグインの ID: `basic.*`
-- 記述子: `sgtk:descriptor:app_store?name=tk-config-basic`
-
-**知っておきたい情報**
-
-- プロジェクトの[記述子] (Descriptor)フィールドでバージョン番号が省略されていることに注目してください。これは、プロジェクトが基本設定の最新リリースをトラッキングすることを意味します。
-
-### ロックされたサイトを安全に更新する
-
-- シナリオ: v1.0.0 にロックされており、v2.0.0 へのアップグレードを予定していますが、スタジオに配置する前にまず新しいバージョンをテストしたいと考えています。*
-
-**解決策**
-
-- {% include product %} でパイプラインの設定エンティティを右クリックし、[選択した項目を複製] (Duplicate Selected)を選択して複製します。
-- クローン作成した設定に「update test」という名前をつけて、自分を[ユーザ制限] (User Restrictions)フィールドに割り当てます。
-- このパイプライン設定を使用するようになります。
-- テストするバージョンを指すように記述子を変更します。
-- テストに参加させるユーザは、[ユーザ制限] (User Restrictions)フィールドに追加して招待できます。
-- 問題なくテストが完了したら、そのバージョンを使用するようにメインのパイプライン設定を更新するだけです。
-- ユーザが Desktop または DCC を再起動すると、更新が取得されます。
-
-## パイプラインの設定を引き継ぐ
-
-環境設定をセットアップすることなく、すぐに利用可能な {% include product %} の統合の基本セットを入手することができます。このドキュメントでは、すぐに利用可能な統合を使用して行うことができる管理の種類について説明します。この基本セットアップは、幅広いカスタマイズをサポートできるように {% include product %} Toolkit プラットフォーム上に組み込まれています。Desktop では、Toolkit プロジェクト セットアップ ウィザードに従って、カスタマイズ可能な、プロジェクト用の完全なパイプライン設定を作成できます。
-
-以下の各セクションでは、セットアップ方法が分からない場合に備えて、適正な既定値が設定された例と提案を含むウィザードの各手順を詳細に説明します。
-
-#### Desktop からセットアップ ウィザードを起動する
-
-
-
-プロジェクトに移動すると、Desktop 右底部のユーザ メニューにメニュー項目「Advanced Project Setup...」があります。このメニュー項目をクリックして、Toolkit セットアップ ウィザードを起動します。
-
-#### 設定タイプを選択する
-
-
-
-新しいプロジェクトの設定を開始する場合、まずは _使用する設定テンプレート_ を決定します。基本的に、設定テンプレートは、プロジェクトの実行に必要なすべての設定、ファイル システム テンプレート、アプリ、およびロジックが設定された完全なプロジェクト設定です。
-
-- これが最初のプロジェクトである場合は、{% include product %} の既定値を使用して開始してみてください。
-- プロジェクトおよび以前のプロジェクトの環境設定を既に設定している場合は、既存のプロジェクトをベースにして新しいプロジェクトを作成することで既定値を簡単に再利用できます。
-- 高度なワークフローの場合は、外部の環境設定または git リポジトリに保存されている環境設定を使用することができます。
-
-#### 既定の設定テンプレート
-
-
-
-ゼロからスタートする場合はここから始めます。既定の環境設定には、既定のファイル構造とファイル命名規則を使用して設定された最新のアプリとエンジンがすべて含まれています。
-
-既定の設定をインストールしたら、設定ファイルを手動で微調整し、パイプラインの特定のニーズに合わせてカスタマイズできます。プロジェクトのセットアップが完了したら、この設定を次のプロジェクトのベースにすることができます。
-
-##### 既定の環境設定
-
-これは既定の Toolkit VFX 設定で、通常、セットアップを開始するのにぴったりの出発点です。3dsmax、Flame、Houdini、Nuke、Mari、Maya、Motionbuilder、および Photoshop のセットアップが付属し、ディスク上に簡単で分かりやすいフォルダ構造が作成されます。
-
-環境設定には数多くの異なる項目があります。
-
-- ファイル システムのセットアップ
-- ディスク上のキーの場所を特定するためのテンプレート セット
-- ワークフローに関連付けられた設定済みのエンジンとアプリのセット
-
-**ファイル システムの概要**
-
-標準設定で {% include product %} のアセットとショットを処理します。パイプラインのステップごとに項目を分割します。パイプラインのステップは部門に似ています。各パイプラインのステップには、サポート対象のさまざまなアプリケーションの作業領域とパブリッシュ領域があります。ショット構造は次のようになります。
-
-
-
-**アプリケーションとワークフロー**
-
-環境設定には次のコンポーネントが含まれます。
-
-- Maya、Mari、Nuke、3dsmax、Flame、Houdini、Photoshop、および Motionbuilder のサポート
-- {% include product %} アプリケーション ランチャー
-- パブリッシュ、スナップショット作成、バージョン管理
-- Nuke カスタム書き込みノード
-- {% include product %} との統合
-- 数多くのその他のツールとユーティリティ
-
-上記のアプリとは別に、環境設定のインストール後に追加のアプリとエンジンを簡単にインストールできます。
-
-#### 既存のプロジェクトをベースにして新しいプロジェクトを作成する
-
-
-
-これは以前のプロジェクトのすべての既定値と設定を使用して新しいプロジェクトを作成する、簡単で便利な方法です。Toolkit が、古いセットアップの環境設定を単純に新しいプロジェクトにコピーします。これは環境設定を展開する簡単で実用的な方法です。新しいプロジェクトはすべて古いプロジェクトをベースにすることになります。
-
-パイプライン設定の展開と管理の方法に関するドキュメントについては、こちらを参照してください。
-
-[プロジェクトの環境設定を管理する](https://developer.shotgridsoftware.com/ja/60762324/#inheriting-the-config-from-your-previous-project)
-
-#### git の設定テンプレートを使用する
-
-
-
-プロジェクトの環境設定をソース コントロールに接続したままにする場合はこのオプションを使用します。リモート git または github リポジトリに URL を指定すると、セットアップ プロセスで URL がクローン作成されます。これは github だけでなく、すべての git リポジトリで動作します。リポジトリのパスの最後が `.git` で終わるようにしてください。Toolkit が git セットアップとして処理します。プロジェクト設定は git リポジトリであるため、変更をマスター リポジトリだけでなく、他のプロジェクトにも反映することができます。github ベースの環境設定を使用すると、複数の Toolkit プロジェクトを簡単に同期できます。詳細はこちらでご確認ください。
-
-[プロジェクトの環境設定を管理する](https://developer.shotgridsoftware.com/ja/60762324/#a-studio-configuration-in-git-source-control)
-
-Windows 上で実行している場合は、使用するマシンに git をインストールして、`PATH` からアクセスできるようにしておく必要があります。Linux と Mac OS X の場合、通常は既定でインストールされます。
-
-#### 設定テンプレートを参照する
-
-
-
-フォルダとしてまたは zip 圧縮された zip ファイルとしてディスク上に環境設定がある場合は、このオプションを使用します。他のユーザが環境設定を電子メールで送信してきたり、過去のすべてのプロジェクトを参照するマスター設定をディスク上で管理したりする場合は、これが役に立ちます。通常、これはエキスパート オプションであるため、別のプロジェクトの環境設定を使用するか、アプリ ストアの既定の環境設定のいずれかを使用することをお勧めします。
-
-#### ストレージをセットアップする
-
-それぞれの Toolkit プロジェクトでは、すべてのファイルとデータがディスク上の 1 つ以上の共有ストレージの場所に書き込まれます。たとえば、環境設定には、テクスチャを保存するストレージ、レンダリングを保存するストレージ、シーン ファイルを保存するストレージが必要です。通常、これらのストレージは、{% include product %} の[サイト基本設定] (Site Preferences)の _[ファイル管理] (File Management)_ タブでコントロールします。
-
-Toolkit セットアップ ウィザードに、設定に必要な各ストレージのルートを {% include product %} のローカル ストレージにマップするよう求めるメッセージが表示されます。
-
-
-
-必要なルートおよびその説明(設定の `roots.yml` ファイルで定義)が左側に表示されます。右側には、既存の {% include product %} ローカル ストレージのリストが表示されます。必要なルートごとにストレージを選択します。{% include product %} に現在の OS のパスが設定されていない場合は、入力します。
-
-定義されていない他のオペレーティング システムのパスを追加することもできます。既存のパスはロックされるため、このストレージ パスを利用している可能性のある他のプロジェクトに誤って影響が及ぶことはありません。ウィザードのマッピング ページで、必要な各ルートがマッピングされていること、および各マッピングが有効なことを確認します。
-
-新しいローカル ストレージを作成するには、ウィザードを使用するか、またはストレージ選択リストの最後にある `+New` 項目を選択します。ローカル ストレージの名前および現在の OS のパスを入力するよう求められます。
-
-プロジェクトをセットアップしたら、Toolkit は各ストレージ場所の新しいプロジェクトごとにフォルダを作成します。たとえば、プライマリ ストレージの場所が `/mnt/projects` である場合、_The Edwardian Cry_ と呼ばれるプロジェクトの場所は `/mnt/projects/the_edwardian_cry` になります。環境設定でプライマリ ストレージ以外のストレージも使用している場合、それぞれのストレージの最後が `the_edwardian_cry` フォルダになります。
-
-通常、プライマリ ストレージ場所は `/mnt/projects` または `\\studio\projects` のような場所です。一般的に、この場所には、プロジェクトごとにグループ化されたプロジェクト データが既に保存されています。これは多くの場合、共有ネットワーク ストレージ上にあります。
-
-#### プロジェクト フォルダ名を選択する
-
-
-
-ここではプロジェクトのディスク名を選択します。このフォルダは、環境設定によって必要となる、さまざまなストレージすべてにおいて作成されます。ほとんどの環境設定については UI に簡単なプレビューが表示されます。これはプライマリ ストレージのプレビューのみですが、マルチルート設定を使用している場合は、追加のストレージも表示されます。Toolkit は {% include product %} の名前に基づいて既定のプロジェクト名を表示します。ユーザのセットアップに適した名前を作成するために自由に修正できます。
-
-#### 環境設定の場所を選択する
-
-
-
-最後に、設定ファイルを格納するディスク上の場所を決定してください。Toolkit は、以前のプロジェクトと同じディスク上の場所にすべて格納できるように、以前のプロジェクトに基づいた場所を表示します。
-
-スタジオ内でこの設定を必要とするすべてのユーザがアクセスできるように、通常、設定ファイルは共有ストレージまたはディスク上に格納されます。このプロジェクトに複数のオペレーティング システムを使用する場合は、必要なすべてのパスを入力してください。すべてのパスがディスク上の同じ場所を表す必要があります。多くの場合、Mac OS X と Linux では同じパスですが、Windows では異なります。
-
-これが最初のプロジェクトになる場合は、一般的に、今後のパイプラインのすべての環境設定を保存するディスク上の共有領域を決定します。通常、これはスタジオで共有するソフトウェアやソフトウェア設定を保存する場所です。場所は `/mnt/software/shotgun` のようになります。これは、スタジオのネットワークやファイル命名規則によって異なる場合があります。
-
-初めて環境設定をセットアップする場合、スタジオで使用するすべてのプラットフォームのパスをセットアップします。これにより、後ですべてのマシンからアクセスできる環境を簡単に作成できます。たとえば、プロジェクト名が _Golden Circle_ の場合、入力可能なパスは次の 3 つです。
-```
-linux: /mnt/software/shotgun/golden_circle
-macosx: /servers/production/software/shotgun/golden_circle
-windows: \\prod\software\shotgun\golden_circle
-```
-
-#### 設定完了後の作業
-
-最初の環境設定が完了したら、マニュアルの「次のステップ」に移動し、ニーズに合わせて Toolkit を設定および調整する方法を確認します。
-
-[最初のプロジェクトの作成後](https://developer.shotgridsoftware.com/ja/c3b662a6/)
-
-## 高度な機能
-
-### サイレント インストール
-
-Windows ネットワーク上では、{% include product %} Desktop インストーラの .exe を実行するときに「/S」引数を使用するとサイレント インストールを実行できます。その後、実行可能ファイルのショートカットのコピーを起動フォルダに格納することが可能です。
diff --git a/docs/ja/guides/pipeline-integrations/administration/offline-and-disabled-auto-updates.md b/docs/ja/guides/pipeline-integrations/administration/offline-and-disabled-auto-updates.md
deleted file mode 100644
index 1cc36640f..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/offline-and-disabled-auto-updates.md
+++ /dev/null
@@ -1,140 +0,0 @@
----
-layout: default
-title: オフラインでの使用と自動更新のオフ
-pagename: turn-off-auto-updates-and-offline
-lang: ja
----
-
-# オフラインでの使用と自動更新のオフ
-
-- [自動更新](#auto-updates)
- - [自動更新の対象となる部分](#what-parts-auto-update)
- - [自動更新の対象ではない部分](#what-doesnt-auto-update)
-- [統合オフラインを実行する](#running-the-integrations-offline)
- - [初期設定](#initial-setup)
- - [更新を管理する](#managing-updates)
-- [自動更新をオフにする](#turning-off-auto-updates)
- - [プロジェクト レベルまたはサイト レベルで更新をオフにする](#turning-off-updates-at-a-project-or-site-level)
- - [1 つ以外のすべてのプロジェクトの更新をオフにする](#turning-off-updates-for-all-but-one-project)
- - [アップグレード](#upgrading)
-
-## 自動更新
-### 自動更新の対象となる部分
-
-既定では、{% include product %} Desktop は更新の有無を自動的に確認し、更新がある場合はローカル マシンにインストールします。
-
-次の 2 つのコンポーネントの更新が検索されます。
-
-- `tk-framework-desktopstartup`: {% include product %} Desktop の起動を支援するフレームワーク。
-- `tk-config-basic`: 既定のサイト設定。
-
-この設定は、{% include product %} Desktop で使用する必要があるアプリン、エンジン、フレームワークのバージョン、およびコア バージョンのマニフェストとして機能します。
-設定を更新すると、これらのコンポーネントも更新される可能性があります。検索された更新はダウンロードされ、ユーザのローカル キャッシュに保存されます。元の {% include product %} Desktop インストール ファイルは変更されません。
-
- アプリケーションとして機能する {% include product %} Create には、{% include product %} Desktop とは別の独自の更新メカニズムがあります。このメカニズムについては、ここでは説明しません。
-ただし、{% include product %} Create に用意されている統合機能の動作は同様であり、`tk-config-basic` を自動更新して同じユーザ キャッシュに格納する動作も行います。
-
-### 自動更新の対象ではない部分
-
-- サイト設定を引き継いだ場合、`tk-config-basic` の新しい更新は検索されません。詳細については、[後述](#turning-off-updates-at-a-project-or-site-level)します。
-
-- 既定のサイト設定を使用していないプロジェクト(Toolkit の詳細設定ウィザードが実行されているプロジェクト)の設定は、自動更新されません。
-
-- {% include product %} Desktop にバンドルされた Python や Qt などのリソースは自動更新されません。
- これらのパーツを更新する必要がある場合は、新しい {% include product %} Desktop インストーラがリリースされることがあります。
-
-## 統合オフラインを実行する
-
-### 初期設定
-
-スタジオでインターネット アクセスが制限されている場合や、インターネットにアクセスできない場合は、必要なすべてのパーツがローカルにキャッシュされていることを確認する必要があります。{% include product %} Create または {% include product %} Desktop をダウンロードするには、インターネットに接続できるマシンが 1 台必要になります。
-
- {% include product %} Desktop には、基本的な統合の実行に必要なすべての依存関係が事前にパッケージ化されています。
-{% include product %} Create にも依存関係がバンドルされていますが、「[更新を管理する](#managing-updates)」に記載されている手順に従うことも必要になります。
-
-いずれかを起動すると自動的に更新が検索されますが、{% include product %} App Store に接続できない場合は、ローカルに存在する最新のバージョンが実行されます。
-
-インストーラにバンドルされたコンポーネントは最新でない可能性があるため、{% include product %} Desktop をインストールした後に、以下の「[更新を管理する](#managing-updates)」の手順に従うことをお勧めします。
-
-{% include info title="注" content="ネットワーク設定によっては、更新にアクセスできない場合でも、オンラインで更新を探すことができない場合があります。この場合、環境変数 `SHOTGUN_DISABLE_APPSTORE_ACCESS` を `\"1\"` に設定すると、検索の試行を停止することができます。"%}
-
-{% include info title="注" content="その後も、ShotGrid サイトに接続可能である必要があります。オフラインという用語は、Autodesk App Store に接続して更新をダウンロードできない状態を意味します。"%}
-
-### 更新を管理する
-
-`tk-framework-desktopstartup` コンポーネントを更新するには、[最新バージョンをダウンロード](https://github.com/shotgunsoftware/tk-framework-desktopstartup/releases)し、ディスク上の場所を指すように環境変数 `SGTK_DESKTOP_STARTUP_LOCATION` を設定する必要があります(これは {% include product %} Desktop にのみ適用されます)。
-
-`tk-config-basic` コンポーネントの場合は、依存関係があるため、少し面倒です。
-
-1. インターネットに接続されたワークステーションで {% include product %} Desktop または {% include product %} Create を実行します。これらを起動すると、最新のアップグレードが自動的にダウンロードされます。(このマシンで `SHOTGUN_DISABLE_APPSTORE_ACCESS` が設定されていないことを確認してください。)
-2. バンドル キャッシュを、すべてのマシンがアクセスできる共有場所にコピーします。
-3. オフライン マシンの `SHOTGUN_BUNDLE_CACHE_FALLBACK_PATHS` 環境変数がこの場所を指すように設定します。
-4. オフライン マシンで {% include product %} Desktop または {% include product %} Create が起動すると、バンドル キャッシュにある利用可能な最新のアップグレードが取得されます。
-
-{% include info title="警告" content="ネットワーク設定によっては、更新にアクセスできない場合でも、オンラインで更新を探すことができない場合があります。この場合、環境変数 `SHOTGUN_DISABLE_APPSTORE_ACCESS` を `\"1\"` に設定すると、検索の試行を停止することができます。"%}
-
-## 自動更新をオフにする
-
-### プロジェクトまたはサイト レベルで更新をオフにする
-
-{% include info title="注" content="可能であれば、新しい機能やバグ修正をインストールし忘れることがないよう、自動更新を有効にしておくことをお勧めします。"%}
-
-統合の自動更新をオフにするには、次の手順を実行します。
-
-1. 引き続き使用するバージョンを決定します。統合リリースは[こちら](https://community.shotgridsoftware.com/tags/c/pipeline/6/release-notes)にあります。
-2. {% include product %} で、プロジェクトまたはグローバル ページのいずれかにパイプライン設定エンティティを作成し、次のフィールドを入力します(この例では、v1.0.36 の統合を使用するように環境設定をロックしています)。
-
- 1. 名前: `Primary`
- 2. プロジェクト: すべてのプロジェクトで更新をオフにする場合は、空のままにします。特定のプロジェクトのみをロックする場合は、特定のプロジェクトを選択します。
- 3. プラグインの ID: `basic.*`
- 4. 記述子: `sgtk:descriptor:app_store?name=tk-config-basic&version=v1.0.36`
-
- 
-3. {% include product %} Desktop を起動します。プロジェクト フィールドを空のままにした場合、{% include product %} Desktop はこのバージョンを使用するように切り替わります(まだ切り替わっていない場合)。
-
- 
-
- プロジェクトを設定した場合は、設定したプロジェクトのみが影響を受け、{% include product %} Desktop の[バージョン情報] (About)ウィンドウは変更されません。
-4. [オプション] `tk-framework-desktopstartup` のバージョンをロックするには、[最新バージョンをダウンロード](https://github.com/shotgunsoftware/tk-framework-desktopstartup/releases)し、ディスク上の場所を指すように環境変数 `SGTK_DESKTOP_STARTUP_LOCATION` を設定する必要があります(これは {% include product %} Desktop にのみ適用されます)。
-
-大部分の機能は、以前の手順でロックできる環境設定によってコントロールされます。ただし、「自動更新の対象となる部分」セクションに記載されているように、コンポーネントも更新され、環境設定とは別に処理されます。これは {% include product %} Desktop にのみ適用されます。
-
-#### 知っておきたい情報
-
-- 環境設定のリリースを手動でダウンロードする必要はありません。{% include product %} Desktop を起動するか、プロジェクトを開始すると、自動的に処理されます。
-- `basic.*` は、基本設定のすべてのプラグインがこのオーバーライドを取得することを意味します。たとえば、Nuke と Maya の統合のみをフリーズする場合は、`basic.maya`、`basic.nuke` を指定します。
-- テストするには、このパイプライン設定エンティティの複製を作成し、`User Restrictions` フィールドに自分のユーザ名を追加します。これにより、自分のみが使用できるようにエンティティが制限され、他のユーザには影響を与えなくなります。この複製した環境設定から Maya などのソフトウェアを起動して、予想される統合バージョンが実行されていることを確認することができます。
-- プロジェクト フィールドを空白のままにすると、「サイト設定」が適用されます。 {% include product %} Desktop はプロジェクト外で動作するため、サイト設定が使用されます。{% include product %} Desktop でプロジェクトを選択すると、プロジェクト設定もロードされます。
-
-- Flame 統合のネームスペースは `basic.flame` であり、`basic.*` の一部であることが暗示されています。
- しかし Flame 統合は、実際には基本設定に含まれていません。そのため、プロジェクトに Flame を使用してこのオーバーライドを実装すると、Flame 統合が機能しなくなります。
- 解決策は、Flame 専用の追加のパイプライン設定オーバーライドを作成することです。
- - 名前: `Primary`
- - プロジェクト: ロックするプロジェクト(すべてのプロジェクトの場合はなし)
- - プラグインの ID: `basic.flame`
- - 記述子: `sgtk:descriptor:app_store?name=tk-config-flameplugin`
-
-### 1 つ以外のすべてのプロジェクトの更新をオフにする
-
-上記の例の手順に従ってすべてのプロジェクトの更新をオフにした場合に、特定のプロジェクトの更新を有効にするには、次の操作を実行します。
-
-1. 上記のセクションで説明したように、サイトの更新をオフにします。
-2. 例外にするプロジェクトのパイプライン設定エンティティに、次のフィールド値を設定します。
- - 名前: `Primary`
- - プロジェクト: ロックしないプロジェクト
- - プラグインの ID: `basic.*`
- - 記述子: `sgtk:descriptor:app_store?name=tk-config-basic`
- 
- [記述子] (Descriptor)フィールドでバージョン番号を省略すると、プロジェクトは基本設定の最新リリースをトラックします。
-
-### アップグレード
-
-設定を更新する場合は、すべてのユーザに展開する前に、新しいバージョンをテストしなければならないことがあります。
-
-1. {% include product %} でパイプラインの設定エンティティを右クリックし、**[選択した項目を複製] (Duplicate Selected)**を選択して複製します。
-2. クローン作成した設定に「update test」という名前をつけて、自分を[ユーザ制限] (User Restrictions)フィールドに割り当てます。
-3. このパイプライン設定を使用するようになります。
-4. テストするバージョンを指すように記述子を変更します。
-4. テストに参加させるユーザは、`User Restrictions` フィールドに追加して招待できます。
-5. 問題なくテストが完了したら、そのバージョンを使用するようにメインのパイプライン設定を更新するだけです。
-6. ユーザが {% include product %} Desktop を再起動し、現在開いているソフトウェアと実行中の {% include product %} の統合を再起動すると、更新が選択されます。
diff --git a/docs/ja/guides/pipeline-integrations/administration/other-integrations.md b/docs/ja/guides/pipeline-integrations/administration/other-integrations.md
deleted file mode 100644
index b943b794a..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/other-integrations.md
+++ /dev/null
@@ -1,32 +0,0 @@
----
-layout: default
-title: その他の統合
-pagename: other-integrations
-lang: ja
----
-
-# その他の統合
-
-{% include product %} の API を使用することで、多数のサードパーティのパッケージと統合することができます。ただし、{% include product %} とすぐに統合できるものもあります。
-
-## Cinesync
-
-Cinesync では、複数の場所から再生を同時に同期できます。{% include product %} との統合により、バージョンのプレイリストを作成し、Cinesync で再生して、セッション時に作成したノートを {% include product %} に送信できます。
-
-詳細については、[http://www.cinesync.com/manual/latest](http://www.cinesync.com/manual/latest)を参照してください。
-
-## Deadline
-
-{% include product %} と Deadline の統合により、すべてのサムネイル、フレームへのリンク、および他のメタデータとともにレンダリングしたバージョンが {% include product %} に自動的に送信されます。
-
-詳細については、[https://docs.thinkboxsoftware.com/products/deadline/5.2/User%20Manual/manual/shotgunevent.html](https://docs.thinkboxsoftware.com/products/deadline/5.2/User%20Manual/manual/shotgunevent.html) を参照してください。
-
-## Rush
-
-Deadline との統合とほぼ同じように、{% include product %} と Rush の統合により、すべてのサムネイル、フレームへのリンク、および他のメタデータとともにレンダリングしたバージョンが {% include product %} に自動的に送信されます。
-
-詳細については、[http://seriss.com/rush-current/index.html](http://seriss.com/rush-current/index.html) を参照してください。
-
-## Subversion (SVN)
-
-内部で使用される、軽量で柔軟性に優れた {% include product %} の統合では、{% include product %} でリビジョンをトラックし、チケットとリリースにリンクすることができます。また、外部ウェブ SVN リポジトリ ビューアと統合できるように Trac にもリンクできます。これは SVN にポストコミット フックを追加することで実行できます。このフックは、コミットからいくつかの ENV 変数を取得し、さまざまなフィールドに設定して {% include product %} でリビジョン エンティティを作成する {% include product %} API スクリプトです。スタジオのニーズに合わせて修正し、API を使用しているだけなので、ローカルまたはホストされたインストールで使用することができます。詳細については、[https://subversion.apache.org/docs](https://subversion.apache.org/docs/)を参照してください。
diff --git a/docs/ja/guides/pipeline-integrations/administration/toolkit-overview.md b/docs/ja/guides/pipeline-integrations/administration/toolkit-overview.md
deleted file mode 100644
index 158de8036..000000000
--- a/docs/ja/guides/pipeline-integrations/administration/toolkit-overview.md
+++ /dev/null
@@ -1,295 +0,0 @@
----
-layout: default
-title: Toolkit の概要
-pagename: toolkit-overview
-lang: ja
----
-
-# Toolkit の概要
-
-
-
-# {% include product %} Pipeline Toolkit のさまざまなコンセプトの概要
-
-ここでは、アプリとエンジンの仕組み、Toolkit の起動方法と現在のコンテキスト(作業領域)の管理方法、ディスク上にフォルダを作成する方法など、主要なコンセプトについて詳細に説明します。環境設定と開発に関与するユーザはここから始めることをお勧めします。
-
-_このドキュメントは、Toolkit の設定を管理するユーザのみが使用可能な機能について説明します。詳細については、『[{% include product %} 統合管理者ガイド](https://developer.shotgridsoftware.com/ja/8085533c/)』を参照してください。_
-
-# はじめに
-
-このドキュメントでは、いくつかの主要機能の詳細について説明します。説明、例、簡単なデモを通じて、Toolkit のすべてがおわかりいただけると思います。このドキュメントは、Toolkit に慣れる方法や、Toolkit のメリットを紹介する初心者向けのドキュメントです。すべての内容を確認すれば、いくつかの主要なコンセプトとそのコンセプトの仕組みを理解できます。
-
-
-
-以下に、Toolkit (SGTK)の簡単な説明を示します。
-
-- Toolkit は {% include product %} プラットフォームを使用する _Pipeline Toolkit_ です。このツールキットを使用すると、簡単にツールを作成してインストールできます。
-- Toolkit はファイル システム ベースのツールです。ディスク上の格納場所を整理できるため、ディスク上で管理するものを適切に構造化できます。
-- Toolkit は支援ツールです。パイプラインでデータを引き継いだり抽出化することはありませんが、アーティストが情報を見つけやすく、ミスを防ぐことができるようにする優れたツールです。
-- Toolkit は、パブリッシュしたものをすべて {% include product %} に保存して作業を共有できるようにします。Toolkit を使用すると、制作上の更新や作業を簡単に共有できます。
-
-次のセクションでは、Toolkit の詳細とその仕組みについて説明します。
-
-# プロジェクトと環境設定
-
-Toolkit の環境設定は、すべてプロジェクト中心に行います。プロジェクトは通常、{% include product %} 内でライフサイクルを開始し、入札とプリプロダクションの段階を経て、コンテンツを作成できる段階になったら、Toolkit をプロジェクトに合わせて設定します。
-
-
-
-新しいプロジェクトをセットアップする場合は、 _テンプレート設定_ を使用します。テンプレート設定には、エンジンとアプリ、ファイル システムの設定、およびその他の設定があらかじめ定義されています。Toolkit を初めて使用する場合は、まずはサンプルの設定を使用して吟味してみてください。別のプロジェクトで Toolkit を既に使用したことがある場合は、新しいプロジェクトでもまずはその設定を使用してみることをお勧めします。この方法では、スタジオの設定を展開して、それぞれの新しいプロジェクトに合わせて調整できます。もちろん、スタジオの設定を個別に管理し、新しいプロジェクトすべてのテンプレートとして使用することもできます。
-
-それぞれの設定を使用して、数多くの _ストレージ ポイント_ を定義します。標準のサンプル設定「`tk-config-default`」の場合、 _プライマリ_ と呼ばれる 1 つのストレージ ポイントを定義します。つまり、すべてのプロダクション データは 1 つのファイル システムのプロジェクト ルート内に格納されます。また、複数のファイル システムのルートを使用して設定をセットアップすることもできます。これは _「マルチルート設定」_ と呼ばれます。マルチルート設定が必要な例としては、レンダリングや編集用の個別ストレージを設定する場合などがあります。各ストレージ ポイントは、 {% include product %} の _ローカル ファイル ストレージ_ にする必要があります。これは、[サイト基本設定] (Site Preferences)の _[ファイル管理] (File Management)_ タブで設定できます。
-
-Toolkit は、任意の場所に実際のプロジェクト設定をインストールします。通常、このインストール場所は、プロジェクトのデータを格納する場所ではなく、 _ソフトウェアをインストール_ した場所になります。
-
-## 独自の環境設定を展開する
-
-新しいプロジェクトをセットアップする場合は、既存のプロジェクトをベースにすることができます。Toolkit は、既存のプロジェクトから新しいプロジェクトに設定フォルダをコピーします。つまり、新しいプロジェクトは、アプリとエンジンのバージョン、設定、およびカスタマイズが元のプロジェクトとまったく同じになります。これは、 _パイプライン_ を展開し、既存のプロダクションの一部として行った改善と調整を活用する場合に役立ちます。
-
-また、プロジェクトのセットアップに問題がなく、一元的に保存する場合は、プロジェクトの設定フォルダを使用するだけです。この設定はスタジオのテンプレートとして使用することができ、新しいプロジェクトを作成するたびにこの設定をベースにすることができます。必要に応じて、git などのリビジョン制御システムを使用すると、このスタジオ テンプレート設定をソース制御することもできます。時間の経過とともにパイプライン設定テンプレートがどのように変化をしているかを、簡単かつ透明性を確保した上でトラッキングできます。更新する場合は、1 つのプロジェクトから設定をコピーして変更をコミットするだけです。
-
-設定管理の詳細については、次の詳細ドキュメントを参照してください。
-
-[プロジェクト設定を管理する](https://developer.shotgridsoftware.com/ja/60762324/)
-
-## プロジェクトごとにパイプライン設定を指定する
-
-プロジェクトに Toolkit をセットアップすると、パイプライン設定が作成されます。この設定にはプロジェクトに必要なすべての設定とファイルが含まれています。この設定には専用の `tank` コマンドが用意されており、プロジェクトを直接操作する場合はシェルで実行できます(すべてのプロジェクトで動作するグローバルな tank コマンドもあります)。{% include product %} では、ディスク上のプロジェクト設定の格納場所を簡単にトラックできるように、パイプライン設定が特別なパイプライン設定エンティティとして登録されます。
-
-プロジェクトのセットアップ時に作成されるマスター設定とは別に、プロジェクトの追加設定を作成できます。これは、プロジェクトのユーザに影響を与えることなく設定に変更を加える場合に役立ちます。それには、{% include product %} でパイプライン設定に移動して右クリックし、クローンを作成します。これにより、プロジェクトに他の設定に基づいた新しいパイプライン設定が作成されます。この新しい設定を使用すると、他のユーザに影響を与えることなく、新しいアプリなどを安全にテストすることができます。
-
-プロジェクトのメイン設定は `Primary` という名前にする変更する必要があります。この設定の名前を変更したり、修正または削除した場合、予想どおりに動作しなくなる可能性があります。{% include product %} に保存されているパイプライン設定は、手動ではなくさまざまな特定の `tank` 管理コマンドを使用して操作します。
-
-例:
-
-[設定のクローンを作成する方法](https://developer.shotgridsoftware.com/ja/60762324/#cloning-your-configuration)
-
-## 更新を確認する
-
-一般的な他のアプリ ストアと同様に、Toolkit アプリ ストアでは、新しいバージョンのアプリとエンジンを絶えず提供しています。新しいバージョンには、重大なバグの修正や便利な新機能が含まれている場合があります。アプリとエンジンのアップグレードは省略可能です。通常、このプロセスは非常に簡単で、変更を加える前にはアップグレード スクリプトによって必ずプロンプトが表示されます。同様に、誤って不要なバージョンをインストールした場合も簡単にロールバックできます。
-
-アップグレード プロセスは 1 つのコマンドで処理します。プロジェクト設定フォルダ内にある `tank` コマンドを実行して、パラメータ `updates` を追加するだけです。
-
-```shell
-/software/shotgun/bug_buck_bunny/tank updates
-```
-
-パラメータを設定せずにこのコマンドを実行すると、すべての環境、エンジン、およびアプリがチェックされます。時間はかかりますが、インストールしたアプリとエンジンのサブセットで更新ツールを実行することもできます。
-
-一般的な構文:
-
-```shell
-tank updates [environment_name] [engine_name] [app_name]
-```
-
-特別なキーワードである `ALL` を使用すると、カテゴリ内のすべての項目を指定できます。
-
-以下に例を示します。
-- すべてをチェックする: `tank updates`
-- ショット環境をチェックする: `tank updates Shot`
-- すべての環境内のあらゆる Maya アプリをチェックする: `tank updates ALL tk-maya`
-- ショット環境内のあらゆる Maya アプリをチェックする: `tank updates Shot tk-maya`
-- Loader アプリが常に最新の状態を維持するようにする: `tank updates ALL ALL tk-multi-loader`
-- Loader アプリが Maya で最新の状態を維持するようにする: `tank updates ALL tk-maya tk-multi-loader`
-
-このスクリプトは、アプリ ストアだけではなく、登録された他のすべての場所もチェックするため、アプリを展開した場所に応じて、ローカルの git、Github リポジトリ、ディスク上のファイル、およびアプリ ストアをクエリーする可能性があります。
-
-新しいバージョンのアプリを導入すると、アプリ設定が変更される場合があります。たとえば、新しい機能で新しい設定パラメータが必要になる場合があります。この場合、`tank` アップグレード スクリプトは、このパラメータの値を入力するように求めます。
-
-## Core API の更新を確認する
-
-オートデスクは、必要に応じて Toolkit Core API の新しいバージョンをリリースします。Core API の更新には個別のコマンドを使用します。この場合のコマンドは `tank core` です。
-
-# ディスク上にフォルダを作成する
-
-プロジェクトに Toolkit をセットアップしたら、このツールキットを使用して、一貫性のあるフォルダ構造を作成できます。ディスク上でパイプライン設定の一環としてファイル システム テンプレートを作成すると、このフォルダ構造が設定されます。このフォルダ構造では、一部のパスは動的パスになります。たとえば、{% include product %} アセット エンティティを表す `asset` と呼ばれるフォルダが作成される場合があります。この動的なフォルダは、{% include product %} クエリーなどの多くの項目と結び付けることができます。
-
-
-
-Toolkit には、多種多様な設定やシナリオを処理するさまざまな動的フォルダが数多く用意されています。フォルダの作成時に標準的な {% include product %} API クエリー構文を使用すると、アセットをタイプによってファイル システム上の異なるフォルダに格納するようにファイル システムを整理することもできます。
-
-この操作方法については、管理者ガイドを参照してください。
-
-[{% include product %} Pipeline Toolkit を管理する](https://developer.shotgridsoftware.com/ja/425b1da4/)
-
-Toolkit のフォルダは 2 つのパスで作成されます。すべてのユーザがいつでも実行できるダイレクト パスと、通常はアプリケーションの起動直前にアーティストが実行する遅延パスです。この遅延パスは完全に自動で、アプリケーション固有のフォルダとユーザ サンドボックスのセットアップに使用されます。
-
-# 現在のコンテキスト
-
-ファイル システム構成が作成されると、Toolkit はディスク上のフォルダとフォルダが属する {% include product %} オブジェクト間の関係を認識します。これにより、パスのパブリッシュ、ロード、解決を行うときに、{% include product %} のオブジェクトとフォルダ、ディスク、またはファイルを簡単に関連付けることができるため重要です。また、 _「コンテキスト」_ や _「現在の作業領域」_ と呼ばれる場所にも関連付けられます。コンテキスト オブジェクトは Toolkit Core の一部で、作業している現在のコンテキストをトラックします。Toolkit がファイル システムのパスを解決する場合の中心的なメカニズムです。
-
-
-
-コンテキストは、タスク、アセット、ショットなどの {% include product %} オブジェクトまたはディスク上のパスのいずれかから作成できます。アプリが実行されている場合は、いつでもコンテキストを利用できるため、ファイル システムの命名規則に関する情報がないアプリや、アセット パイプラインとショット パイプラインのどちらで使用するか分からないアプリを簡単に作成できます。これは Toolkit Core API とコンテキストですべて処理されます。
-
-# ファイル システム テンプレート
-
-Toolkit Core にはファイル パスを処理するためのシステムが含まれます。これは _「テンプレート システム」_ と呼ばれています。Toolkit はファイル システム ベースであるため、アプリがディスクからデータを読み取ったり、ディスクにデータを書き込んだりする場合はファイル パスを解決する必要があります。アプリはファイル システム構成に依存しません。つまり、ファイル システムの整理方法を認識しません。テンプレート システムはこれらすべてを処理します。
-
-テンプレート システムの中心は _「テンプレート設定ファイル」_ です。このファイルには、プロジェクトの重要なすべてのファイル システムの場所が含まれています。_テンプレート_ は次のようになっています。
-
-```yaml
-maya_shot_publish: 'shots/{Shot}/{Step}/pub/{name}.v{version}.ma'
-```
-
-特定の動的フィールドが含まれるパスを定義します。各フィールドの設定には検証と入力が必要です。たとえば、上記テンプレートの `{version}` フィールドが 3 つのゼロ(`001`、`012`、`132` など)を使用した整数となるように定義します。アプリがディスクに何かを読み書きする必要がある場合は、その場所を示すテンプレートがテンプレート ファイルに追加されます。多くの場合、アプリはパイプラインを形成するように設定されているため、あるアプリ(パブリッシュ アプリなど)の出力テンプレートが、別のアプリ(ロード アプリなど)の入力テンプレートになることがよくあります。そのため、ファイル システムの場所は、すべて 1 つのファイルに保存されます。
-
-テンプレート API を使用すると、フィールドの値とパスのリスト間でジャンプできます。
-
-```python
-# get a template object from the API
->>> template_obj = sgtk.templates["maya_shot_publish"]
-
-
-# we can use the template object to turn a path into a set of fields...
->>> path = '/projects/bbb/shots/001_002/comp/pub/main_scene.v003.ma'
->>> fields = template_obj.get_fields(path)
-
-{'Shot': '001_002',
- 'Step': 'comp',
- 'name': 'main_scene',
- 'version': 3}
-
-# alternatively, we can take a fields dictionary and make a path
->>> template_obj.apply_fields(fields)
-'/projects/bbb/shots/001_002/comp/pub/main_scene.v003.ma'
-```
-
-上記のパスとテンプレートには、2 つの異なるタイプのフィールドが設定されます。`Shot` フィールドと `Step` フィールドは、{% include product %} の同等のオブジェクト(ショットとパイプライン ステップ)を使用する高レベルのフィールドです。`name` フィールドと `version` フィールドは、この特定のタイプのテンプレート専用です。ショットではなくアセットのパブリッシュ パスを定義する場合にも、`name` フィールドと `version` フィールドを使用します。パブリッシュ パスはすべてのパブリッシュで必要となるため、データのタイプは関係ありません。ただし、`Shot` フィールドと `Step` フィールドは使用できません。代わりに、`Asset` フィールドと `Step` フィールドを使用できます。アセット フィールドは、{% include product %} のアセットと関連付けられます。
-
-パブリッシュを実行するアプリを開発する場合、ショット パブリッシュとアセット パブリッシュのそれぞれを実行する個別のアプリを作成する必要はまったくありません。シーケンス、ショット、アセットに関係なく、すべてのパブリッシュ シナリオを処理できるパブリッシュ アプリを 1 つのみ作成すれば十分です。
-
-
-
-ここで _Toolkit のコンテキスト_ が必要になります。Toolkit のコンテキストを使用すると、テンプレート フィールドを 2 つの異なるグループに分割できます。コンテキスト フィールド(`Shot`、`Step`、`Asset` など)は、アプリ外でアプリのロジックを使用して解決するためのフィールドです。ショットやアセットなどのコンセプトを処理する専用コードを設定する必要はありません。アプリには、このアプリに固有の _ビジネス ロジック_ に直接関連付けられたフィールドのみを入力する必要があります。たとえば、Publish アプリでは、ビジネス ロジックは `name` フィールドと `version` フィールドで構成されます。したがって、上の図に示すとおり、Toolkit はフィールド解決を 2 つの異なるフェーズに分割します。一部のフィールドはコンテキストによって解決され、他のフィールドはアプリのビジネス ロジックによって処理されます。この方法では、アプリが特定のファイル システム レイアウトに関連付けられない仕様にすることができます。これは優れたパイプライン ツールを作成する上で重要な要素だと考えています。
-
-通常、パス解決を処理するアプリ コードは次のようになります。
-
-```python
-# start with an empty fields dictionary
-fields = {}
-
-# first let the context populate all its fields
-fields.update( self.context.as_template_fields( publish_template_obj ) )
-# fields is now {'Shot': '001_002', 'Step': 'comp' }
-
-# now the app can add its business logic
-fields["name"] = "main_scene"
-fields["version"] = 234
-
-# and finally the app can produce the path it needs in
-# order to save out the file
-path = publish_template_obj.apply_fields(fields)
-```
-テンプレート API の設定方法と使用方法に関する詳細については、次を参照してください。
-
-[ファイル システム設定リファレンス](https://developer.shotgridsoftware.com/ja/82ff76f7/)
-
-[Core API リファレンス](https://developer.shotgridsoftware.com/tk-core/core.html#)
-
-# 実行するエンジンとアプリを選択する
-
-Toolkit Core にはユーザに表示するアプリを決定する上で _重要な役割があります_。キャラクタ リギングの作業時に Maya を起動する場合、ショットのライトを処理するときに別のアプリ コレクションが必要になることがあります。さらに、操作方法に応じてアプリを個別に設定できるため、リギングのレビュー アプリでターンテーブルを生成する一方で、アニメータが実行したときには同じレビュー アプリでショット カメラを使用してプレイブラストを実行できます。
-
-このような柔軟性を実現するために、Toolkit プロジェクト設定には一連の _「環境」_ が含まれます。環境とは、一連のアプリ、エンジン、およびそれらすべての設定パラメータを定義する設定ファイルです。
-
-Toolkit の起動時に、 _どちらの_ 環境を初期化するかを決定する必要があります。このためには、独自のビジネス ロジックを追加できる「_フック_」と呼ばれる Python コードを使用します。_コンテキスト_ オブジェクトはこのコードに渡され、多くの場合、使用する環境を決定するために使用されます。
-
-
-
-これにより、パイプラインのそれぞれの部分に個別のアプリを設定できます。さらに、更新も個別に実行し、管理するスーパーバイザを個別に指定することもできます。
-
-## 既定の設定での環境
-
-既定の設定の環境で、環境の仕組みと構造を実例を挙げて紹介します。
-
-- `project.yml` - コンテキストにプロジェクトのみが含まれる場合に実行されるアプリとエンジンです。
-- `shot_and_asset.yml` - コンテキストにショットまたはアセットが含まれる場合に実行されるアプリとエンジンです。
-- `shot_step.yml` - コンテキストにショットとパイプライン ステップが含まれる場合のアプリとエンジンです。
-- `asset_step.yml` - コンテキストにアセットとパイプライン ステップが含まれる場合のアプリとエンジンです。
-
-既定の設定のファイル システムはパイプライン ステップに基づいて整理されます。つまり、ショットの場所にモデリングやリギングなどのフォルダが配置されます。基本的に、作業するパイプライン ステップごとにフォルダが 1 つあります。各フォルダには、ディスク上の独自の作業領域とパブリッシュ領域が含まれます。そのため、パブリッシュ テンプレートは次のようになります。
-
-```yaml
-maya_shot_publish: 'sequences/{Sequence}/{Shot}/{Step}/pub/{name}.v{version}.ma'
-```
-
-このテンプレートを使用するには、コンテキストにエンティティとパイプライン ステップの両方を含める必要があります。シーケンス `ABC` とパイプライン ステップ `Modeling` の子であるショット `1122` の場合、上記のテンプレートは `sequences/ABC/1122/Modeling/...` に解決されます。これは、ショットが含まれ、パイプライン ステップが含まれないコンテキストは、上記のテンプレートの入力値が不足していることを意味します。ショットのみのコンテキストでは Maya を起動できないため、上記のテンプレートを使用することはできません。このテンプレートを使用するには、ステップが必要です。
-
-これにより、上記のように環境の内容が設定されます。既定の設定で定義されたファイル システム構成はステップ中心であるため、すべての主要なアプリは、ステップが定義されたコンテキストで実行する必要があります。既定の設定では、`asset_step.yml` と `shot_step.yml` の 2 種類の環境ファイルを定義します。各ファイルには、Maya、Nuke、3dsmax、Motionbuilder、Photoshop といった数多くの DCC 用のエンジンが含まれています。{% include product %} 内のタスクから Maya を起動する場合、選択環境フックは環境 `shot_step` を選択し、Maya を起動して Maya のアプリ設定をロードします。
-
-これは、{% include product %} 内のショット オブジェクトから Maya を直接起動する際にも役立ちます。さらに重要なのは、これはコンソール `tank Shot 1122 launch_maya` で入力できるようにする際に本当に役立つということです。`shot` 環境と `asset` 環境が関係するのはこの段階です。ショットまたはアセットが含まれ、パイプライン ステップが含まれないコンテキストを使用して Maya をロードすると、これらの環境のいずれかがロードされます。ファイル システム構成はパイプライン ステップごとにすべて整理されるため、コンテキストにパイプライン ステップの情報がない場合、ロードやパブリッシュの実行は非常に困難です。Maya は、 _作業ファイル_ アプリのみが含まれる最小設定で起動されます。このアプリを使用すると、作業するタスクを選択できます。タスクを選択すると、Toolkit はコンテキストを切り替えてエンジンを再起動し、すべてのアプリが搭載された環境 `shot_step` をロードします。
-
-同様に、環境 `project` は、 _作業ファイル_ アプリのみが含まれる汎用的なフォールバックになります。このため、プロジェクト内のほとんどの場所から Maya を起動できます。最小状態で Toolkit が初期化されるため、 _作業ファイル_ アプリを使用して有効な作業領域にジャンプできます。
-
-# アプリを設定する
-
-各アプリには、指定する必要のある多数の設定パラメータがあります。アプリをインストールまたはアップグレードする場合は、Toolkit ですべての必須設定を指定していることを確認します。
-
-文字列や整数などの単純な設定値は、環境設定で直接指定します。テンプレートはさまざまであり、Toolkit ではすべてのテンプレートが 1 箇所に保持されるため、環境ファイルはテンプレート ファイルで定義されたテンプレートを参照しているに過ぎません。設定で使用するテンプレートには、アプリによってさまざまなフィールドが必要です。前述の例では、Publish アプリで、ディスク上にその出力ファイルを作成するときに、`name` と `version` フィールドを含むテンプレートを使用していました。そのため、このアプリには、`name` と `version` フィールドを含むテンプレートを必要とする設定が指定されていました。
-
-
-
-コンテキスト フィールド(`name` と `version`)以外を含むテンプレートを使用したアプリを設定しようとすると、アプリが他の追加フィールドの入力方法を認識できないため、このテンプレートからパスを生成することはできません。同様に、いずれかのフィールドが不足しているテンプレートを指定した場合も、混乱を招きます。この場合は、アプリからバージョン番号が書き出されません。そのため、Toolkit は、起動時に設定を検証して、すべてのテンプレートに必要なフィールドが指定されていることを確認します。また、Toolkit は既定値と選択可能なフィールドの使用方法もいくつかサポートしています。
-
-完全なリファレンスについては、次のリンクを参照してください。
-
-[アプリとエンジンの設定リファレンス](https://developer.shotgridsoftware.com/ja/162eaa4b/)
-
-[ファイル システム設定リファレンス](https://developer.shotgridsoftware.com/ja/82ff76f7/)
-
-## フック
-
-Toolkit は、テンプレートを使用したアプリ設定に加えて、 _フック_ と呼ばれるコンセプトもサポートしています。フックは Python コードの小型スニペットであるため、設定の一環としてアプリを部分的にカスタマイズできます。
-
-次に、その動作と仕組みについて説明します。
-
-アプリは複数のエンジンとプロジェクト間で再利用できるため優れています。ただし、アプリにはエンジン固有のロジックの小型スニペットがいくつか必要です。たとえば、Nuke と Maya の両方で動作するローダー アプリを作成する場合、 _実際のファイル ロード_ を処理するコードが必要です。このコードは Nuke と Maya では別のものにする必要があります。さらに、すべてのエンジンでこのアプリを使用できれば便利です。また、スタジオが異なればシーンに項目をロードする方法も異なります。スタジオによって、カスタムの Maya リファレンス ノードをサポートする必要がある場合や、読み込みのみができれば良い場合もあります。
-
-このような違いは、Toolkit で _フック_ を使用すれば解決できます。フックはカスタマイズ可能なコードです。アプリには、基本的な設定が実装されている既定のフックが含まれているため、アプリはすぐに正常に動作します。ただし、動作をカスタマイズする場合は、フック ファイルを設定にコピーすると、Toolkit がこのコードを使用するようになります。
-
-[フックの操作方法を管理者ガイドで確認する](https://developer.shotgridsoftware.com/ja/425b1da4/#hooks)
-
-# {% include product %} とシェルから実行する
-
-Toolkit をインストールすると、複数のプライマリ エントリ ポイントから利用できます。
-
-- {% include product %} アクションは {% include product %} 内の右クリック メニューに表示されます。
-- 起動アイコンは {% include product %} Desktop アプリのプロジェクトで表示されます。
-- コンソールで `tank` コマンドを使用することができます。
-- Toolkit Python API はアプリケーションとシェルの両方で利用可能です。
-
-アプリケーションの起動とタスクの実行は、{% include product %} 内から Toolkit を実行するのが一般的です。{% include product %} は {% include product %} Desktop を使用して、マシンのローカルにインストールされている Toolkit と通信し、ローカルの Python を使用して Toolkit コマンドを実行します。つまり、{% include product %} 内からフォルダ作成などのローカルの作業を実行できます。
-
-シェルから Toolkit にアクセスすることもできます。各プロジェクト設定には独自の `tank` コマンドが用意されています。プロジェクト設定ルートにアクセスして、`./tank` コマンドを実行するだけです。
-
-最後に、Toolkit API を環境変数 `PYTHONPATH` に追加して読み込みます。API は簡単に使用できます。{% include product %} Desktop を使用する代わりに、手動またはスタジオの既存の起動システムの一部として、Maya 内で Toolkit を起動する場合は、簡単な数個のコマンドを実行するだけです。
-
-# パブリッシュ
-
-他のユーザと共同で作業しているファイルを共有する場合は、このファイルをパブリッシュできます。これにより、`PublishedFile` エンティティが {% include product %} 内に作成され、他のユーザが Toolkit のローダー アプリを使用して読み込むことができるようになります。
-
-
-
-ディスク関連項目の保存場所、ファイルに含まれる内容など、「データ管理」が厳密に何を意味するかは、アプリで行う実際の作業によって異なります。Toolkit API により、アプリ開発者は {% include product %} 内でパブリッシュを簡単に作成し、このパブリッシュと最適なオブジェクトをリンクするメソッドを使用できます。これにより、{% include product %} は処理を実行し、すべての関係者に通知を送信できるようになります。また、用途が幅広く、柔軟な設定が可能な既定の Publish アプリもありますが、これが Toolkit を使用してバージョン管理を実行する唯一の方法ではありません。Toolkit は拡張可能であるため、Toolkit を使用して独自のカスタム バージョン管理とパブリッシュ システムを必要に応じて開発することができます。
-
-ただし、最初は Publish アプリを使用することをお勧めします。
-
-[既定の Multi Publish アプリ](https://developer.shotgridsoftware.com/tk-multi-publish2/)
-
-# 再利用可能なアプリを作成する
-
-Toolkit は、単にアプリとエンジンをまとめたものではありません。独自のツールと技術の開発に使用するフレームワークでもあります。Toolkit を豊富な機能を備えたスタジオの開発プラットフォームにするための機能が多数含まれています。Toolkit を基盤にすると、自分で基本的なプラットフォームを構築する必要がなく、身近な問題に集中することができます。開発者がアーティストのパイプラインを間違って破壊しないようにソフトウェアの作成、評価、およびリリースを簡単に行えるようにしました。
-
-- エンジンは、基盤に関係なく、アプリを Python や Qt (PySide/PySide2)で作成できるようにするものです。非常に単純なエンジンもありますが、使用できる API によっては複雑なエンジンもあります。エンジンによって、簡単で一貫性のある方法を使用してスタジオ用のツールを開発できます。これまでの経験から、開発環境スタジオでは Python と Qt を使用することが多く、TD の多くはこれらのプログラミング言語に慣れています。
-- また、エンジン レイヤによって、アプリを一度作成すれば複数の環境で展開できます。オートデスクは、標準的なアプリ スイートを _「マルチ アプリ」_ として開発しているため、すべてのエンジンで同じアプリを使用します。各 DCC アプリケーションで公開される特定の API と連携するように調整する必要がある特定のコードが必ずありますが、通常、これは 1 つ以上のフックに含まれるため、アプリケーションを簡単に再利用できます。このようにマルチ アプリを作成できるため、新しいエンジンを開発する場合、この新しいエンジンと連携するように標準的なすべてのアプリを簡単に設定できます。
-- パイプライン設定とクローン作成により、開発サンドボックスを簡単に作成できるため、開発者は日常の制作活動に影響を受けることなく制作上の開発を行うことができます。ツールを展開する準備が完了すると、メインのプロジェクト設定は簡単に更新でき、このツールはすべてのアーティストに展開されます。
-- アプリはエンジン内で実行されるため、簡単に再ロードできます。新しいコード変更をテストするたびに Nuke や Maya を再起動する必要はなく、Toolkit の再ロード ボタンをクリックするだけで、最新のコードがロードされます。
-
-アプリ開発の詳細については、次のドキュメントを参照してください。
-
-[Toolkit アプリ開発の概要](https://developer.shotgridsoftware.com/ja/2e5ed7bb/)
-
-[Toolkit API リファレンス](https://developer.shotgridsoftware.com/tk-core/)
-
-[アプリとエンジンの設定リファレンス](https://developer.shotgridsoftware.com/ja/162eaa4b/)
diff --git a/docs/ja/guides/pipeline-integrations/development.md b/docs/ja/guides/pipeline-integrations/development.md
deleted file mode 100644
index 486eb3915..000000000
--- a/docs/ja/guides/pipeline-integrations/development.md
+++ /dev/null
@@ -1,34 +0,0 @@
----
-layout: default
-title: 開発
-pagename: toolkit-development
-lang: ja
----
-
-# 開発
-
-## Toolkit とは何か?
-
-Toolkit とは、パイプライン統合の基盤となるプラットフォームのことです。たとえば、Maya で {% include product %} Panel アプリを使用している場合や、{% include product %} Create から Publish アプリを起動している場合は、Toolkit プラットフォーム上に構築されたツールを使用しています。
-
-## Toolkit を使用して開発するには、どうしたらよいですか?
-
-Toolkit を使用して開発する場合は、複数の方法を使用できます。
-
-- フックと呼ばれるカスタム コードを記述して、既存のアプリ、エンジン、またはフレームワークの動作を拡張します。
-- 独自のアプリ、エンジン、またはフレームワークを作成します。
-- または、API を利用する独自のスタンドアロン スクリプトを記述します。
-
-これらのいずれかの操作を行うには、Toolkit API の使用方法を理解することが重要です。
-
- {% include product %} 全体には、3 つの主な API があります
-- [{% include product %} Python API](https://developer.shotgridsoftware.com/python-api)
-- [{% include product %} REST API](https://developer.shotgridsoftware.com/rest-api/)
-- [{% include product %} Toolkit API](https://developer.shotgridsoftware.com/tk-core)
-
-Toolkit API は、{% include product %} Python API または REST API と一緒に使用するように設計された Python API です。これらの API の代わりに使用することはできません。
-Toolkit API にはいくつかのラッパー メソッドが含まれていますが、一般には、{% include product %} サイトのデータにアクセスする必要がある場合、{% include product %} Python API または REST API を代わりに使用します。
-
-Toolkit API は主に、ファイル パスの統合と管理を行います。一部の Toolkit アプリおよびフレームワークには、[独自の API](../../reference/pipeline-integrations.md) も含まれています。
-
-これらの記事では、Toolkit を使用した開発方法について説明します。
\ No newline at end of file
diff --git a/docs/ja/guides/pipeline-integrations/development/images/dev-configuration.png b/docs/ja/guides/pipeline-integrations/development/images/dev-configuration.png
deleted file mode 100644
index b1f8ed53e..000000000
Binary files a/docs/ja/guides/pipeline-integrations/development/images/dev-configuration.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/development/images/develop.png b/docs/ja/guides/pipeline-integrations/development/images/develop.png
deleted file mode 100644
index f16faff1c..000000000
Binary files a/docs/ja/guides/pipeline-integrations/development/images/develop.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/development/images/reload-restart.png b/docs/ja/guides/pipeline-integrations/development/images/reload-restart.png
deleted file mode 100644
index 8b3dbf12a..000000000
Binary files a/docs/ja/guides/pipeline-integrations/development/images/reload-restart.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/development/images/starter-app.png b/docs/ja/guides/pipeline-integrations/development/images/starter-app.png
deleted file mode 100644
index b9293c8ae..000000000
Binary files a/docs/ja/guides/pipeline-integrations/development/images/starter-app.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/development/images/tk-multi-starterapp-directory.png b/docs/ja/guides/pipeline-integrations/development/images/tk-multi-starterapp-directory.png
deleted file mode 100644
index f8b353863..000000000
Binary files a/docs/ja/guides/pipeline-integrations/development/images/tk-multi-starterapp-directory.png and /dev/null differ
diff --git a/docs/ja/guides/pipeline-integrations/development/sgtk-developer-app.md b/docs/ja/guides/pipeline-integrations/development/sgtk-developer-app.md
deleted file mode 100644
index d377227f8..000000000
--- a/docs/ja/guides/pipeline-integrations/development/sgtk-developer-app.md
+++ /dev/null
@@ -1,245 +0,0 @@
----
-layout: default
-title: アプリを開発する
-pagename: sgtk-developer-app
-lang: ja
----
-
-# 独自のアプリを開発する
-
-## はじめに
-
-このガイドでは、Toolkit アプリの概要と作成方法、およびアプリ開発に関する基本事項について説明します。{% include product %} Pipeline Toolkit は {% include product %} Software が管理するアプリとエンジンのコレクションであるだけでなく、カスタムのパイプライン ツールを迅速かつ簡単に作成するための開発プラットフォームも提供します。
-
-- [Toolkit アプリとは何か?](#what-is-a-toolkit-app)
-- [独自のアプリを作成する](#creating-your-own-app)
-
-手順:
-1. [開発サンドボックスを作成する](#part-1-creating-a-development-sandbox)
-2. [スターター アプリ リポジトリのフォークまたはダウンロード](#part-2-forking-or-downloading-the-starter-app-repository)
-3. [アプリを環境設定に追加する](#part-3-adding-the-app-to-your-config)
-4. [アプリを開発する](#part-4-developing-the-app)
- - [テンプレート スターター アプリの構造](#anatomy-of-the-template-starter-app)
- - [環境設定](#configuration-settings)
- - [フレームワーク](#frameworks)
- - [変更を再ロードする](#reloading-your-changes)
-5. [テスト](#part-5-testing)
-6. [最初のリリースを準備する](#part-6-preparing-your-first-release)
-
-追加情報:
-- [既存のアプリを変更する](#modifying-an-existing-app)
- - [支援する](#contributing)
-
-## Toolkit アプリとは何か?
-
-Toolkit アプリは、次のように定義されます。
-
-- {% include product %} 統合の環境において、通常はエンドユーザによって実行されるツール。
-- 通常、アプリにはユーザの操作をガイドするためのグラフィカル ユーザ インタフェースが備わっているが、必ずしも必要なわけではない。統合に登録されたコマンドとして使用可能なアプリもあり、ホスト ソフトウェアの {% include product %} メニューからトリガできる。
-- 他のプロセスやアプリと相互作用できる API/パブリック メソッドが含まれることがある。
-- 複数のプラットフォームに対応することが可能で、ソフトウェアに依存しない。
-- [環境](https://developer.shotgridsoftware.com/ja/487a9f2c/#what-is-an-environment)に応じて異なる設定にすることができる。
-- コンテキスト対応にすることができる。たとえば、ユーザが作業しているタスクをアプリが認識し、それに応じて動作するように設定できる。
-- Toolkit エンジンからのみ実行できる。
-
-Toolkit アプリは Toolkit エンジンによって初期化されます。[エンジン](https://developer.shotgridsoftware.com/tk-core/platform.html#engines)は特定のソフトウェア環境内で実行するように設計されていて、この環境から Toolkit アプリを実行するインタフェースが提供されます。エンジンを使用すると、アプリでさまざまなソフトウェア環境を処理するという複雑な作業が不要になります。つまり、アプリに必要なことは目的を達成するための機能を提供することであり、ウィンドウのペアレント化の処理、ユーザのコンテキストのトラッキング、自分自身を起動するためのショートカットなどを提供する必要はありません。
-
-## 独自のアプリを作成する
-{% include product %} Software によって維持およびリリースされるすべてのアプリとエンジンはオープン ソースであり、[GitHub](https://github.com/shotgunsoftware) から入手できます。
-
-このセクションでは、スターター テンプレートを使用して新しいアプリを作成する方法について説明します。
-ユーザは GitHub と git のワークフローに精通していることが前提となりますが、ソース管理ソリューションとして git を使用していなくても、Toolkit の開発は可能です。
-
-
-## パート 1: 開発サンドボックスを作成する
-他の作業を開始する前に、[プロジェクト設定のクローンを作成して開発サンドボックスを設定する](../getting-started/installing_app.md#clone-the-pipeline-configuration-you-want-to-add-an-app-to)ことをお勧めします。
-これにより、個別の設定が作成され、プロダクション環境の他のユーザに影響を与えることなく、コードを開発して変更をテストできるようになります。
-
-## パート 2: スターター アプリ リポジトリのフォークまたはダウンロード
-オートデスクは、独自のアプリを作成する際の第一歩として使用できる[テンプレート スターター アプリ](https://github.com/shotgunsoftware/tk-multi-starterapp)を提供しています。このアプリを使用すると、ユーザ用に設定されたすべての標準的なツールキット定型コード、および基本的なサンプル GUI が使用できるようになります。
-
-
-
-このプラグインを使用するには、git リポジトリをフォークしてディスク上のローカル開発領域にクローンを作成します。この段階で git ソース コントロールを使用しない場合は、zip ファイルとして GitHub からファイルをダウンロードし、ローカルに解凍します(git リポジトリは後でいつでもセットアップできます)。いずれの場合も、目標となるのは、変更を開始できるよう、スターター アプリ コードのローカル コピーを作成することです。
-
-## パート 3: アプリを環境設定に追加する
-「[アプリを追加する](../getting-started/installing_app.md)」ガイドを参照することをお勧めします。このガイドには、環境設定にアプリを追加する詳細な方法が示されています。
-
-アプリを環境設定に追加する場合は、アプリの使用場所を考慮する必要があります。たとえば、Nuke だけで使用する場合、複数の異なるソフトウェアで使用する場合、または {% include product %} Desktop からスタンドアロンで使用する場合があります。
-アプリが依存するコンテキストについても考慮する必要があります。たとえば、ユーザが作業しているタスクがわかっている場合に限ってアプリを実行できるのか、または既知のプロジェクトに限定してアプリを実行できるのかを検討します。この情報がわかれば、アプリの設定を追加する必要がある YAML 環境ファイルおよびエンジンが決まります。
-
-現時点で不明な場合は、まず、プロジェクト環境の `tk-shell` エンジンにアプリの設定を追加することをお勧めします。このようにすると、[IDE から実行](./sgtk-developer-bootstrapping.md)したり、[一元管理設定](https://developer.shotgridsoftware.com/tk-core/initializing.html#centralized-configurations)がある場合に tank コマンドを使用してコマンド ラインから実行したりできます。これにより、開発にかかる時間が短縮されます。
-
-最初は、アプリの場所として[開発記述子](https://developer.shotgridsoftware.com/tk-core/descriptor.html#pointing-to-a-path-on-disk)を使用します。
-
-```yaml
-tk-multi-starterapp:
- location:
- type: dev
- path: /path/to/source_code/tk-multi-starterapp
-```
-開発記述子は、Toolkit に対して、指定された場所のディスクから直接アプリ コードをロードするよう指示します。これは、コードを常に変更する必要がある開発に最適です。
-後でプロダクション設定にアプリを追加する場合は、別の記述子を使用できます。
-
-アプリの環境への追加が完了すると、アプリを起動することができるようになります。アプリの起動方法は、エンジン、およびエンジン内で定義された環境によって異なります。
-
-## パート 4: アプリを開発する
-
-これで、アプリの開発を開始する準備ができました。
-
-### テンプレート スターター アプリの構造
-
-[テンプレート スターター アプリ](https://github.com/shotgunsoftware/tk-multi-starterapp)には、以下の基本構造が含まれています。
-
-
-
-- **app.py**: アプリのエントリ ポイントとメニュー登録は `app.py` ファイルにあります。通常は、ここでクラスを設定し、必要な初期化およびメニュー項目の登録を行います。
-- **info.yml**: マニフェスト ファイルとも呼ばれます。このアプリをインストールするときに必要なさまざまな設定と、既定値(指定されている場合)がすべて定義されます。再利用可能なアプリが必要で、アプリ自体に値をハード コードしたくない場合には、それらの設定がしばしば役に立ちます。
-- **python/app/dialog.py**: このフォルダには、メイン アプリ ウィンドウを生成するロジックやイベント コールバックなどが格納されます。
-- **python/app/ui**: このフォルダには、自動的に生成された UI コードおよびリソース ファイルが格納されます。このフォルダを直接編集しないで、代わりに `resources` フォルダ内の Qt UI ファイルを編集してください。
-- **resources/**: リソース フォルダにある `dialog.ui` ファイルは Qt Designer ファイルです。これを開いて使用することで、アプリのルック アンド フィールをすばやく設計および定義することができます。
- 変更の後、`build_resources.sh` スクリプトを実行して UI ファイルを Python コードに変換し、`/python/app/ui/dialog.py` として保存する必要があります。
-- **style.qss**: このファイルで UI の QSS (Qt スタイルシート)を定義できます。
-
-{% include info title="注" content="アプリに UI はなくてもかまいませんが、有効なアプリの最低限の要件は、`app.py` に `Application` クラスおよび `info.yml` が含まれていることです。"%}
-
-### 環境設定
-マニフェスト ファイル内に、アプリの設定を定義できる `configuration` セクションが含まれている必要があります。
-
-マニフェスト ファイル内で設定を定義すると、YAML 環境ファイル内のアプリにさまざまな値を設定できます。これは、アプリが配置されている環境に応じて動作を変更する必要がある場合に便利です。
-
-たとえば、ファイルを保存するときに使用するテンプレートを定義する設定が必要な場合があります。
-```yaml
-save_template:
- type: template
- default_value: "maya_asset_work"
- description: The template to use when building the path to save the file into
- allows_empty: False
-```
-この設定を作成すると、アプリ コード内にテンプレート名をハード コード化する必要がなくなり、代わりに `info.yml` 内で既定で定義された設定、または YAML 環境ファイルの設定でオーバーライドされた設定から[値を取得](https://developer.shotgridsoftware.com/tk-core/platform.html#sgtk.platform.Application.get_setting)できるようになります。
-
-```python
-template = app.get_setting("save_template")
-```
-つまり、アプリが実行されている環境に応じて、異なるテンプレートを使用するようにアプリを設定できます。
-
-環境設定の詳細については、[リファレンス ドキュメント](https://developer.shotgridsoftware.com/tk-core/platform.html#the-configuration-section)を参照してください。
-
-### フレームワーク
-
-フレームワークを使用することがわかっている場合は、マニフェスト ファイルに追加できます。
-
-たとえば、アプリで Qt ウィジェットと {% include product %} ユーティリティ フレームワークを使用する場合は、`info.yml` に以下を追加します。
-
-```python
-# the frameworks required to run this app
-frameworks:
- - {"name": "tk-framework-shotgunutils", "version": "v2.x.x"}
- - {"name": "tk-framework-qtwidgets", "version": "v1.x.x"}
-```
-
-#### フレームワークの必要最小バージョン
-フレームワークに必要最低限のバージョンがある場合は、`info.yml` で minimum_version 設定を使用できます。
-
-```python
-# the frameworks required to run this app
-frameworks:
- - {"name": "tk-framework-shotgunutils", "version": "v2.x.x"}
- - {"name": "tk-framework-qtwidgets", "version": "v1.x.x", "minimum_version": "v1.5.0"}
-```
-
-これにより、`tk-framework-qtwidgets` の `v1.5.0` がアプリで使用できるようになります。
-使用できない場合、アプリは起動時にロードされず、コンソールにエラーが出力されます。
-アプリが `tank updates` を使用して更新されると、必要最小限のバージョンを満たしていない設定済みのフレームワークはアプリとともに自動的に更新されます。
-
-フレームワークとその効果的な利用の方法については、次のリンクを確認してください:
-
-- [Qt ウィジェット フレームワーク](https://developer.shotgridsoftware.com/tk-framework-qtwidgets/)
-- [{% include product %} utils フレームワーク](https://developer.shotgridsoftware.com/tk-framework-shotgunutils/)
-
-### 変更を再ロードする
-
-Maya などのソフトウェア内でアプリをテストする場合に、設定に 1 つまたは複数の開発項目を追加するとすぐに、Toolkit は {% include product %} メニューに**[Reload and Restart]**オプションを追加します。
-オプション](./images/reload-restart.png)
-
-これをクリックすると、設定とコードが再ロードされ、エンジンが再起動されます。これによって、繰り返しの処理が高速化されます。すなわち、Maya を一度起動し、目的のコードまたは構成の変更を実行したら、**[Reload and Restart]**ボタンを押すだけで、変更が有効になります。
-
-{% include info title="注" content="UI が画面上でアクティブになっている場合は、自動的に更新されず、メニューから UI を呼び出して再起動する必要があります。"%}
-
-## パート 5: テスト
-コードをテストする場合は、他のユーザを {% include product %} の `PipelineConfiguration` エンティティの `User Restrictions` フィールドに追加することで、自分の開発サンドボックスに簡単に招待できます。
-
-ユーザを追加するとすぐに、{% include product %} Create 内のメニューに関する新しいエントリ、ブラウザ アクション、および {% include product %} Desktop 内で設定を選択するオプションが表示されます。
-
-
-
-{% include info title="注" content="アプリ コードを表示するために必要なアクセス権がユーザにあることを確認してください。必要なアクセス権がない場合は、アプリがロードされません。"%}
-
-## パート 6: 最初のリリースを準備する
-
-[パート 3](#part-3---adding-the-app-to-your-config) では、開発記述子を使用してアプリを指すように設定しました。リリース済みのソフトウェアを安全かつ簡単にアップグレードできるようにするには、すべてのユーザがアプリにアクセスできること、およびバージョン管理が行われていることを確認する必要があります。
-
-{% include product %} に付属しているすべてのアプリは、Toolkit App Store を使用して更新とリリースをトラックし、次のようなロケーション タグを持ちます:
-
-```yaml
-location:
- name: tk-multi-setframerange
- type: app_store
- version: v0.1.7
-```
-これにより、Toolkit (たとえば、`tank updates` コマンド)は更新が利用可能になる時期を確認し、設定を非常に安全な方法で更新および維持することができます。
-更新コマンドの実行中に新しいバージョンが利用可能になると、Toolkit はコードをダウンロードし、ディスク上のローカルな「バンドル キャッシュ」に配置し、ユーザがコードにアクセスできるようにします。
-
-アプリのリリースを取得するオプションがいくつか用意されています。
-
-- [Git](https://developer.shotgridsoftware.com/tk-core/descriptor.html#tracking-against-tags-in-git) および [GitHub](https://developer.shotgridsoftware.com/tk-core/descriptor.html#tracking-against-releases-on-github)
-- [{% include product %} アップロード](https://developer.shotgridsoftware.com/tk-core/descriptor.html#pointing-at-a-file-attachment-in-shotgun)
-- [ローカル パス](https://developer.shotgridsoftware.com/tk-core/descriptor.html#pointing-to-a-path-on-disk)
-
-プロダクション設定内でアプリを追加し、必要に応じて記述子を使用するように切り替えます。
-
-### git ベースの記述子
-
-git 記述子を使用する場合でも、変更が確実にトラックされるように、まずソース コントロールを使用することをお勧めします。
-
-Toolkit では、git (http://git-scm.com/)をそのまま使用できます。設定で `tank updates` を実行している場合は、アプリ ストアの記述子の場合と同様に、git リポジトリ内で最新リリースを検索して設定を更新できます。
-
-このための要件は、次のとおりです。
-
-- git リポジトリにアプリが 1 つだけ含まれている必要があります
-- git リポジトリの構造が[スターター アプリのリポジトリ](https://github.com/shotgunsoftware/tk-multi-starterapp)と同じである必要があります。
-- タグを作成する場合は、[セマンティック バージョニング](https://semver.org/lang/ja/)を使用します。Toolkit はこれらのバージョン番号を使用して、どのバージョンが最新であるかを、規則 `vX.Y.Z` に従って判別します。
-
-git で最初のタグ(例: `v1.0.0`)を作成した後で、タグを指す git 記述子を使用するように環境を設定できます。その後、`tank updates` を実行します。新しいタグが作成されると、アップグレードするかを尋ねるメッセージが表示されます。
-これで、ワークフローは公式の App Store アプリで実行されるワークフローと同じになります。
-
-{% include warning title="注意" content="git 記述子は[中央設定](https://developer.shotgridsoftware.com/tk-core/initializing.html#centralized-configurations)で適切に機能します。中央設定では、通常、管理者がアプリのキャッシュを実行して、すべてのユーザがアクセスできる中央の場所に格納します。ただし、[分散設定](https://developer.shotgridsoftware.com/tk-core/initializing.html#distributed-configurations)を使用している場合は、適切に機能しない可能性があります。アプリはユーザごとにダウンロードされるため、それぞれのユーザが git をインストールするとともに、リポジトリを使用して認証し、コードにアクセスするように設定する必要があります。"%}
-
-## 既存のアプリを変更する
-場合によっては、空のスターター テンプレートから開始するのではなく、{% include product %} Software の標準アプリの 1 つなどの既存のアプリに、マイナー機能を追加する必要があります。
-
-変更したバージョンのアプリを使用する場合は通常、ソース アプリを「トラック」し、定期的に変更とバグ修正を取得します。
-
-このような開発を行うときは、親コードを選択し、変更のいくつかを適用して、パイプラインにリリースします。
-リリースはアプリの基本バージョンと適用されたローカルの変更で効果的に構成されます。
-既存のバージョン番号にバージョン サフィックスを追加することを推奨します。
-これは Toolkit とシームレスに連携し、動作も比較的単純です。
-次のワークフローに実行の手順を示します。
-
-- 親アプリをフォークして、自分専用のリポジトリを作成します。フォークを使用してすべての git タグを取得します。
- 最新のタグは `v0.2.12` と呼ばれ、マスター ブランチは基本的にこのタグのコンテンツと同じです。
-- 変更を適用し、マスター ブランチにコミットします。これで、`v0.2.12` に変更が加えられた状態になります。
- これをプロダクション構成にリリースするときは、タグを作成する必要があります。タグに `v0.2.12.1` という名前を付け、コードが `v0.2.12` に基づいていること、そしてこれが最初のリリースであることを示します。
-- 誰かが変更部分にバグを見つけました。バグを修正し、タグを付けて `v0.2.12.2` をリリースします。
-- 親リポジトリではいくつかの重要なバグ修正がリリースされました。
- それらをリポジトリにプル ダウンします。親リポジトリで発生したリリースにより、現在の最新のタグは `v0.2.15` です。
- 変更をマスターとマージして、テストします。これで、基本的に親アプリ `v0.2.15` が変更にマージされました。`v0.2.15.1` にタグを付けます。
-
-上記のタグ付けスキームにより、Toolkit の更新が正しく実行され、フォーク内の各タグがどのコードに基づいているかを簡単に確認できるようになります。
-
-### 支援する
-プル リクエストを歓迎します。他のユーザにとっても有益と思われる変更を行った場合には、プル リクエストとしてフィードバックしていただくようお願いいたします。
-フィードバックは、アプリのメイン バージョンに反映させていただく場合があります。
-あるいは、[ロードマップ ページ](https://www.shotgunsoftware.com/roadmap/)に新しいアイデアに関する提案を追加してください。
-
-コミュニティで共有するアプリを作成したら、[フォーラム](https://community.shotgridsoftware.com/)ですべてのユーザにお知らせください。
diff --git a/docs/ja/guides/pipeline-integrations/development/sgtk-developer-bootstrapping.md b/docs/ja/guides/pipeline-integrations/development/sgtk-developer-bootstrapping.md
deleted file mode 100644
index 2070f9759..000000000
--- a/docs/ja/guides/pipeline-integrations/development/sgtk-developer-bootstrapping.md
+++ /dev/null
@@ -1,350 +0,0 @@
----
-layout: default
-title: アプリをブートストラップおよび実行する
-pagename: sgtk-developer-bootstrapping
-lang: ja
----
-
-# アプリをブートストラップおよび実行する
-
-このガイドでは、カスタム コードの実行やアプリの起動を行えるように Toolkit エンジンを初期化するプロセス(別名、ブートストラップ)について説明します。
-
-ブートストラップは、Toolkit エンジンがまだ起動されておらず、API を使用する必要がある場合に役立ちます。たとえば、レンダー ファーム上で実行される処理スクリプトがあり、パスとコンテキストを処理するために Toolkit API を使用しなければならない場合があります。または、お気に入りの IDE から Toolkit アプリを実行できる機能が必要になる場合もあります。
-
-{% include info title="注" content="[分散設定](https://developer.shotgridsoftware.com/tk-core/initializing.html#distributed-configurations)を使用している場合は、Toolkit エンジンを初期化してから、Toolkit API メソッドを実行する必要があります。[中央設定](https://developer.shotgridsoftware.com/tk-core/initializing.html#centralized-configurations)を使用している場合は、エンジンをブートストラップしなくても API を使用できます。ただし、[ファクトリ メソッド](https://developer.shotgridsoftware.com/tk-core/initializing.html#factory-methods)を使用している場合は、`sgtk` を読み込むときに、プロジェクトに適した Core API のパスを手動で特定する必要があります。" %}
-
-
-### 要件
-
-- Python プログラミングの基礎についての理解。
-- 高度な設定を使用するプロジェクト。まだ環境設定を行っていない場合は、「[設定の開始](../getting-started/advanced_config.md)」に従ってください。
-
-### 手順
-
-1. [ブートストラップ用の Toolkit API を読み込む](#part-1-importing-the-toolkit-api-for-bootstrapping)
-2. [ログ記録](#part-2-logging)
-3. [認証](#part-3-authentication)
-4. [エンジンをブートストラップする](#part-4-bootstrapping-an-engine)
-5. [アプリを起動する](#part-5-launching-an-app)
-6. [完全なスクリプト](#part-6-the-complete-script)
-
-## パート 1: ブートストラップ用の Toolkit API を読み込む
-
-### sgtk はどこから読み込む必要がありますか?
-
-「[パスを生成してパブリッシュする](sgtk-developer-generating-path-and-publish.md)」に従った場合は、`sgtk` の読み込み手順について学習しています。
-
-このガイドには、作業するプロジェクト設定から `sgtk` パッケージを読み込む必要があると記載されています。ブートストラップを実行する場合もこの説明は当てはまりますが、どの初期 `sgtk` パッケージを読み込むかは重要ではありません。どの Toolkit API でも、異なるプロジェクト設定へのブートストラップ操作を実行できるためです。ブートストラップ プロセスは、現在読み込まれている sgtk パッケージを、新しいプロジェクト設定の Toolkit API に入れ替えます。
-
-### スタンドアロン Toolkit Core API をダウンロードする
-
-まず、[`tk-core`](https://github.com/shotgunsoftware/tk-core/tree/v0.18.172/python) にある `sgtk` API パッケージを読み込む必要があります。既存のプロジェクトからパッケージを読み込むことができますが、このパッケージを検索する作業は面倒なことがあります。推奨方法は、[最新の Core API](https://github.com/shotgunsoftware/tk-core/releases) のスタンドアロン コピーをダウンロードし、このコピーをブートストラップの目的に限って使用することです。このコピーは、読み込み可能な便利な場所に保存する必要があります。追加するパスが、`tk-core` フォルダ内の `python` フォルダを指していることを確認してください。なぜなら、ここが `sgtk` パッケージが格納されている場所だからです。
-
-### コード
-
-```python
-# If your sgtk package is not located in a location where Python will automatically look
-# then add the path to sys.path.
-import sys
-sys.path.insert(0, "/path/to/tk-core/python")
-
-import sgtk
-```
-
-## パート 2: ログ記録
-
-IDE またはシェルを使用してこのスクリプトを実行する場合は、通常、ログの出力を有効にする必要があります。ログの出力を有効にするには、[`LogManager().initialize_custom_handler()`](https://developer.shotgridsoftware.com/tk-core/utils.html#sgtk.log.LogManager.initialize_custom_handler) を実行する必要があります。
-このためにカスタム ハンドラを提供する必要はありません。カスタム ハンドラが提供されていない場合は、標準のストリームベース ログ ハンドラが設定されるためです。
-
-必要に応じて [`LogManager().global_debug = True`](https://developer.shotgridsoftware.com/tk-core/utils.html#sgtk.log.LogManager.global_debug) を設定して、より詳細な出力を行うこともできます。
-つまり、付属のコードまたは作成したコード内のすべての `logger.debug()` 呼び出しが出力されるようになります。ログ記録はパフォーマンスに影響することがあるため、開発中に限ってデバッグ ログを有効にし、通常の操作中は、`logger.info()` メソッドの呼び出し回数を、表示するために必要な回数に制限する必要があります。
-
-```python
-import sgtk
-
-# Initialize the logger so we get output to our terminal.
-sgtk.LogManager().initialize_custom_handler()
-# Set debugging to true so that we get more verbose output, (should only be used for testing).
-sgtk.LogManager().global_debug = True
-```
-
-## パート 3: 認証
-
-{% include product %} Toolkit が既に起動されている環境の外部で Toolkit API を使用するスクリプトを実行する場合は、常に認証する必要があります。
-したがって、ブートストラップを実行する前に、{% include product %} サイトで Toolkit API を認証する必要があります。
-
-認証には、ユーザの資格情報またはスクリプトの資格情報を使用できます。
-
-- アプリの起動やユーザ入力が必要な一部のコードの実行など、ユーザ向けプロセス用にブートストラップを行う場合は、ユーザ認証が最適な方法です(既定では、オートデスクのすべての統合機能がユーザ認証を使用して動作します)。
-- スクリプトを記述して操作を自動化している場合に、認証対象のユーザが存在しないときは、スクリプト資格情報を使用する必要があります。
-
-認証は [`{% include product %}Authenticator`](https://developer.shotgridsoftware.com/tk-core/authentication.html?highlight=shotgunauthenticator#sgtk.authentication.ShotgunAuthenticator) クラスを使用して処理されます。
-次に、ユーザ認証とスクリプト認証の両方の例を示します。
-
-### ユーザ認証
-
-```python
-# Import Toolkit so we can access to Toolkit specific features.
-import sgtk
-
-# Instantiate the authenticator object.
-authenticator = sgtk.authentication.ShotgunAuthenticator()
-
-# Optionally you can clear any previously cached sessions. This will force you to enter credentials each time.
-authenticator.clear_default_user()
-
-# The user will be prompted for their username,
-# password, and optional 2-factor authentication code. If a QApplication is
-# available, a UI will pop-up. If not, the credentials will be prompted
-# on the command line. The user object returned encapsulates the login
-# information.
-user = authenticator.get_user()
-
-# Tells Toolkit which user to use for connecting to ShotGrid. Note that this should
-# always take place before creating an `Sgtk` instance.
-sgtk.set_authenticated_user(user)
-```
-
-### スクリプト認証
-
-```python
-# Import Toolkit so we can access to Toolkit specific features.
-import sgtk
-
-# Instantiate the authenticator object.
-authenticator = sgtk.authentication.ShotgunAuthenticator()
-
-# Create a user programmatically using the script's key.
-user = authenticator.create_script_user(
- api_script="Script Name",
- api_key="4e48f....